Влияние ИИ на человеческое общество ощущается уже сейчас. Во-первых, дата-майнинг и нейросети всё активнее используются в сфере управления. Обычному человеку не очень приятно осознавать, что его босс — алгоритм, который оценивает качество работы, выписывает премии и может уволить в любой момент. Но такова жизнь.
▍ Незаметное влияние
Во-вторых, внедрение алгоритмических рекомендаций. Алгоритмы по сути определяют, какие новости читать, какое видео смотреть и т.д. Они уже влияют на человеческую культуру и поведение. Конечно, эти алгоритмы написаны людьми — и корпорации пока теоретически могут ими управлять и корректировать на своё усмотрение. Но мы близки к тому моменту, когда некоторые из этих систем начнут работать по принципу «чёрного ящика». То есть разработчики не смогут их понимать и корректировать.
Понятно, что ИИ радикально изменит общество. Вопрос, как именно это произойдёт и когда.
Есть мнение, что технологии развиваются как живой организм. Они хотят того же, что и живые существа (жить, размножаться), эволюционируя и сопротивляясь своему уничтожению. Это практически закон природы. Таким образом, ИИ распространится и будет везде, как воздух, компьютеры и интернет. Остановить этот процесс практически невозможно.
К каким результатам это приведёт? Давайте рассуждать логически. Мы знаем, что умные люди добиваются больших успехов в жизни, чем глупые. Умные превосходят глупых практически во всём: в науке, бизнесе, культуре, философии, строительстве, транспорте, этике и морали, романтических делах, на войне. Применение IQ напрямую коррелирует с качеством жизни.
Никто не будет спорить, что за последние несколько тысяч лет благодаря научно-техническому прогрессу уровень и стандарты жизни выросли на порядок. Сейчас темпы ещё ускорились. Там, где внедряются технологические инновации — цены падают (то есть блага становятся более доступными), где нет — цены растут.
Это прямая взаимосвязь между инновациями (как производной от IQ) и качеством жизни.
Конечно, с повышением жизненного комфорта растёт количество психических заболеваний, самоубийств, ожирения и т. д. Лёгкая жизнь — не всегда синоним счастливой жизни, а часто наоборот. Тем не менее, прогресс идёт именно в том направлении, чтобы избавлять человека от любых трудностей.
Какой из этого вывод? Появление в нашем распоряжении в тысячу раз более умного инструмента должно ускорить развитие цивилизации — и, соответственно, многократно улучшить качество жизни. Всё логично. Вот лишь некоторые очевидные прогнозы того, как изменится жизнь после небольшой доработки существующих технологий, по мнению Марка Андрессена:
- У каждого ребёнка будет персональный ИИ-наставник, бесконечно терпеливый, максимально информированный и полезный. Он будет помнить все беседы с ребёнком от 0 до 18 лет, помогая ему максимально раскрыть свой потенциал. ИИ уже на наших глазах меняет индустрию образования.
- Аналогично, у каждого взрослого будет помощник/тренер/наставник/инструктор/советник/терапевт с такими же качествами и памятью.
- У каждого учёного появится помощник/сотрудник/партнёр в лице ИИ, который значительно расширит сферу его научных исследований и достижений. Каждый художник, каждый инженер, каждый бизнесмен, каждый врач будут иметь то же самое. Такие же советники появятся у учителей, тренеров, чиновников, президентов корпораций, президентов стран. Это снизит количество необдуманных глупых решений практически до нуля.
- Резко ускорится рост производительности труда в экономике, что приведёт к экономическому росту, созданию новых отраслей, появлению новых рабочих мест, росту зарплаты.
- Увеличится количество научных открытий, новых технологий и лекарств.
- В искусстве наступит золотой век, поскольку художники, музыканты, писатели и кинематографисты с помощью ИИ получат возможность реализовать свои идеи гораздо быстрее и в бóльших масштабах.
Одним словом, практически все существующие сферы деятельности станут лучше. Более того, мы сможем решать новые задачи, которые раньше было невозможно решить без ИИ.
Речь не только о повышении IQ человечества, но также о повышении гуманизма, эмпатии. Мы видим, что чатботы-компаньоны (консультанты, романтические партнёры, врачи) способны проявить к людям гораздо больше сочувствия, чем их человеческие коллеги. Возможно, программы ИИ сделают мир теплее и добрее.
И такие изменения произойдут повсеместно. Проблема в том, что людям свойственно оставлять без особого внимания положительные события и изменения вокруг — и остро реагировать на негатив, неприятные события, мысли и др. (т. н. селективное внимание к негативной информации). Поэтому вполне логично, что внимание специалистов и общества больше сконцентрировано на потенциальной опасности применения ИИ, а не на преимуществах. Такая же моральная паника происходила после изобретения электричества, радио, телевидения, интернета и т. д.
Страх новых технологий вынуждает некоторых технофобов призывать к запрету на разработку ИИ, вплоть до ядерных ударов по дата-центрам, если обычная бомбардировка не даст результат:
Вероятно, бомбить будут ДЦ с ИИ, который не приведён в соответствие с человеческими ценностями. Выравнивать ИИ хотят по четырём уровням ценностей.
Четыре уровня «воспитания» ИИ в соответствии с человеческими ценностями (AI Alignment), из документа
Такой подход предполагает, что ИИ заведомо не соответствует человеческим ценностям, поощряя моральную панику. Негативный биас усиливается в СМИ, которые эксплуатируют это когнитивное искажение — и фокусируются на негативных новостях. Устрашающие картинки сильнее всего привлекают внимание:
Пугающая иллюстрация из статьи WSJ о технологиях машинного обучения
Чем больше страха у читателей, тем больше переходов по ссылкам, больше просмотров и рекламных доходов СМИ.
▍ Будущее войны
По мнению некоторых военных специалистов, внедрение сильного ИИ в различные виды вооружения повлечёт катастрофические последствия. Дистанционно управляемые и автономные боевые системы ИИ найдут широкое применение: «В конце концов, люди всё равно будут принимать ключевые решения о вступлении в войну, об оперативном плане, но нам необходимо найти другой баланс в отношениях с этими автономными системами… Они будут присутствовать во всех областях. Станут вездесущими. И нам предстоит разобраться с этим, — говорит бывший генерал австралийских ВС Мик Райан (Mick Ryan). Он считает наиболее вероятным сценарий роботизированной агрессии со стороны Китая, который в последнее десятилетие активно инвестирует в разработку ИИ и наращивает вооружение.
Вышеупомянутый Марк Андрессен считает, что внедрение ИИ на войне станет благом, ибо резко уменьшит смертность. Грубо говоря, воевать будут роботы против роботов, а не люди.
Разведывательный беспилотник Black Hornet 3 весом 33 г
Впрочем, из истории напрашивается скорее обратный вывод: благодаря техническим инновациям количество жертв в современных войнах растёт (40 млн в первую мировую, 70–85 млн во вторую).
Есть позитивный сценарий, что благодаря внедрению сильного ИИ и коллективного интеллекта необходимость войн можно свести на нет. Любая война характеризуется ужасными решениями, принимаемыми под сильным давлением в условиях резко ограниченной информации лидерами с ограниченным IQ. В будущем у военных командиров и политических лидеров появятся ИИ-советники, которые помогут принимать гораздо более правильные стратегические и тактические решения, сводя к минимуму риск, ошибки и ненужное кровопролитие.
В негативном сценарии кровожадные диктаторы, конечно, используют любое новое изобретение для агрессии против «врагов» (враги у такого режима есть всегда).
▍ Будущее программирования
У разработчиков появился новый эффективный инструмент, который уже сейчас в некоторых узких областях генерирует на 100% валидный код, а в целом может использоваться также для генерации тестов, поиска ошибок, рефакторинга, поиска уязвимостей и десятков других задач.
Конечно, синтез программ был активной областью исследований со стародавних времён. Даже синтез программ из спецификаций на естественном языке не является чем-то новым, также как нейронный синтез программ и синтез программ по поведению других программ без примеров кода. Все эти исследования велись до появления LLM.
С другой стороны, ИИ — это фундаментальная технология. Сегодня любой желающий может скачать обученную модель LLaMA 2, Falcon, StableLM, Vicuna, LongChat или другую, снять верхний слой и настроить её на собственном датасете, запустив локально на своём ПК. Это принципиально новые возможности, недоступные ранее.
▍ Единственный выход?
Что глобально ожидает человечество в далёком будущем через несколько десятилетий или столетий? Это не обязательно апокалипсис и война против роботов, как показывают в кино. Скорее наоборот. Возможно, только ИИ способен спасти нашу планету от ядерной войны и глобального потепления. Может быть, это вообще единственный выход для нас.
По сценарию AGI Simulator, через несколько десятилетий программы ИИ будут избираться на управляющие посты корпораций и стран, что резко повысит эффективность управления обществом, уровень благосостояния, счастья населения и научно-технического прогресса.
Прогресс в сфере ИИ с первой работы Мак-Каллока 1943 года идёт по экспоненте — сейчас за один год у нас столько открытий, как раньше за десятилетие. Так что в этом смысле наступление технологической сингулярности опять кажется вероятным исходом.
По нынешнему вектору развития цивилизации (с агрессивными лидерами, животными инстинктами, конкуренцией, борьбой за ресурсы) вероятность самоуничтожения кажется довольно высокой. Если на Часах Судного дня до полуночи осталось полторы минуты, глобальное потепление входит в необратимую фазу, а люди всерьёз обсуждают вероятность ядерной войны и выживания в бункерах, то что мы теряем?
Telegram-канал с розыгрышами призов, новостями IT и постами о ретроиграх ????️
Комментарии (37)
DGN
21.08.2023 09:34+1Так прям лидеры стран, ведомые к войне личной неприязнью, когнитивными искажениями или вообще психозом, будут внимать своим ИИ советникам.
Еще "прогрессивнее" выглядит идея учить ИИ этике ядерными ударами. Подозреваю, что оставшись в инфопространстве, урок будет усвоен первым появившимся AGI.
ermouth
21.08.2023 09:34личной неприязнью, когнитивными искажениями или вообще психозом, будут внимать своим ИИ советникам
Да разное бывает, у Нэнси Рейган штатный астролог например была, глава администрации Рейгана в книжке писал, что чуть не все решения в Белом Доме принимались после совета с ней. И это просто самый известный пример.
harikein70
21.08.2023 09:34" У каждого ребёнка будет персональный ИИ-наставник " - на сегодня неизвестно ни одного способа обучения минуя поощрение и наказание. И для этого необходимо дать допуск ИИ системе - принуждать ребенка. А значит этическое правило физической безопасности человека со стороны машины будет сломано.
DGN
21.08.2023 09:34+2Наказания, типа бан на ютубе или -500 кристаллов, ИИ помошник может применять.
А как физически принуждаете вы?
agat000
21.08.2023 09:34+3Ага,а потом они вырастут психами, ненавидящими роботов и устроят Батлерианский джихад. Подчинение родителям и наказание от них еще хоть биологически предусмотрено, а психологическое насилие от "тостера" может сильно сказаться на психике.
Kergan88
21.08.2023 09:34А каким образом вы сможете забанить ребенка на ютубе или лишить его кристаллов без физического принуждения?
Dolios
21.08.2023 09:34на сегодня неизвестно ни одного способа обучения минуя поощрение и наказание.
Как раз на днях смотрел лекцию в которой утверждалось, что ругать и хвалить ребенка не стоит.
Not_Cat
21.08.2023 09:34Т.е нужно вообще ничего не делать? И смотреть что получиться? Повезло, не повезло?
Dolios
21.08.2023 09:34Почему не нужно, откуда такой вывод? Раньше нормальным считалось избивать детей, это тоже "воспитанием" называлось. Потом как то дошли до мысли, что так делать не надо.
agat000
21.08.2023 09:34Есть еще инструменты, например "5 минут занудной лекции". Помогает не хуже подзатыльника. Или 10.
Zombieff
21.08.2023 09:34+1После прочтения списка про успешность, этичность, core values и всё такое, ИИ либо роскомнадзорнется от психолого-эйчарно-маркетингового буллщита, либо посмотрит, что ни одна из стран не соответствует и не следует заявленным целям, принципам и так далее, после чего решит убить всех человеков.
VBDUnit
21.08.2023 09:34Фильтр поставит да и всё. Для человеков тоже кстати скорее всего появится, по типу AdBlock. И воду будет из текстов убирать.
bbs12
21.08.2023 09:34+2Все подобные рассуждения в конечном итоге упираются в один вопрос: в чём смысл жизни и какова её цель? У ИИ будет какая-то собственная цель или это будет цель, заложенная людьми, то есть текущей жизнью? Является ли биологическая жизнь переходным этапом к чему-то большему?
Изначально жизнь основана на одной цели: копирование ДНК с наибольшей эффективностью и в наибольших количествах. Конкуренция за право копировать ДНК приводит к насилию и войнам, так как ресурсы ограничены. Вся биологическая жизнь на Земле - это непрерывная война длительностью 4 млрд лет за ресурсы, пищу и право спариться. Теперь у жизни имеется ядерное оружие и другие технологии, и непонятно как эта жизнь собирается продолжать воевать. Даже в текущей крупной войне виден некоторый ступор с обоих сторон: они все боятся. Поэтому либо парадигма будет изменена, либо на этой конкретной планете жизнь будет завершена. Или начнётся бесконечный цикл ядерных войн и последующего восстановления, примерно как это было раньше в средние века и раньше, только теперь все войны будут происходить быстрее и разрушения будут более масштабными. Вторая мировая умножить на 10.
Учитывая скорость изменений в биосфере и скорость технологического прогресса, ответ на вопрос что делать дальше должен быть дан уже в ближайшие годы. Шансы что выживет хотя бы процентов 10 населения очень высокие, но гибель нескольких миллиардов человек всё-таки выглядит печально.
Moog_Prodigy
21.08.2023 09:34+1бесконечный цикл ядерных войн и последующего восстановления
.Нет, варианта всего два. Или всеобщий обмен нюками, или локальные одиночные удары ЯО. Но второе ядерной войной не назвать, как не были ядерной войной Хиросима и Нагасаки. А в первом случае...даже если допустить, что останутся люди, которые знают как делается ядерный цикл с нуля - захотят ли они повторения этого кошмара? При разработке ЯО уже тогда многие ученые кривили носы, догадываясь, какой ящик Пандоры они открывают. Плюс полностью разрушенная инфраструктура как минимум ядерного цикла - все с нуля. Государства пост-апокалипсиса, буде они вообще будут, а они будут, тоже могут с оглядкой на это вот всё просто запретить это оружие у себя и у соседей. И никакая секретность не спасет.
ЯО это технология с двойным дном. Как кто-то писал "никакая вещь не сделала больше для мира во всем мире, как атомная бомба". Потому что действительно, страшно бить первому, зная, что и тебя ударят.
DGN
21.08.2023 09:34+1ЯО гораздо нужнее политикам, нежели военным. Не так уж и много адекватных целей для него.
TestNickname
21.08.2023 09:34+1Не будет никакого постъядерного восстановления. Все что можно выгрести легко из природных ресурсов - уже выгребли, остальное без современных технологий и логистических цепочек недостижимо.
Начинать сначала придётся без доступной нефти, угля, газа, чугуния, люминтия, без вековых лесов и нетронутой земли. Если каким-то чудом знания древних не потеряют - то жизнь после будет очень тоскливой и печальной, уровня мечты зелёных и аматоров органического земледелия. Если потеряют - то даже уровень средневековья будет недостижимой мечтой.PeterFukuyama
21.08.2023 09:34чугуния, люминтия
Часть этих ресурсов никуда не делась и даже стала легкодоступней. Они здесь под боком: в наших домах и на свалках.
AcckiyGerman
21.08.2023 09:34+1У жизни нет смысла и цели, смыслы и цели придумали люди.
Изначально жизнь основана на одной цели: копирование ДНК с наибольшей эффективностью и в наибольших количествах.
Нет, никто такую цель для жизни не ставил (даже она сама).
Просто организмы, которые копируют себя более эффективно - выживают как вид, а остальные вымирают или занимают узкие природные ниши. Вот и всё.А приписывание вами каких-то выдуманных целей такому явлению как жизнь, это все равно что заявлять что у газа есть цель заполнить пустой сосуд равномерно (то самое "природа не терпит пустоты"). Так и до веры в бога недалеко (кто же все эти "цели" для природы придумал?)
bbs12
21.08.2023 09:34-1Можно заменить слово цель на слово желание или стремление. Организмы хотят и стремятся копировать гены. Можно сказать что у организмов есть цель удовлетворить свои желания и получить удовольствие, а получают они удовольствие как правило от того, что было эффективно с точки зрения естественного отбора.
Tangeman
21.08.2023 09:34+1Применение IQ напрямую коррелирует с качеством жизни.
Массы талантливых или близких к ним инженеров, учёных, преподавателей, врачей занялись челночной торговлей в своё время, так и не найдя применения своему IQ. Точнее, применять-то его было где, только вот на качество жизни это не влияло совсем. Некоторые (подавляющее меньшинство) потом таки выбрались, но часто не в своих областях.
В то же время личности совсем не отягощенные IQ и по сей день часто имеют намного более высокое качество жизни, и на этом не останавливаются, причём именно на них обычно работают те у кого IQ выше, хотя по идее должно было бы быть наоборот.
Ситуация мало изменилась и в наше время - из тех у кого реально высокий IQ выбиваются вперёд единицы, а не массы, так что наверное всё же корреляция не настолько прямая.
воевать будут роботы против роботов, а не люди
Конечно роботы. А страдать будут таки люди. От последствий войны роботов.
Nansch
21.08.2023 09:34Современные массы по уровню развития - это большие дети с минимумом ответственности за свою собственную жизнь. Судя по трендам, взросление дело долгое, за 2 тысячи лет так и не успели. Так что есть шанс и киборгизироваться и нейроинтерфейс с ИИ заполучить. А воевать будут, конечно, люди, т.к. войны имеют экономическую природу. Да и люди не просто дешевы, они выгодны и самовоспроизводятся, ходят на работу за еду и умирают за идею. Ну дети же!
engine9
21.08.2023 09:34+2>войны имеют экономическую природу
Возможно, это справедливо для средневековья. Сейчас войны имеют, скорее психологическую природу. Например, эксплуатация реваншистких настроений для поднятия рейтинга и т.п.evtomax
21.08.2023 09:34В современных войнах психологическими мотивами прикрывают чисто экономические интересы. Сначала кто-то решает что-то отжать у экономического конкурента, а потом уже специально обученные люди выдумают, что это зачем-то необходимо всему остальному населению.
AcckiyGerman
21.08.2023 09:34+4Военными методами можно отжать землю, но современная экономическая база в развитых странах это не земля, а образованные люди (которые от войны бегут).
Как пример, все "освобождённые" территории типа Южной Осетии, Абхазии, ДЛНР - убыточны и сидят на госбюджете с откатами и распилами и в обозримой перспективе не выйдут даже на самообеспечение (приднепровская республика 30 лет сидящая на скидочном газе и периодическом прощении долгов тому пример).
И даже если отжатый Крым ещё можно признать ценностью как "непотопляемый авианосец", то экономической ценностью он является отрицательной (денег нет но вы держитесь).
Или допустим условный Китай "отожмёт" вожделенный Тайвань. Землю они захватят, а вот ни один завод микроэлектроники работать там уже не будет, даже если сами станки не разбомбят. Ибо современные станки не работают без программ, которые легко блокируются производителем.
Вывод - современные войны действительно имеют скорее психологические, чем экономические причины.
agat000
21.08.2023 09:34Современная война, и даже простая "спецоперация" - слишком дорогое удовольствие, чтобы начинать ее по "психологии".
А интересы могут быть не только "отжать и присвоить" - это как раз Средневековье, а например "не дать отжать другому ушлому".
Или целью может быть прекращение гражданской войны у соседей, что плохо для бизнеса и экономики, да и для имиджа тоже.
Несколько арабских стран разбомбили отнюдь не из прихоти и психологии. А это были вполне себе приличного масштаба войны.
Тайвань, как и Крым - тот же авианосец, причем вражеский для Китая, но по документам вроде бы собственная территория. Вполне логичная и рациональная цель, даже для войны, если дойдет до этого
современная экономическая база в развитых странах это не земля, а образованные люди (которые от войны бегут).
Правильно, поэтому развитые страны не допускают войн на своих территориях, а разносят чужие. Чтобы свои люди жили лучше и не разбегались. Чисты прагматизм, никакой "психологии".
raamid
21.08.2023 09:34ИИ - это хорошо. Но что насчет нагрузки на экосистему? Попробую очень грубо прикинуть. Если всю работу будут делать роботы, а люди будут отдыхать, то вместо содержания 8 млрд. людей нужно будет содержать 8 млрд. людей + 8 млрд. роботов. Этих роботов нужно будет сделать и питать электричеством. А для людей потребуется гораздо больше развлекательных центров, которые тоже из чего-то делаются и что-то потребляют и что-то вредное выделяют.
Страшно становится за экологию. Я думаю, что нужно будет параллельно с автоматизацией разрабатывать методы рационального использования ресурсов.
Ну и так, вишенка на торте. Когда у человека удовлетворены все потребности и не к чему стремиться - это больше похоже на ад чем на рай. Советую почитать историю Вандербильтов.
agat000
21.08.2023 09:34Большая часть этих "роботов" отнюдь не железные, а программные боты, уже сейчас засилье. Их содержание всего лишь вопрос электроэнергии и сетей связи.
raamid
21.08.2023 09:34Я как раз имею в виду роботов, которые будут делать вполне материальные дела. Например: транспорт, домашний быт, уход за стариками, сельское хозяйство.
А насчет ботов, про которых вы говорите, есть большая разница между ботом, который что-то спамит в телеграм канал и "ботом", который проектирует камеру сгорания нового двигателя.
PanDubls
21.08.2023 09:34Там вон в соседней статье пишут, что человечество вымирает (аааа, мы все умрём). Если они правы, то людей должно стать меньше на горизонте пары сотен лет. Главное, продержаться это время.
Germanjon
21.08.2023 09:34У каждого ребёнка будет персональный ИИ-наставник, бесконечно терпеливый, максимально информированный и полезный. Он будет помнить все беседы с ребёнком от 0 до 18 лет, помогая ему максимально раскрыть свой потенциал.
Постоянно напоминать ребёнку, как он во втором классе случайно испортил воздух, в 12 лет хотел смерти соседу, а в 15 уйти к цыганам - замечательный способ воспитать неуверенного в себе психа.
Вышеупомянутый Марк Андрессен считает, что внедрение ИИ на войне станет благом, ибо резко уменьшит смертность.
Появление сильного боевого ИИ у одной страны может стать существенно большей опасностью для мира, нежели первое атомное оружие. Ибо позволяет достичь цели "зачистить территорию от войск противника", без побочных эффектов вида "а вдруг в нас прилетит ответка" и "ОК, территорию мы зачистим, но что потом делать с радиационным заражением?"
GryZin
21.08.2023 09:34+2Мне не нравится посыл статьи наполненый какой-то наивной простатой.
Технологии это прежде всего инструмент, да технологии много чего делают и улучшаю, но это прежде всего инструмент.
Сам по себе технологии никуда не движется и двигают. Не прогресс ведет человека, а человек продвигает прогресс.
Вера в то что кто-то или что-то решит за нас наши все проблема наивна. В базе человеческой жизни это социум, большинство проблем в нашей жизни имеет антропогенный характер. Ключ решение проблем лежит в самом социуме.
В своей основе успеха развитых стран составляет сильный социум, развитая коммуникация, доверие и сотрудничество, а потому уже все остальное.
Забавно когда приезжаешь в Европу тут как бы нет привычных сервисов, но при этом жизнь устроен гораздо комфортнее и безопаснее, да и еда вкуснее, вода чище.Поэтом наивно полагать что после внедрении ИИ все проблемы куда-то улетучатся. ИИ это инструмент и им надо учиться пользоваться, иначе им воспользуется кто-то другой и не в ваших интересах. А для того чтобы использование всякого рода технологий было более менее в интересах общества это общество должно уметь много чего: слушать, договаривать, сотрудничать и т.д.
achech
21.08.2023 09:34Отвечаю на последнее предложение статьи, оно оканчивается на вопросительный знак.
Если на Часах Судного дня
до полуночи осталось полторы минуты, глобальное потепление входит в
необратимую фазу, а люди всерьёз обсуждают вероятность ядерной войны и выживания в бункерах, то что мы теряем?Нам есть что терять, мы построили великую цивилизацию, которая, между прочим, прошла испытание ядерным оружием: после 1945 года его никто не применил. Борьба против изменения климата только началась, а изменение температуры на один градус это не катастрофа.
Есть проблемы, но нет повода сдаваться.
Ясно, что неудачно сконструированный ИИ может покончить с человечеством надежнее чем атомное оружие, от него бункер не защитит.
Думал прочитать в этой статье чем может помочь удачно сконструированный ИИ решению глобальных проблем и не нашел.
Vantela
В искусстве наступит золотой век, поскольку художники, музыканты, писатели и кинематографисты с помощью ИИ получат возможность реализовать свои идеи гораздо быстрее и в бóльших масштабах.
Ох, интересно, перед эпохой когда каждый школьник получил крутой фотоаппарат (современный телефон) тоже кто то вешал лапшу на уши у золотом веке фотографии? Я не спорю, вероятно, сейчас гораздо больше прекрасных снимков чем раньше. Но найти их все сложнее...
Мне вспоминается такой пример. Про помидоры. Люди покупали годами самые большие и красивые помидоры в магазинах. В результате теперь завозят именно эти сорта. Фотогеничные. А вот по количеству витаминов и вообще полезности - качество помидоров сильно упало.
В магазинах ужасающее количество углеводов. Хотя это прямо скажем не самое здоровое питание для нашего вида. Но вкусно же? Людям нравится, и они покупают. Покупают? Значит завозят.
К сожалению, эта логика разрушает весь оптимизм статьи.
janvarev
На мой взгляд, ИИ, как правило, оптимизирует то, что человеку ПРИЯТНО видеть (и скорее всего, ПРЯМО СЕЙЧАС), а не то, что глобально устойчиво/полезно и пр. Со всеми вытекающими.
Долгосрочная устойчивость вообще метрика сложная, и часто отражается в виде странных культурных артефактов ("техника безопасности пишется кровью"), которые при краткосрочном планировании склонны утекать сквозь пальцы.
dim2r
Погоду например нельзя предсказать на год вперед, так как она зависит от очень незначительных явлений, которые случайным образом складываются.
Вообще в мире много принципиально непредсказуемых явлений. Если что выпадет в казино в рулетке как-то можно предсказать, то квантовая вероятность вообще непредсказуема.