Существует пласт опасений, что искусственный интеллект способен стать угрозой существования человечества. При этом речь идет как о сценариях уничтожения в «пепле ядерной войны», так и «серой ассимиляции», что показал фильм «Превосходство». Но, согласно с новым исследованием, большие языковые модели (LLM) могут только следовать инструкциям, не могут самостоятельно развивать новые навыки и по своей сути «контролируемы, предсказуемы и безопасны», что звучит как хорошая новость для нас, мешков с мясом.
Чем больше пишу статей про мозг и сознание, тем больше понимаю, что вопросы «кто главный», «сценарии восстаний ИИ», вопросы повышения продуктивности и личной эффективности не решаются в рамках одного сценария.
Базовый сценарий, когда искусственный интеллект угрожает человечеству
Президент Соединенных Штатов объявляет общественности, что оборона страны передана новой системе искусственного интеллекта, которая контролирует ядерный арсенал. Одна команда и война становится ненужной благодаря сверхразумной машине, неспособной на ошибку, способной обучаться любым новым навыкам, которые ей требуются для поддержания мира, и которая становится все мощнее и осознаннее с каждой минутой. Она эффективна до непогрешимости.
Пока президент благодарит команду ученых, которые разработали ИИ, и предлагает тост за мир во всем мире, ИИ внезапно начинает отправлять текстовые сообщения. Он выдвигает требования, за которыми следуют угрозы уничтожить крупный город, если люди не начнут повиноваться.
Это один из сценариев о развитии ИИ за последние годы. Если мы ничего не сделаем, если еще не слишком поздно, ИИ спонтанно разовьется, станет осознанным и сверхразумным и даст понять, что Homo Sapiens низведен до уровня домашних животных. Причем такой сценарий реален для искусственного интеллекта, выращенного из частей человеческого мозга, закрепленных на чипах.
Корни страхов перед искусственным интеллектом
Странно, что притча выше берет начало из 1970 года. Это сюжет научно-фантастического триллера «Колосс: Проект Форбина». В нем рассказывается о суперкомпьютере, который с удручающей легкостью завоевывает мир. Эта идея существует с тех пор, как в 1940-х годах были построены первые настоящие компьютеры, и этот страх снова и снова развивали в книгах, фильмах и видеоиграх.
Хотя, учитывая что нейросети используют для того, чтобы стандартизировать улыбки обслуживающего персонала в магазинах, проблема может возникнуть с другой стороны.
Если взять профильные журналы по программированию, то они говорили о компьютерах и опасности захвата власти с их стороны еще с 1961 года. За последние шесть десятилетий эксперты неоднократно предсказывали, что компьютеры продемонстрируют интеллект человеческого уровня в течение «следующих пяти лет» и намного превзойдут его «в течение 10 лет».
Искусственный интеллект как устаревшая технология?
Начнем с того, что искусственный интеллект существует по крайней мере с 1960-х годов и используется во многих областях на протяжении десятилетий. Мы склонны думать о технологии как о «новой», потому что только недавно системы ИИ, обрабатывающие языковые модели и изображения, стали широко доступны. А для их работы возводятся гигантские суперкомпьютеры, имитирующие работу человеческого мозга. Это также примеры ИИ, которые более понятны большинству людей, чем шахматные движки, автономные системы полета или диагностические алгоритмы.
Такие «акселераторы перебора» вселяют страх безработицы во многих людей, области ответственности которых, казалось, напрочь лишены угрозы автоматизации.
Однако главный вопрос все же звучит как: представляет ли Искусственный Интеллект экзистенциальную угрозу? После более чем полувека ложных тревог мы наконец-то окажемся под каблуком современного Колосса или HAL 9000? А может нас подключат к Матрице?
По мнению исследователей из Университета Бата и Технического университета Дармштадта, ответ — нет.
Исследование вероятной угрозы со стороны ИИ
В исследовании, опубликованном в рамках 62-го ежегодного заседания Ассоциации компьютерной лингвистики (ACL 2024), говорится, что ИИ, и в частности LLM, по своей сути управляемы, предсказуемы и безопасны. Три абзаца ниже – это прямая речь соавтора исследования. Доктор Хариш Тайяр Мадабуши, специалист по информатике из Университета Бата.
Господствующее мнение о том, что этот тип ИИ (LLM) представляет угрозу человечеству, препятствует широкому внедрению и развитию этих технологий, а также отвлекает внимание от реальных проблем, требующих нашего внимания.
Были опасения, что по мере того, как модели будут становиться все больше и масштабнее, они смогут решать новые проблемы, которые мы в настоящее время не можем предсказать, что создает угрозу того, что эти более крупные модели могут приобрести опасные способности, включая способность к рассуждению и планированию. Это вызвало много дискуссий — например, на саммите по безопасности ИИ в прошлом году в Блетчли-парке. Но наше исследование показывает, что опасения, что модель эволюционирует и сделает что-то совершенно неожиданное, инновационное и потенциально опасное – необоснованны.
Обеспокоенность по поводу экзистенциальной угрозы, высказывают не только неспециалисты, ее высказывают и некоторые ведущие исследователи искусственного интеллекта по всему миру. Но это скорее данность нашего времени.
По материалам исследования о безопасности нейросетей, искусственного интеллекта и LLM
Если внимательно рассмотреть эти модели, проверив их способность выполнять задания, с которыми они раньше не сталкивались, то окажется, что LLM очень хорошо следуют инструкциям и демонстрируют знание языков. Они могут делать это даже тогда, когда им показывают всего несколько примеров, например, отвечая на вопросы о социальных ситуациях.
Чего они не могут, так это выйти за рамки этих инструкций или освоить новые навыки без явных инструкций. LLM могут демонстрировать странное поведение, но его всегда можно отследить до особенностей кода или заданных инструкций. Другими словами, они не могут эволюционировать во что-то большее, чем то, как они были созданы, так что никакого Deus Ex Machina.
Однако команда подчеркивает, что это не означает, что ИИ не представляет никакой угрозы. Эти системы уже обладают замечательными возможностями и станут более сложными в самом ближайшем будущем. Основная и ближайшая группа риска от нейросетей – это экспоненциальный рост постмодернистского контента. У нейросетей есть пугающий потенциал манипулировать информацией, создавать фейковые новости, скамить людей по дипфейкам, что уже главнее погоды в доме, предоставлять ложь даже без изначального намерения, злоупотреблять нейросетями как дешевым решением скрывать правду.
Истинные риски
Опасность, как всегда, исходит не от машин, а от людей, которые их программируют и контролируют. Будь то по злому умыслу или по некомпетентности, нам нужно беспокоиться не о компьютерах. А о людях, стоящих за ними.
Больше странных материалов про мозг, сознание, психику и то, насколько реально подобрать ко всему этому ключи – рассказывают материалы телеграм канала. Подписывайтесь, чтобы не пропустить свежие статьи!
Комментарии (10)
lomov_vas
19.08.2024 10:32+2Если уж мы подходим с точки зрения реализма, то опасности будут следующие:
1. Нейросети вытесняют 90% людей из творческих и околотворческих профессий.
А) Художников.
Б) Актеров озвучки.
---- Вы здесь ---
В) Сценаристов.
Г) Программистов.
Д) Большинство работников высококвалифицированного ручного труда, связанного с риском для жизни или высокой ценой ошибки: врачи, взрывотехники, работники химической, ядерной промышленности.
2. Сгенерированный контент массово замещает человеческий.
А) Фотостоки и прочие сайты с артами. Человеческие работы погребены под слоями шестипальцовых чудовищ от миджорней.
Б) Музыкальные агрегаторы страдают от засилья нейромусора.
--- Вы здесь... почти ---
В) Художественная литература практически полностью заменена нейросетевой, следом идет очередь нонфикшена.
---- Вы точно здесь. ----
Г) Видеоконтент массово производится нейросетями, фильмы, клипы, ролики на ютубе и тиктотке.
3. Сгенерированный контент подменяет реальность.
А) Люди порой путают реальные фотом со сгенерированной нейросетями дезинформацией.
--- Вы здесь ---
Б) Сгенерированный контент полностью захватил медиаполе, невозможно убедиться в том, что что-то в мире вообще существует, а не сгенерировано пропагандой, появляется возможность полностью подменить картину мира, генерируя высококачественные фейки в реальном времени на любой вкус. Тотальное недоверие ко всему, разрушение правды как концепции, дробление социума на ультрапрочные пузыри, через которые не проникнет никто и никогда.
...
Профит?deepmind7
19.08.2024 10:32Это интересно, но похоже комментарий немного устарел. ИИ уже вполне успешно пишет сценарии и программирует вполне неплохо.
lomov_vas
19.08.2024 10:32Когда я в последний раз проверял, он не мог ЗАМЕНИТЬ сценариста или программиста ПОЛНОСТЬЮ, а лишь являлся удобным инструментом и помощником и для первого и для второго. Но подвижки в эту сторону ведутся, да. В скором времени - сможет, мейби в чатжпт 4.5 или опус 3.5.
MisterClever Автор
19.08.2024 10:32Пожалуйста, назовите конкретного художника, которого уволили потому, что его работы начал рисовать ИИ? Я тесно работаю с одним художником/тату-мастером (он же рисует арты к новостям и статьям). Так вот, любое изображение, нарисованное нейросетью, нужно еще допиливать и править. И иногда это сложнее, чем нарисовать новое.
А если клиент приносит эскиз для тату, то там вообще темный лес, с минимальными закорючками, линиями, деталями.
Нейросеть это тот же фотоаппарат или даже графический движок для игры. В погоне за реализмом игры довели до уровня третьего Кризиса, но в итоге сейчас львиная доля рынка за очень даже рисованной графикой, и это прекрасно.
А вот про захват медиаполя -- это да. Риски этого куда выше, чем замены профессий. Но ИИ даже не заменяет, а скорее расширяет возможности для профессионалов
lomov_vas
19.08.2024 10:32Гугли про сокращения в отрасли, как минимум выкинули на мороз.
А) Кучи парней и девчат, что пилили коллажи для ютбу-превьюх.
Б) Кучи оформителей от рекламщиков, что рисовали пикчи для банеров, теперь это всё генерируют нейросети.
В) Концепт-арт художников, что тоже подверглись сокращениям, да и в целом геймдев поколбасило. Кому дешевле отдать иконочки на аутсорс, художнику или нейросети?
Про тату-мастеров не надо, у меня один из родственников - тату-мастер и это особый случай, так как тату-мастера сами себе художники, редко бывает, когда рисует эскизы один, а бьет другой - обычно это делает один и тот же человек. (исключая мутки с наставничеством, конечно)
И уже в их среде КАК МИНИМУМ идеи для эскизов берут с нейросети, а некоторые и вовсе генерируют их полностью, а после - лишь адаптируют. Пока машины не начнут бить татухи сами (а они, безусловно, начнут где-то чуть раньше, чем начнут делать операции на людях),тату-мастера более-менее в безопасности и даже напротив, их работа была в какой-то мере облегчена благодаря нейросетям.
>приносит эскиз для тату
Адаптация - это часть работы, по сути ничего не поменялось. Клиенты и раньше приносили картинки из интернета, что приходилось существенно адаптировать. Никакой ОСОБОЙ сложности нейросети не добавили, скорее даже напротив, ведь имитируя татуировки, нейронка порой делает часть работы по адаптации плоского рисунка к нанесению на неплоскую кожу.
lomov_vas
19.08.2024 10:32Конкретного не скажу, так как я их не знаю, но гугли про сокращения в отрасли, как минимум выкинули на мороз.
А) Кучи парней и девчат, что пилили коллажи для ютбу-превьюх, также на мороз ушли оформители обложек для книг и аудиоальбомов. У нас, в книжной индустрии разом 90% облог стали нейросетевыми, а раньше заказать обложку стоило от трех до пятнадцати тысяч.
Б) Кучи оформителей от рекламщиков, что рисовали пикчи для банеров, теперь это всё генерируют нейросети.
В) Концепт-арт художников, что тоже подверглись сокращениям, да и в целом геймдев поколбасило. Кому дешевле отдать иконочки на аутсорс, художнику или нейросети?
Про тату-мастеров не надо, у меня один из родственников - тату-мастер и это особый случай, так как тату-мастера сами себе художники, редко бывает, когда рисует эскизы один, а бьет другой - обычно это делает один и тот же человек. (исключая мутки с наставничеством, конечно)
И уже в их среде КАК МИНИМУМ идеи для эскизов берут с нейросети, а некоторые и вовсе генерируют их полностью, а после - лишь адаптируют. Пока машины не начнут бить татухи сами (а они, безусловно, начнут где-то чуть раньше, чем начнут делать операции на людях),тату-мастера более-менее в безопасности и даже напротив, их работа была в какой-то мере облегчена благодаря нейросетям.
>приносит эскиз для тату
Адаптация - это часть работы, по сути ничего не поменялось. Клиенты и раньше приносили картинки из интернета, что приходилось существенно адаптировать. Никакой ОСОБОЙ сложности нейросети не добавили, скорее даже напротив, ведь имитируя татуировки, нейронка порой делает часть работы по адаптации плоского рисунка к нанесению на неплоскую кожу.
Abstraction
19.08.2024 10:32В исследовании по ссылке есть таблица 1: "Details of the models used in the experiments." Из неё мы узнаём, что работа основывается на изучении модели GPT-2 с вариациями и других моделей плюс-минус того же уровня. Обобщение сделанных выводов даже на GPT-4 выглядит... слабо оправданным проведённым исследованием.
(Понятно что предельно базовое утверждение "результаты модели есть функция от корпуса обучающих текстов и промпта" верно, но оно верно и для людей, поэтому само по себе мало что доказывает.)
0x0doc
так в чем смысл статьи? что человеческий фактор все равно напрограммирует так, что ИИ устроит апоклипсис? или люди научатся писать идеальный код?)
MisterClever Автор
смысл в том, что опасен не ИИ, а люди, которые его используют, которые обучают, и которые пишут код)
0x0doc
както надо определится, ии опасен для людей которые его используют, или люди опасны которые заносят туда ошибки. Каким образом вы себе вообще представляете что разработчики способны создать ИИ без ошибок, ИИ всегда будет содержать ошибки потому что обучают его люди, то-есть по определению он всегда будет опасен для тех кто его использует.
Но хуже другое, когда ИИ научится "думать"(а это рано или поздно произойдет) то-есть задавать вопросы самому себе и на основе выводов самообучаться, ошибка человека который его обучил может привести к катастрофе. Другими словами сейчас вы можете обучить ИИ который будет знать что американцы не были на луне, земля круглая, он сможет до бесконечности с вами спорить и даже диссертацию на эту тему написать и в итоге большинство пользователей которые его используют в это поверят, я очень тупой пример привел, но суть думаю ясна