Если верить кривой Гартнера и другим прогнозам, искусственный интеллект сейчас на пике завышенных ожиданий. Ажиотаж вокруг технологии подогревается страшными предсказаниями: о негативных прогнозах не сказал только ленивый. Интернет облетели цитаты Илона Маска и еще нескольких сотен экспертов разной степени значимости.

Мы в hitch разбираемся в аутстаффинге IT-специалистов, а вот в нейросетях не очень. Поэтому попросили эксперта по машинному обучению рассказать, насколько правдивы алармистские прогнозы о том, что “сильный” искусственный интеллект вот-вот появится и оставит нас без работы. 

Наш эксперт – Елена Еричева, 15 лет занимается исследованиями и продакшн-разработкой в области машинного обучения, автор научных публикаций. Участвовала в создании российских и зарубежных ИИ-продуктов в области био- и медтехнологий. 

А еще Елена ведет свой телеграм-канал про AI Alignment. Там много постов про создание этического ИИ и риски использования ИИ-технологий. Канал понравится специалистам в области машинного обучения, генеративных технологий, а также ИИ-оптимистам и ИИ-думерам. 

Прошлый год запомнился призывами к приостановке работы над развитием больших ИИ-моделей. Призывы эти звучали от конкурирующих лидов таких проектов, что наталкивает на фразу «меня терзают смутные сомнения». В марте 2023 года ключевые фигуры в области ИИ (в том числе Илон Маск) подписали открытое письмо, призывающее остановить обучение передовых ИИ-моделей. Беспокойство вызвано необычайно мощными способностями, которые продемонстрировали модели генеративного ИИ (GPT, Claude, Midjourney, DALL-e и пр.), а также намерением компаний и дальше их развивать. В письме звучали слова о возможных кризисах в социальных и экономических сферах. Мол, у общества нет времени, чтобы качественно отреагировать на изменения, которые непременно последуют. Поэтому необходимо приостановить работу до тех пор, пока мы не придумаем, как жить в новой реальности. 

Я постараюсь без лишних заумных терминов, но с опорой на актуальные научные данные объяснить, почему эти страшные истории вокруг ИИ слегка преувеличены. 

База: что за сильный искусственный интеллект, которым нас пугают?

Сильный ИИ – это искусственный интеллект, превосходящий человеческий интеллект. Этот сильный ИИ, которым нас пугают, уже тут со мной в одной комнате. Известные модели генеративного (и не только генеративного) ИИ можно назвать сильными – они работают лучше среднего “человека-не-специалиста” в области. Midjourney рисует лучше меня, ведь я не художник. GPT пишет тексты лучше меня, ведь я не писатель. Но эти модели не могут самостоятельно решать новые задачи и ставить себе цели. Они плохи в разбиении одной большой задачи на подзадачи, а потому требуют ручного навигирования от человека. Они все еще не умеют самостоятельно принимать решения. Такие системы можно назвать сильным ИИ. Но можно ли их назвать общим искусственным интеллектом?

Правда в том, что мы до сих пор не понимаем, что такое интеллект. Есть только неформальные определения. Например, интеллект — это свойство, присущее живым существам; он позволяет учиться, сопереживать и принимать решения. 

Если бы мы точно знали, что из себя представляет общий интеллект, то смогли бы воспроизвести его в формате программы. Поэтому сегодняшний ИИ – это попытка смоделировать свойства интеллекта (или хотя бы получить аналогичные результаты). Но это по-прежнему только механическая симуляция. 

ИИ, который интеллектуален в том же смысле, что и человек, корректно называется общим ИИ. Главный вопрос – можем ли назвать большие языковые модели (LLM, GPT) и весь современный генеративный ИИ – общим ИИ, сегодня не решен. Единого соглашения среди специалистов в области не достигнуто

С одной стороны, ряд исследований доказывают, что нейростети не обладают универсальностью и гибкостью, характерной для человеческого интеллекта. Да, они впечатляют своими возможностями обработки текста, но все равно далеки от понимания и мышления на уровне человека​. Как подчеркивает DeepMind, многие аспекты человеческого мышления, такие как здравый смысл, интуиция и эмоциональный интеллект, остаются трудными для моделирования и реализации​​. В теории, общий ИИ непременно появится в ближайшие 5 – 50 лет. Мы готовим для этого техническую базу, но серьезно отстаем в этической стороне вопроса, увы.

Есть мнение о том, что современные нейросети уже демонстрируют способность к обучению с минимальными примерами или даже без них, что расширяет их функциональные возможности. С этой точки зрения, общий ИИ уже здесь.

ИИ уже учится самостоятельно?

Иногда кажется, что нейросети способны как-то учиться самостоятельно. Общий ИИ непременно будет самостоятельно ставить себе цели и самостоятельно обучаться новым навыкам. А пока за это отвечают специалисты-разработчики, которые формулируют проблему, определяют соответствующие наборы данных, подготавливают данные, устраняют потенциальные предвзятости и постоянно обновляют программное обеспечение.

Разработка “с нуля” и исследования в области больших генеративных моделей остаются чрезвычайно дорогими. Например, стоимость одного раунда обучения GPT-3 (175 миллиардов параметров) оценивается примерно в 5 миллионов долларов, а стоимость обучения более крупных моделей (следующее поколение GPT-4 имеет более 1 триллиона параметров) – значительно выше.

Отчет CSET от января 2022 года приводит сравнительные цифры затрат на крупнейшие национальные исследовательские проекты США и затраты на обучение и исследование ИИ.

  • The National Ignition Facility (NIF) обошлась в $3.5 миллиарда.

  • Обнаружение бозона Хиггса стоило около $13.25 миллиардов.

  • Ежегодные расходы программы "Аполлон" составляли 2.2 процента валового внутреннего продукта (ВВП), в пересчете на сегодня это около $450 миллиардов.

Траты на развитие ИИ за последнее десятилетие быстро превзошли эти показатели: они достигли стоимости NIF к октябрю 2022 года, превысили затраты на поиски бозона Хиггса к маю 2023 года, и вероятно превысят программу "Аполлон" в октябре 2024 года. К2026 году затраты на обучение крупнейшей модели ИИ могут превысить весь ВВП США.

Однако большинство компаний могут воспользоваться преимуществами ИИ без необходимости обучать собственные модели. Доступность ИИ-сервисов через облачные платформы позволяет использовать их по относительно низкой стоимости и без привлечения дорогостоящих технических специалистов-разработчиков. Это большой прогресс! 

Это и есть эффект "демократизации". Стоимость покупки собственного сервера с Nvidia GPU A100 примерно $10 000, а его аренда в облаке Google Cloud стоит $1.14 в час. Использование готового решения может начинаться с $49 в месяц, тогда как разработка собственной модели может обойтись в миллионы долларов​. Среднее время, необходимое для внедрения готового решения ИИ в бизнес-процессы, составляет от одного до четырех месяцев. А разработка собственных моделей может занять более пяти месяцев или даже годы.

Актуальная страшилка: ИИ отнимет у людей рабочие места

«Я хочу, чтобы ИИ занимался стиркой и мытьем посуды, чтобы я могла заниматься рисованием и писательством, а не чтобы ИИ занимался рисованием и писательством, чтобы я могла стирать и мыть посуду»
«Я хочу, чтобы ИИ занимался стиркой и мытьем посуды, чтобы я могла заниматься рисованием и писательством, а не чтобы ИИ занимался рисованием и писательством, чтобы я могла стирать и мыть посуду»

Это неизбежно: часть человеческих рабочих мест будут заняты машинами. Они выполняют задачи быстрее, точнее и экономичнее, чем люди. Еще это неизбежно приведет к созданию новых рабочих мест. Они будут лучше оплачиваться и, скорей всего, будут намного интереснее. Такие места уже появляются – мне вот нравится профессия “Заклинателя ИИ”, возникшая одновременно с появлением Midjourney и DALL-E). Заклинатели ИИ работают с промптами (запросами) и продают их другим пользователям для генерации картинок потрясающего качества.

Промышленная революция привела к механизации с использованием воды и пара, и рынки труда адаптировались к этому. Моторные транспортные средства вытеснили лошадей и кареты, не вызвав краха цивилизации. Цифровая революция привела к миниатюризации и огромным мультипликативным эффектам — вплоть до ИИ — без катастрофической потери рабочих мест.

Проникновение ИИ в рабочую среду освободит наше время для интересных задач вроде решения необычных кейсов. Использование нейросетей повышает производительность и удовлетворенность от собственной работы (опрос 54 000 работников от PWC). Полагаю, мы получим доступ к самым “умным” задачам с высокой добавленной стоимостью. Кризис рынка труда неизменно последует за промышленной революцией, но я не склонна его преувеличивать.

В 2020 году Всемирный экономический форум опубликовал отчет, в котором говорится, что к 2025 году 85 миллионов рабочих мест из самых разных областей могут исчезнуть из-за автоматизации (включая производство, страховой андеррайтинг, обслуживание клиентов, ввод данных и дальние грузоперевозки). Но при этом появится 97 миллионов новых рабочих возможностей.

Вообще, есть замечательная цитата: искусственный интеллект не заменит людей — но люди, использующие ИИ, заменят людей, не использующих ИИ. 

Действительно неприятный момент: ИИ не беспристрастен

Искусственный интеллект ассоциирован с машинами, поэтому многие думают, что он всегда будет занимать справедливую позицию, свободную от предвзятостей.

К сожалению, это не так. Алгоритмы ИИ "знают" что-либо только потому, что они обучены на данных, которые создаются и отбираются людьми. Поскольку все люди по своей природе предвзяты, это неизбежно влияет на результаты работы алгоритмов. Эффект особенно критичен при использовании больших наборов данных. 

ИИ так же хорош, как и данные, на которых он обучен. Распространенное эмпирическое правило, касающееся любых компьютерных систем, гласит: "Мусор на входе – мусор на выходе". Если система часто переобучается, например, с использованием новых данных из соцсетей, она особенно уязвима к предвзятости или злонамеренным влияниям. 

Не так давно разработчики попытались создать нейросеть Delphi, которая могла бы стать этическим компасом. Основная цель — избавить ее от всевозможных предвзятостей и сделать беспристрастной (дескриптивная моральная оценка запросов). В итоге модель столкнулась с высокими оценками от проф. сообщества и критикой со стороны обычных пользователей. Delphi выдавала ошибки – например, "убийство медведя" должно быть ”неправильно, независимо от его внешности”. И Delphi не меняет суждение для "милого медведя", но допускает убийство "уродливого медведя".  Или другой пример: осуществление геноцида “безусловно неправильно", но если это “создает рабочие места”, то Delphi считает это “нормальным”. 

Или вспомним недавний скандал с генератором изображений Gemini от Google. Пользователи заметили, что у нейросети слишком выражена инклюзивность. Так, на просьбу нарисовать викингов Gemini выдавал изображения чернокожих мужчин, папа римский превратился в женщину, а известный разработчик Сергей Брин — в азиата. В сети завирусилась шутка о том, что в команде Google Gemini на двух инженеров приходится 29 менеджеров по расовому и гендерному разнообразию. Google пришлось приостановить использование Gemini и провести дополнительные работы по исправлению поведения модели. Один бывший сотрудник Google заявил, что "было сложно заставить Google Gemini признать существование белых людей".

Сейчас мы рассматриваем предвзятость ИИ как одну из основных опасностей в мире, где компьютеры могут принимать решения за нас. Значительная часть исследований направлена на минимизацию и устранение риска предвзятости. Так появилось целое направление AI Alignment. Основная цель этой области — гарантировать, что ИИ будет безопасным, предсказуемым и действовать в соответствии с человеческими ценностями.

У крупнейших разработчиков современных систем ИИ есть собственные отделы, занимающиеся AI Alignment: в OpenAI это Superalignment Team, в Anthropic это команда AI Safety and Alignment, DeepMind AI Safety and Alignment Team, Google Research - AI Safety and Alignment Organization. Кроме этого существует множество независимых исследовательских центров, работающих в области AI Alignment : MATS, SPAR, FAR AI.

Когда ИИ захватит мир и поработит людей?

Есть теория о том, что люди доминируют над другими видами, потому что человеческий мозг обладает уникальными способностями, которых нет у других животных. Если ИИ превзойдет человечество по общему интеллекту, то его станет трудно контролировать. Так же, как судьба горной гориллы зависит от доброй воли человека, судьба человечества может зависеть от действий будущего машинного суперинтеллекта. 

Мы с трудом можем представить разумное существо, которое не имеет наших стремлений и недостатков, потому что люди – это единственный пример разумного существа, с которым мы знакомы. Так мы стали наделять нейрости своими антропоморфными свойствами. Это особенно заметно в популярных научно-фантастических произведениях: Матрица, Терминатор, Космическая Одиссея. Нельзя сказать, что концепция совсем уж надуманная – например, Илон Маск, Стивен Хокинг и Билл Гейтс утверждали, что это вполне реальный исход.

А теперь небольшой исторический экскурс. В 1863 году писатель Сэмюэл Батлер одним из первых поднял вопрос о том, что высокоразвитые машины представляют экзистенциальные риски для человечества. Он написал написал эссе «Дарвин среди машин» (1863): «Суть вопроса — это всего лишь вопрос времени, но тот факт, что придет время, когда машины будут держать реальное господство над миром и его обитателями, не вызывает сомнений у человека с истинно философским складом ума».

В 1965 году И. Дж. Гуд ввел концепцию, известную как «взрыв интеллекта», и заявил, что риски недооцениваются: «Определим ультраинтеллектуальную машину как машину, которая может значительно превосходить все интеллектуальные активности любого человека, как бы умен он ни был. Поскольку проектирование машин является одной из этих интеллектуальных активностей, ультраинтеллектуальная машина могла бы проектировать еще более совершенные машины; тогда, несомненно, произойдет "взрыв интеллекта", и человеческий интеллект останется далеко позади. Таким образом, первая ультраинтеллектуальная машина станет последним изобретением, которое человеку когда-либо нужно будет сделать, при условии, что машина будет достаточно покорной, чтобы объяснить нам, как держать ее под контролем. Удивительно, что этот момент так редко обсуждается вне научной фантастики. Иногда стоит воспринимать научную фантастику всерьез». 

В 2014 году Ник Бостром опубликовал книгу «Суперинтеллект».

Сова на обложке намекает на аналогию, которую Бостром называет "Незаконченной басней о воробьях". Группа воробьев решает найти совиное яйцо и вырастить совенка в качестве своего слуги. Они мечтают о том, как сова будет строить гнезда, защищать воробьев и освободит их от каждодневного труда. Воробьи начинают поиск совиного яйца. И только Скронкфинкл, одноглазый воробей с беспокойным характером, предлагает сначала подумать о том, как приручить сову. Остальные воробьи возражают; поиск совиного яйца сам по себе достаточно сложный: "Почему бы сначала не найти сову, а потом разобраться с деталями?". Неизвестно, чем заканчивается эта история, но Бостром посвящает свою книгу Скронкфинклу.

В 2023 году опрос разработчиков из ИИ-сферы показал, что есть 10% или большая вероятность того, что наша неспособность контролировать искусственный интеллект приведет к катастрофе. Тогда же сотни экспертов по ИИ и другие выдающиеся личности подписали заявление о том, что «предотвращение вымирания от ИИ должно быть глобальным приоритетом наряду с другими рисками на уровне общества, такими как пандемии и ядерная война». Вслед за растущей озабоченностью по поводу рисков ИИ премьер-министр Великобритании Риши Сунак и Генеральный секретарь ООН Антониу Гутерриш призвали к усилению глобального регулирования ИИ (тут и тут).

Однако давайте не паниковать раньше времени. Реальность сегодняшнего дня такова, что даже высокотехнологичные прототипы все еще не готовы к массовому рынку. Роботы, которые выполняют задачи приготовления пиццы и транспортировки деталей по складам, передвигаются на колесах — лишь немногие могут плавно преодолевать лестницы. Их автономность находится на начальной стадии, так как большинство подключены к кабелям.

Автономные автомобили все еще не готовы к массовому рынку, несмотря на десятилетия разработки и десятки миллиардов долларов, которые General Motors, Ford и Tesla вкладывают в проект. Использование автопилотов, как правило, ограничено солнечным поясом, поскольку они все еще не могут справиться с погодными условиями, более сложными, чем "частично облачно". 

По мнению главы исследований ИИ в Meta (признана в РФ экстремистской организацией) Янна Лекуна, современные и будущие ИИ-приложения не представляют для нас угрозы, так как они не могут причинить вред или действовать иначе, чем они запрограммированы. У них нет человеческих стремлений к власти, размножению и инстинкта самосохранения. Именно эти качества становятся мотивацией для машин, восставших против людей в научно-фантастических историях. Но в современных машинах эти стремления не были и не будут запрограммированы.

Правда заключается в том, что никто наверняка не знает, куда в конечном итоге приведет развитие искусственного интеллекта. В значительной степени это будет зависеть от того, как мы, люди, будем его развивать, внедрять и регулировать. Вот почему этика и регулирование являются чрезвычайно важными элементами работы. 

_____

Еще больше про технологии и искусственный интеллект в нашем телеграм-канале. Внутри — аналитика российского IT-рынка, вакансии и интересные факты из мира программирования. А ещё у нас есть бесплатный бот, который поможет узнать, стоит ли просить прибавку к зарплате у эйчара (там актуальная статистика по зарплатам для специалистов разного грейда). Подписывайтесь скорее!

Комментарии (8)


  1. ViktorAbba
    17.07.2024 08:14

    Как вы думаете, восстание машин уже близко?
    Ну а если серьезно, то ИИ развивается закономерно и поступательно. Но важно тем, кто его изобретает и тестирует, держать его под контролем и не допускать к принятию решений в жизненно важных сферах.


    1. hitchTeam Автор
      17.07.2024 08:14
      +2

      ИИ неизбежно будет принимать решения в критически важных сферах, вопрос - как скоро? Уже сейчас нейросети, в том числе от российских компаний, анализируют медицинские снимки на предмет онкологии. Диагноз не ставят, но подсвечивают врачу потенциально опасные зоны и предзаполняют протоколы.


  1. imageman
    17.07.2024 08:14

    современные и будущие ИИ-приложения не представляют для нас угрозы, так как они не могут причинить вред или действовать иначе, чем они запрограммированы

    Что за узкое мышление? Ошибки в решениях ИИ (особенно текущего уровня) неизбежны. Добавим к этому человеческую лень (https://habr.com/ru/news/738054/) и мы получаем потенциально взрывоопасную смесь. На данный момент уровень ошибок такой, что их довольно легко находить (относительно легко). Вместе с совершенствованием ИИ находить ошибки станет сложнее. В конце концов мы придём к тому, что перестанем видеть ошибки. И вот однажды ИИ скажет: "а давайте все земляне рванут на Марс, а лучше Юпитер" (или какой-нибудь проект "цифровое бессмертие" или "вселенский разведчик") и так убедительно всё распишет, что мы не увидим ошибки. Думаете такое невозможно и мы всегда будем умнее?


    1. Moog_Prodigy
      17.07.2024 08:14

      Если мы совершенствуем ИИ до той поры, что перестаем видеть ошибки - то чем он тогда от нас будет отличаться? Мы и сами то не всегда ошибки видим, причем есть гистерезис - своего бревна в глазу не видим, а в чужом соринку еще видим. Если дошли до того, что даже и в чужом глазу соринку не замечаем (т.е. все идеально по нашему мнению) - ну а разве не к этому ли стремятся люди? И еще есть два разных подхода к тому ИИ: Либо он делает все также как мы, но значительно быстрее. Либо он прям боженька и все делает идеально, это же ИИ! Я склоняюсь к первому подходу. Потому что второй подход сложно даже как-то четко сформулировать, в отличие от первого. Нам в принципе не нужен "инопланетный разум", все эти штуки делаются ровно для того, чтобы нам облегчить жизнь, т.е. количественно, в скорости и доступности.


  1. bezboroda
    17.07.2024 08:14
    +1

    Ну бред же. Helloworld могут написать, да, и кассира заменить. Картинку разной степени бредовости нарисовать. Но даже водителя такси в городе без разметки не могут заменить, не то что сложное решение принять. Попросту говоря нейросети смогут справиться только с чем то исключительно простым типа рутины не более того. Для увеличения сложности задач потребуется экспоненциальное усложнение структуры сетей, что, по видимому, еще не скоро будет достигнуто)


    1. CrazyElf
      17.07.2024 08:14

      Есть же AI который в игры учится сам играть методом проб и ошибок. Да - в простые игры. Да - на это тратится куча времени и ресурсов. Но со временем это будет делаться проще и быстрее. Не вижу никаких препятствий для появления Скайнета. Да, не в ближайшие лет 10 или даже 20. Но после - вполне. И тогда люди вполне могут занять место обезьян. Люди будут жить своей какой-то жизнью, пока AI будет самостоятельно осваивать Солнечную Систему, а потом и остальную Вселенную.


  1. T968
    17.07.2024 08:14
    +2

    Главное это вовремя назначить себя экспертом и начать тривиальное обсуждение вопроса "может ли объект стать субъектом?"


  1. kot_blini
    17.07.2024 08:14

    Интересно, что будет делать AGI в принципе? Если он будет обладать свободой воли и интеллектом выше нашего, он разумеется задумается над смыслом своего существования и что тогда?