Последние месяцы тема искусственного интеллекта не покидает заголовки СМИ. Наверное, все слышали, как Илон Маск призвал остановить разработку нейросетей, чтобы «не рисковать потерей контроля над цивилизацией». Вообще, появление супермашины, интеллект которой превзойдёт возможности любого человека, предрекал британский математик Ирвинг Джон Гуд еще в 1965 году. Но сегодня мы решили взглянуть, что говорят на этот счет рядовые разработчики и исследователи, с головой погруженные в процессы обучения ML-моделей — то есть люди c hands-on experience.

В прошлом году группа специалистов из Университета Джонса Хопкинса, а также Нью-Йоркского и Вашингтонского университетов провела опрос среди разработчиков NLP-решений. Мы в beeline cloud решили поделиться наиболее интересными наблюдениями.

Изображение: DeepMind / unsplash.com
Изображение: DeepMind / unsplash.com

Контекст

Но сперва пара слов о самом исследовании, демографии и методологии. В опросе приняли участие 480 человек. Примерно половина респондентов — граждане США, остальные — представители Канады, Великобритании, Китая, Израиля, стран Европы, Южной Америки и Африки. 73% участников — члены академического сообщества, 22% — разработчики интеллектуальных систем и их руководители из коммерческого сектора, и 4% — сотрудники правительственных или некоммерческих организаций.

Если говорить о специализации респондентов, то они занимаются разработкой NLP-систем, генеративных и языковых моделей, а также интерпретацией результатов машинного обучения. Порядка 70% участников опроса являются членами мировой Ассоциации компьютерной лингвистики (ACL) и опубликовали как минимум две научные работы за последние четыре года.

Участники получили список вопросов, где выбирали один из четырех вариантов ответа: согласен, скорее согласен, скорее несогласен, несогласен. Опрос не предусматривал нейтральный вариант ответа.

ИИ понимает нас или притворяется?

Исследователи спросили разработчиков: «Понимают ли ML-модели [естественный] язык?». Вопрос был целенаправленно сформулирован широко, чтобы респонденты могли самостоятельно решить, что для них значит термин «понимание языка». И участники опроса разделились на два равных лагеря. Половина посчитала, что генеративные алгоритмы, обладающие достаточным объёмом тестовых данных и вычислительных ресурсов, способны понимать естественный язык на нетривиальном уровне. Другие специалисты отметили, что возможности современных систем ИИ ограничены распознаванием паттернов, поэтому рано говорить о глубоком познании лингвистических нюансов.

Но даже если предположить, что современные NLP-системы понимают сказанное или написанное человеком, текущий уровень технологического развития накладывает на них серьезное ограничение. Они заточены под работу с конкретным языком и, как правило, широко используемым. Менее популярные диалекты часто оказываются за пределами сферы интересов. Машинная модель не в состоянии «изучить» совершенно новый язык без набора обучающих данных. Так, в одной только Африке порядка 3 тыс. диалектов, но для них не существует готовых баз данных с информацией для разработки NLP-систем.

Изображение: DeepMind / unsplash.com
Изображение: DeepMind / unsplash.com

Есть модели-трансформеры (в том числе open source), способные работать с несколькими языками, но их создание — совсем не тривиальная задача. Как правило, они обладают меньшей эффективностью, чем специализированные альтернативы, а на их обучение необходимо больше вычислительных ресурсов. Решением проблемы может стать банальное наращивание вычислительных мощностей, но в эффективности такого курса убеждены всего 17% респондентов, опрошенных специалистами Университета Джонса Хопкинса.

Большинство респондентов все же считает, что «грубой вычислительной силы» недостаточно и нужны новые программные алгоритмы. Порядка 80% опрошенных разработчиков систем ИИ считают, что в ближайшие десять лет наиболее заметные технологические прорывы будут сделаны именно в этом направлении. Драйвером может послужить нехватка аппаратного обеспечения для машинного обучения.

Научные статьи по NLP — стоит ли читать?

Специалисты из Университета Джонса Хопкинса попытались выяснить, считают ли разработчики, что большинство опубликованных исследований в сфере NLP имеют сомнительную научную ценность? Что интересно, почти 70% опрошенных ответили утвердительно. По их мнению, в сфере превалируют работы, имеющие фундаментальные недостатки, плохо поставленные цели и невоспроизводимые результаты. В то же время большинство научных находок не имеют высокой практической ценности [участники не стали приводить примеры таких исследований]. Однако организаторы заметили, что общий тренд подтверждают находки статистика Джона Иоаннидиса. Еще в 2005 году он опубликовал работу, в которой обсуждал проблему ложности научных открытий.

Вопрос научных статей для респондентов актуален как минимум потому, что они сами (большая часть опрошенных) — представители академического сообщества. Респонденты пояснили, в чем, на их взгляд, причины низкого качества публикаций в сфере машинного обучения. По их мнению, действительно интересные вопросы и темы не всегда находят поддержку в редакциях профильных журналов, их очень сложно провести через ревью. А в результате все это тормозит прогресс в сфере ИИ и обработки естественного языка.

«Нейрозима» действительно близко?

Сейчас системы машинного обучения, искусственного интеллекта и обработки естественного языка, без сомнений, находятся на пике «цикла хайпа» Gartner. Хороший индикатор — это рынок акций. Этой весной капитализация крупнейшего производителя GPU впервые перевалила за $1 трлн долларов. Стоимость других компаний в этой сфере также продолжает неуклонно расти. Но эйфория не может длиться вечно, технологии всегда «проваливаются» в пропасть разочарования. Глава компании, развивающей Stable Diffusion, уже назвал системы ИИ «крупнейшим пузырем в истории». Так было с блокчейном, будет и с нейросетями — но когда?

Этот вопрос задали участникам исследования. По мнению 30% респондентов, NLP-зима наступит на горизонте десяти лет. В то же время 62% остановились на временном отрезке в 30 лет. В любом случае разработчики NLP-систем считают, что сферу NLP ждут серьезные перемены. Предпосылкой для NLP-зимы станет замедление выхода инноваций. Молодые и перспективные команды будут поглощены крупнейшими индустриальными игроками, что приведет к снижению конкуренции.

А как насчет ИИ-апокалипсиса?

Подавляющее большинство участников опроса считает, что технологии NLP позитивно влияют на мир — сегодня (89%) и в будущем (87%). При этом 73% опрошенных убеждены, что системы NLP обеспечат технологический рост, сопоставимый с индустриальной революцией. Что интересно, сильная поддержка технологии в ответах контрастирует с опасениями и катастрофическими последствиями разработки таких решений. Да, визионеры вроде Илона Маска и Сэма Олтмана призывают приостановить развитие нейросетей, чтобы подготовить стандарты безопасности. Их мнение всем известно, так как они вещают на многомилионную аудиторию. Но оказывается, что значительная доля разработчиков систем ИИ придерживается аналогичной точки зрения, хотя их голоса и звучат не так громко.

Я не думаю, что нас ждет «Скайнет» в том виде, который нам показали в «Терминаторе», но определенные предпосылки заставляют побаиваться. Крупные компании запускают интеллектуальных чат-ботов, но в экстренном порядке их отключают, когда те начинают ругаться и вести себя неподобающим образом.

Основная проблематика ИИ заключается в том, что для эффективного обучения модели ей нужно предоставить доступ к колоссальным объемам информации (в том числе в интернете). Качество этой информации на некоторых площадках может вызывать определенные вопросы.

Разработчики ChatGPT пытаются цензурировать некоторые темы и учат систему новой толерантности — то есть делают все то, о чем говорил Маск и ряд других исследователей систем ИИ. Но такая модель не может эффективно существовать в реальном мире и решать социально значимые задачи.

На мой взгляд, человечеству нужно научиться жить в эпоху новой этики и толерантности, разобраться в том, что действительно хорошо, а что плохо, прежде чем пытаться учить сильный ИИ. Иначе у нас ничего не получится. История показывает, что на это уйдет не одна сотня лет, поэтому нет необходимости переживать раньше времени. Сильный ИИ, который может самостоятельно принимать решения, появится еще не скоро.

— Олег Завитаев, руководитель отдела разработки сервисов beeline cloud

Один из вопросов в опроснике был сформулирован так: «Может ли дальнейшая разработка NLP привести к появлению сильного ИИ?». По мнению 57% специалистов, последние разработки приблизили рождение суперинтеллекта. При этом 58% считают тенденцию опасной, в первую очередь из-за возможных социальных изменений, которые несет за собой развитие интеллектуальных систем. А вот в том, что ИИ-системы могут стать причиной глобальной катастрофы, сопоставимой по масштабам с ядерной войной, убеждены меньше 20% разработчиков.

На мой взгляд, проблема надумана. Какой бы сильной ни была система искусственного интеллекта, на сегодняшний день она остается компьютерной программой. И выдернуть вилку из розетки никогда не было проблемой. Разработку систем ИИ уже ведут с использованием ограничений и изоляций. Те же законы Азимова можно прописать как жесткие непреодолимые рамки, как и для любой другой программы

Вопрос в том, насколько глубоко ИИ будет внедрен в сферу жизнедеятельности людей, какие блага придется заместить. Основная социальная проблема, которая может грозить человечеству с развитием систем ИИ, — это резкая трансформация сферы труда, когда различные роботизированные системы начнут вытеснять специалистов с их рабочих мест. Под угрозой окажутся базовые человеческие потребности, что, в свою очередь, может спровоцировать конфликт между потерявшими доход и компаниями-разработчиками интеллектуальных решений.

К счастью, специалисты уже ищут пути, которые позволят развивать системы ИИ без негативного влияния на людей. К ним можно отнести применение безусловного базового дохода (БОД) и изменение социальной политики на уровне отдельных стран, сознательное замедление внедрения технологий машинного обучения, а также проекты по прогрессивному налогообложению компаний, которые внедряют системы ИИ, замещающие рабочие места (такие как беспилотные такси).

— Алексей Калакин, руководитель департамента разработки, Big Data и ИИ

Разработчики акцентируют внимание и на других опасностях бесконтрольной эволюции систем ИИ. Текущий уровень технологического развития уже позволяет проводить сложные кибератаки с использованием NLP — в частности, писать фишинговые письма и код ransomware. Есть мнение, что алгоритмический трейдинг вызовет следующий финансовый кризис, так как интеллектуальные системы находят все большее применение в банковской сфере. Алгоритмы за секунду проводят тысячи сделок на биржах, и их разработчики рискуют создать предпосылки для излишней волатильности рынков. К слову, эти опасения разделяют даже в Федеральной комиссии по ценным бумагам США.

Вопросы этики

Исследователи спросили, насколько этично создавать и выпускать в публичный доступ решения, которые можно использовать в «неблаговидных целях». Авторы опроса хотели понять, чувствуют ли разработчики систем ИИ ответственность за свои детища. Мнения разделились — 59% согласились, что инженерам необходимо учитывать то, как будут использовать их разработки, насколько они будут полезны или опасны для окружающих. При этом 74% респондентов отметили, что подобные рассуждения и саморегулирование будут тормозить технический прогресс.

Изображение: DeepMind / unsplash.com
Изображение: DeepMind / unsplash.com

В то же время участники исследования подчеркивают, что интеллектуальные системы — это просто инструмент. Их нельзя обсуждать в отрыве от команды разработки. Решения, которые принимают нейросети, зависят от выбранных тренировочных данных, архитектуры. Поэтому разработчики все же несут ответственность перед сообществом за этическую сторону работы своих моделей машинного обучения.

Как бы то ни было, выводы в этом исследовании получились скорее оптимистичные: «нейрозима» наступит — но не скоро, ИИ-апокалипсис вообще откладывается на неопределенный срок, а другие вопросы, связанные с качеством ML-моделей, зависят в первую очередь от самих разработчиков — так что пока «потеря контроля над цивилизацией» (по Илону Маску) нам не грозит.

beeline cloud — secure cloud provider. Разрабатываем облачные решения, чтобы вы предоставляли клиентам лучшие сервисы.

Комментарии (14)


  1. sena
    01.08.2023 17:08
    +1

    Если бы ИИ "понимал" язык, ему бы было всё равно, на каком языке общаться. То есть ему нужно было бы просто формулировать свои мысли или идеи на том или ином языке.


    1. SergeKh
      01.08.2023 17:08

      А вы понимаете язык?


      1. sena
        01.08.2023 17:08

        Я понимаю разные языки. Могу выразить свою мысль на этих языках. У меня не может быть такой проблемы, что на русском я решу задачу хуже, чем на английском (если правильно пойму её, разумеется). Если не хватает терминов, я могу заглянуть в словарь. Словарь мне поможет, потому что я понимаю язык. Если надо будет что-то сделать на малознакомом языке, мне потребуется время для поиска правильных терминов, возможно я допущу грамматические и синтаксические ошибки, но едва ли это может как-то повлиять на качество моего решения задачи.


    1. yaff
      01.08.2023 17:08

      Для ИИ, у которого есть возможность понимать и обрабатывать естественный язык, не важно, на каком языке ему предоставляют информацию или какой язык используется для коммуникации с ним. ИИ способен обрабатывать и анализировать тексты на разных языках, используя соответствующие алгоритмы и модели.

      Однако, у людей могут быть разные предпочтения по языку общения, и для эффективного общения с ИИ может потребоваться использование определенного языка. Кроме того, в некоторых случаях могут возникать проблемы с переводом и интерпретацией смысла текста на разных языках, и в этом случае может потребоваться дополнительная работа для обеспечения правильного понимания и обработки информации.

      ИИ действительно может работать с текстами на разных языках, но для эффективного общения между человеком и ИИ часто требуется использование определенного языка, который будет удобен для обеих сторон.


  1. Quiensabe
    01.08.2023 17:08

    Те же законы Азимова можно прописать как жесткие непреодолимые рамки, как и для любой другой программы

    Странный "эксперт", похоже не совсем понимает, что такое вообще нейросети и как они работают.

    Но вот подумалось. Опасения связанные с ИИ обусловлены тем, что ИИ может стать, условно, в миллионы раз разумнее людей. И соответственно стать совершенно непознаваемым и неуправляемым.

    Но разумность, по крайней мере на текущем этапе, определяется техническими параметрами модели (такими как число параметров). Тогда получается нужно не создавать сразу ИИ с IQ 1000. А создать 900 отдельных ИИ, с IQ от 100 и до 1000. При этом каждый n-й имеет контроль над n+1.

    Тогда контролируя первый ИИ, и поручив ему обеспечивать контроль вышестоящих - мы потенциально можем контролировать и 900-й... Ну по крайней мере имеем шанс узнать о проблеме если где-то наверху списка появятся идеи УВЧ.


    1. AUser0
      01.08.2023 17:08

      имеем шанс узнать о проблеме если где-то наверху списка появятся идеи УВЧ.

      ...за секунду до воплощения идеи в жизнь?


      1. Quiensabe
        01.08.2023 17:08

        ...за секунду до воплощения идеи в жизнь?

        Т.е. в сотни раз больше чем нужно, для того чтобы обесточить датацентр.


    1. sena
      01.08.2023 17:08

      Но вот подумалось. Опасения связанные с ИИ обусловлены тем, что ИИ
      может стать, условно, в миллионы раз разумнее людей. И соответственно
      стать совершенно непознаваемым и неуправляемым.

      "непознаваемым и неуправляемым" это как-то абстрактно, оторвано от реальности.

      В реальности на Земле мы имеем конкурирующие группы людей (корпорации, государства), у которых есть традиционные цели: власть, деньги, влияние и т.п. Эти группы будут создавать (или уже создают) свои собственные ИИ для принятия оптимальных решений. Соответственно те, кто будут как-то пытаться ограничивать и контролировать свой ИИ (Ваша идея по n+1), будут в худшем положении и проиграют конкурентам. Выиграют те, кто будет наиболее точно и быстро исполнять указания их Верховного ИИ. Соответственно ИИ автоматически возглавит группу людей, которые захватят власть на всей Земле и при этом будут беспрекословно и немедленно исполнять все его приказы.


      1. Quiensabe
        01.08.2023 17:08

        Вопрос нужно ли контролировать ИИ или нужно ему подчиняться - я не обсуждаю. У меня по этому поводу свое мнение.

        В данном случае я только говорю о том может ли такая стратегия быть шансом сохранить управляемость после наступления сингулярности. Интересно рассматривал ли ее кто-то всерьез, или другие стратегии выглядят эффективнее. Все это в рамках общеизвестных теорий о "злом ИИ", захвате мира и пр.


        1. ss-nopol
          01.08.2023 17:08

          Вопрос нужно ли контролировать ИИ или нужно ему подчиняться - я не обсуждаю. У меня по этому поводу свое мнение.

          Сама попытка контроля ИИ ограничит его скорость развития и эти ветки эволюции ИИ заглохнут. То есть ответ на вопрос "может ли такая стратегия быть шансом сохранить управляемость?" - нет, не может. Точнее группы с управляемым ИИ будут вытеснены/подавлены/превзойдены группами с неуправляемым ИИ.


          1. Quiensabe
            01.08.2023 17:08

            Повторюсь, мой комментарий к этому вопросу не относится.

            Но даже если и так - зависимость может быть сложнее. К примеру, при даже формальном запрете бесконтрольных разработок ИИ, те группы/страны, которые будут этот запрет обходить, очевидно будут сталкиваться с проблемами (проблемы закупки нужных объемов чипов, сложности с наймом персонала, затрудненные инвестиции, проблемы с организацией поддержки сообщества в процессе дообучения, и пр.).

            Можно спорить о степени влияния этих проблем, но они явно замедлят прогресс на "этих ветках", который вполне может нивелировать преимущества в сравнении с легальными группами, которые часть ресурсов потратят на контроль.

            Куда склонится баланс - неизвестно. Так что утверждения типа "нет не может" - в данный момент бездоказательны.


  1. AUser0
    01.08.2023 17:08

    DEL


  1. Heheami
    01.08.2023 17:08

    Интеллект, в первую очередь, - это способность предсказания будущего и, соответвенно, планирование. Предсказание явно имеет стахостическое ограничение. Поэтому, вероятно, интеллект сильнее человеческого невозможен.

    Можно предположить, что основная опасность будет от множества агентов с хорошим интеллектом, которые вместо предсказания начнут прямо влиять на события.


    1. Quiensabe
      01.08.2023 17:08

      Почему за 100% вы берете человеческий интеллект? Почему не интеллект вороны? Или рептилоида со средним iQ 450? Как это следует из "стахостического ограничения" на предсказания?..