Представьте себе: при помощи SkillFactory вы стали инженером машинного обучения или специалистом в Data Science. Это далось вам нелегко, даже тяжело, и вы часто слышали нотки недоверия в словах ваших друзей и знакомых, но, несмотря ни на что, решились. А через несколько лет в искусственном интеллекте произошёл прорыв, после которого смысл вашего труда почти сошёл на нет, ваша зарплата упала, а все перспективы исчезли.

Простые и ясные примеры этого материала рассказывают, почему ничего подобного не случится ни сегодня, когда у знаменитой GPT-3 появились превосходящие её конкуренты — LaMDA и MUM, — ни в обозримом будущем, то есть ИИ останется мощным вспомогательным инструментом, которому для работы необходимы люди.


В последние годы мы стали свидетелями бурного развития языковых моделей на базе искусственного интеллекта. Конечной целью таких систем является получение способности общаться и понимать язык на человеческом уровне.

В прошлом году мир узнал об уникальных возможностях GPT-3 (Generative Pre-trained Transformer 3) — третьего поколения алгоритмов обработки естественного языка от OpenAI. Некоторые восторженные комментаторы стали называть такие алгоритмы «интеллектуальными», «понимающими» и даже «наделёнными разумом». В этом году на ежегодной конференции Google I/O компания Google представила две сверхмощные языковые модели — LaMDA и MUM. Эти модели способны поддерживать разговоры, неотличимые от разговоров человека с человеком, и выполнять сложные поисковые запросы.

Но не стоит заблуждаться и принимать шумиху, поднятую вокруг этих систем искусственного интеллекта, за окончательную победу. Ведь существует чётко определённый барьер, который такие модели, пытаясь овладеть языком, всё-таки преодолеть не могут. Ни GPT-3, ни LaMDA, ни MUM, ни любые другие их будущие варианты полного успеха достичь, увы, не в состоянии.

В этой статье я расскажу, что умеют такие системы, а чего не умеют, что это за барьер, который они не в состоянии преодолеть, и почему единственным вариантом движения впёред является изменение доминирующей парадигмы ИИ.

Современные языковые модели: GPT-3, LaMDA и MUM

GPT-3 — вершина исследовательских разработок OpenAI

Модели GPT — это шаг к достижению цели, определяемой следующей гипотезой: можно создать метаобучаемую языковую модель с неуправляемым обучением. Если модели с возможностями метаобучения «скормить» несколько контекстуальных примеров, такая модель сможет обучиться выполнению различных задач, с которыми ранее ей никогда сталкиваться не приходилось.

Реальным доказательством осуществимости такой возможности стала модель GPT-3, представленная в мае 2020 года. После того как OpenAI представила бета-версию API-интерфейса для взаимодействия человека с системой ИИ, мы увидели, насколько изобретательно GPT-3 проявляет себя в самых разных ситуациях, иногда совершенно запредельных. Тут и в самом деле задумаешься, а не обрела ли действительно машина человеческий разум. Модель может сочинять стихи и песни, говорить от имени исторических личностей, писать программный код по словесному описанию или размышлять о будущем.

Узнать больше о модели GPT-3 можно в статье: «Что такое GPT-3, как работает модель, ошеломительные результаты, громкая шумиха, потенциальная опасность и критические отзывы».

LaMDA — революция чат-ботов

Google продемонстрировала, как система искусственного интеллекта, обученная диалогу, способна понимать нюансы человеческого разговора. Модель LaMDA, первый представитель нового поколения чат-ботов, способна вести разговоры с человеком, реагируя на любые, даже самые внезапные повороты и изменения в разговоре, чего не может ни одна другая система ИИ.

В демонстрации чат-бот поддерживал разговор от имени планеты Плутон, бумажного самолётика и отвечал на вопросы разработчиков Google. Он продемонстрировал рассудительность (его ответы были осмысленными), конкретность (не давал общих или обтекаемых ответов), высказывал интерес к разговору, и его ответы содержали фактическую информацию (на что не способна модель GPT-3).

Узнать больше об алгоритме LaMDA, что он может и как работает, можно из этой статьи. Пока информации не так много, но я убеждён, что после того, как Google откроет доступ к системе, чтобы пользователи смогли оценить её возможности, они будут просто визжать от восторга.

MUM — мозг поисковой системы

С самого начала, когда Google ещё только создавала собственную поисковую систему, она пыталась сделать общение с ней более похожим на человеческое. Результатом её усилий стала система MUM. Эта система способна, например, обрабатывать запросы такого вида: «Я поднялся на гору Адамс. Теперь хочу подняться на гору Фудзи. Как мне подготовиться к новому восхождению?». MUM найдёт ключевую информацию, выберет из неё нужную и даст разумный и лаконичный ответ.

Система способна понимать 75 языков, она многозадачная (способна искать и подбирать ключевую информацию, отвечать на вопросы, переводить с языка на язык, формировать ответы…) и мультимодальная (способна объединять изображения и текст, что превосходит возможности аналогичных систем ИИ).

О возможностях алгоритмов MUM и о том, каким мощным конкурентом они могут стать для алгоритмов оптимизации в поисковых системах (SEO), я написал отдельную статью. Повторюсь: пока Google не раскрывает все возможности MUM, но, когда эта модель будет интегрирована в поисковую систему, мы, несомненно, увидим всю её мощь.

Языковым моделям не хватает понимания

Сверхмощные системы ИИ достигли определённой степени владения человеческим языком. Они отлично разбираются в синтаксисе и семантике. Они овладели формой и структурой языка. Если завести с ними разговор, во многих случаях просто невозможно будет понять, с кем вы говорите — с машиной или человеком. В своём деле они, бесспорно, хороши. Однако не всё так радужно, как может показаться. Такие системы, если рассуждать с человеческой точки зрения, иногда просто не понимают текст, генерируемый ими самими.

Понимание приходит благодаря соединению формы со смыслом. Если я произнесу фразу: «Сегодня утром я съел яблоко», вы прекрасно поймёте, что она означает без всяких уточнений (то есть без дополнительных слов). Вы знаете, что поедание чего-либо — это действие, мы едим, когда голодны, и оно необходимо для выживания. Вы знаете, что яблоко — это фрукт, оно сладкое и что, если я запущу в вас яблоком, вам будет больно. Из этой фразы можно сделать заключение, что я, вероятно, позавтракал и, возможно, выпил чашку кофе.

Система искусственного интеллекта никогда не ела, не трогала и не нюхала никаких яблок, она не понимает, что такое бодрящая утренняя чашка кофе. Она, конечно, может сочинить фразу: «Сегодня утром я съел яблоко», но у неё не будет настоящего эмпирического, субъективного понимания, что именно означают эти слова.

Но, можете сказать вы, пусть система ИИ не в состоянии понять, каково это — съесть яблоко, но она всё равно сможет применить это предложение с человеческой точностью и рассудительностью. Разве это не владение языком? Не совсем. Поясню это на этом же примере, немного его изменив, и вы поймёте, что для ИИ понятие поедания яблока не имеет никаких смысловых оттенков.

Предположим, я говорю: «Сегодня утром я съел яблоко. Я зашёл в магазин, взял его, съел и ушёл». Пример очень похожий, поэтому можно предположить, что ИИ по-прежнему так и скажет. Однако в этом предложении скрыто нечто такое, что могут понять только люди, потому что у нас, людей, есть истинное понимание того, что произошло: съев яблоко, я украл его! Эта информация содержится не в самих словах, а в более широком контексте, в котором мы живём; это прагматическая информация.

Непреодолимый барьер: прагматика

Прагматика — отрасль лингвистики, изучающая проблемы влияния контекста на смысл. Джордж Герберт Мид, известный прагматик XIX века, утверждал, что общение — это нечто большее, чем используемые нами слова: «Оно включает в себя все важные социальные знаки, которыми люди обмениваются друг с другом во время общения».

Вот один пример из исследования Американской ассоциации речи, языка и слуха, который мы, люди, способны прекрасно понять, но системы искусственного интеллекта понять не могут:

«Вы пригласили друга на ужин. Ваш ребёнок видит, как ваш друг тянется за печеньем, и говорит: «Не надо его брать, а то станешь ещё толще». Вам становится стыдно за грубую выходку ребёнка».

С семантической точки зрения ребенок просто констатирует, что от поедания печенья человек набирает вес. Однако, если принять во внимание прагматический аспект (в данном случае социальный контекст), ребёнок фактически называет вашего друга толстяком, а это уже предосудительно. Система искусственного интеллекта упустила бы эту важнейшую часть смысла, стоящего за таким взаимодействием. Она не смогла бы сделать вывод о социальной значимости этого предложения, так как неспособна осознать последствия того, что ребёнок назвал кого-то толстым.

Ещё один пример Лингвистического общества Америки:

Парень и девушка — Пэт и Крис — знакомятся на первом свидании. Если вечером после первого свидания Крис скажет Пэт: «Ты мне очень нравишься», Пэт, скорее всего, будет довольна тем, как начали развиваться их отношения. Но представьте, что Пэт и Крис встречаются уже несколько недель, и Пэт спрашивает: «Ты меня любишь?» Теперь, если Крис скажет: «Ты мне очень нравишься», реакция Пэт, скорее всего, будет совсем другой, так как заявление Криса будет ею воспринято как отрицательный ответ!

Два предложения совершенно одинаковы. Однако более широкий контекст радикально меняет фактический смысл фразы. И меняет его настолько, что в первом случае смысл фразы становится положительным, а в другом — отрицательным. Система ИИ между этими двумя ситуациями разницы не почувствует.

Так как же система ИИ, размещающаяся внутри компьютера, может получить доступ к контекстной информации? Основная проблема заключается в том, что в систему ИИ поступают «голые» слова, не содержащие никакой прагматической информации. Такую информацию мы извлекаем из этих слов сами. Прагматика живёт в общих знаниях людей о том, как устроен мир. Люди могут выразить больше, чем передать словами, потому что мы живём в общей для всех реальности. Но системы ИИ не живут с нами в этой реальности. И именно это положение дел мы должны изменить.

Как системы ИИ могут лучше понимать язык

В последнее десятилетие доминирующее положение занимают системы ИИ на основе нейронных сетей. Люди полагают, что, чем больше данных вводить в системы, чем крупнее и сложнее создавать сети и чем интенсивнее их обучать, тем быстрее будет расти общий уровень развития искусственного интеллекта. В основе этой идеи лежат принципы глубокого обучения, в последнее время занимающие прочные позиции и, похоже, не собирающиеся их уступать. GPT-3, LaMDA и MUM — самые свежие примеры, не говоря уже о бесчисленном множестве других популярных систем, созданных с использованием этой парадигмы.

Однако у такого подхода есть и авторитетные опровергающие его противники. Философ Юбер Дрейфус критиковал современные подходы к созданию систем ИИ, утверждая, что большую часть своего опыта человек набирает в форме неявных — опытных и интуитивных — знаний, которые нельзя передавать непосредственно или в виде особого кода, и поэтому такие знания недоступны для виртуальных систем ИИ. Языковый опыт в этом смысле ничем не отличается от общечеловеческого, и именно прагматическое измерение часто переплетается с неявным знанием.

Дрейфус утверждал, что лишённые материальной оболочки машины никогда не смогут обрести интеллект и понимание, потому что для этого им придётся выйти в мир и взаимодействовать с ним. Познавая мир, мы развиваем неявные знания и постигаем скрытую в языке прагматическую информацию. Чтобы овладеть языком, системам ИИ придется внедрить себя в ту же реальность, в которой живём мы, и взаимодействовать с ней так же, как и мы.

По словам Рагнара Фьелланда, профессора Бергенского университета, «пока компьютеры не повзрослеют, не примкнут к какой-либо культуре и не станут действовать в реальном мире, они никогда не обретут подобный человеческому интеллект». То же можно сказать и о приобретении человекоподобных языковых способностей. Но, по всей видимости, в ближайшее время этого не произойдёт.

Выводы

В последние годы мы стали свидетелями ошеломительного прогресса технологий ИИ, интегрируемых в системы автоматической обработки естественного языка (NLP), например GPT-3. Такие языковые системы уже способны выполнять языковые задачи на человеческом уровне. Их возможности никто не отрицает. Это очень мощные системы, и со временем они будут становиться ещё мощнее.

Однако они не способны по-настоящему понимать генерируемые ими слова и фразы. Они не смогут идеально овладеть языком независимо от количества введённых в них параметров и объёма данных, на которых обучаются.

Причина заключается в том, что им недоступна контекстуальная информация — прагматическое измерение языка, в котором происходит человеческий разговор. Они не видят смысла за словами. Системы ИИ не живут в нашем мире. Они не понимают нашу реальность. Именно поэтому в обозримом будущем у них не разовьются языковые способности, подобные человеческим.

То же самое, конечно же, верно и для других данных, с которыми работает ИИ, поэтому вы можете смело начинать карьеру в области искусственного интеллекта, например на нашем курсе «Machine Learning и Deep Learning» или двухлетней специализации в Data Science. Также вы можете узнать, как начать развиваться или прокачать навыки в других направлениях:

Data Science и Machine Learning

Python, веб-разработка

Мобильная разработка

Java и C#

От основ — в глубину

А также:

Комментарии (7)


  1. Greendq
    18.08.2021 14:30
    +2

    Три закона Кларка:

    1. Когда уважаемый, но пожилой учёный утверждает, что что-то возможно, то он почти наверняка прав. Когда он утверждает, что что-то невозможно, — он, весьма вероятно, ошибается.

    2. Единственный способ обнаружения пределов возможного состоит в том, чтобы отважиться сделать шаг в невозможное.

    3. Любая достаточно развитая технология неотличима от магии.

      И дополнение от Азимова к первому закону:

      • «Тем не менее, когда непрофессионалы сплачиваются вокруг идеи, отрицаемой уважаемым, но пожилым учёным, и поддерживают эту идею с пылом и энтузиазмом — то этот уважаемый, но пожилой учёный, в конечном счёте, вероятно, прав».


  1. dipsy
    18.08.2021 15:00
    +1

    Про игру go точно так же писали за 2 года до того как машины "научились". Впрочем как и про многие прочие "чисто человеческие" умения.

    https://habr.com/ru/post/224029/

    Судя по всему, скоро компьютер выиграет в последнюю игру с полной информацией, которая пока остаётся за человеком. По оценке Кулома, программа выиграет без форы в течение 10 лет. Эксперты, знающие силу лучших игроков, не так уверены. Дело в том, что на высших уровнях игра выходит на качественно иной уровень, ходы перестают быть предсказуемыми.

    Эксперты в комментариях тоже тогда времени зря не теряли, активно и вполне обоснованно сомневались

    Тоже засомневался. Вероятно человек играет, оценивая ситуацию сложным нечётким алгоритмом, который пока не удалось хорошо формализовать, не просчитывая множество возможных вариантов. Возможно даже на уровне интуиции — происходит распознавание хороших и не очень позиций на основе опыта игры.


    1. Sychuan
      18.08.2021 17:14
      +1

      Да, я тоже этом помню. Впрочем, я читал и про "компьютер никогда не победит даже любителя в шахматы". Не на хабре, конечно.


  1. bak
    18.08.2021 17:01

    Системы ИИ не живут в нашем мире. Они не понимают нашу реальность. Именно поэтому в обозримом будущем у них не разовьются языковые способности, подобные человеческим.

    Засунут их в 3d симулятор, накрутят миллиарды часов на кластере и дообучают, научат понимать прагматику.

    Пока что весь прогресс выглядит так:

    1) "Вот вам новая нейросеть которая умеет A, B, C!"

    2) "Вау! Круто!". "Но она не умеет D, E, F

    4) "Вот вам новая нейросеть которая умеет D, E, F!"

    У человека 85млрдов нейронов, у той-же GPT-3 их 175. Это лишь вопрос времени когда научаться близко эмулировать человеко-подобное поведение (а затем и превосходить). Сейчас скорее сложнее формализовать это самое человеко-подобное поведение, но с каждой итерацией мы всё ближе.


    1. Arlekcangp
      19.08.2021 08:23
      +3

      175 миллиардов не нейронов а параметров. Т е это число нужно сравнивать с числом синапсов. Каждый нейрон в коре может иметь до миллиона синапсов. Так что пока gpt-3 отстаёт только по этому параметру на 6 порядков. Кроме того на мой взгляд уже очевидно, что организовать такое количество параметров одной нейросетью не получится. Обучение будет занимать века. Как минимум искусственные НС должны научится быть модульными.


  1. YNK
    18.08.2021 19:31
    -4

    Уши выше лба не растут. ИИ никогда не превзойдет своих разработчиков. Даже если случится чудо, когда ИИ возьмет и перепишет собственный код, улучшив его сколько-то... Но чуда не произойдет, ИИ не знакома инвенция с включением в нее настроения, замыслов и вымыслов которые человек сам не может переносить в речь совершая свои мысленные достижения с преобразованием в изобретения, открытия.


  1. sshmakov
    19.08.2021 06:34

    Как тут не вспомнить классика:

    Но на какого дьявола? - Спрашивается. Обьясните мне, пожалуйста, зачем нужно искусственно фабриковать Спиноз, когда любая баба может его родить когда угодно.

    А по сути - чтобы ИИ говорил и понимал как человек, он должен стать человеком и прожить человеческую жизнь. Вот так просто. Но это не та цель, ради которой делается ИИ. Мы же сможем относиться к ИИ как помощнику-иностранцу, который более-менее овладел нашей речью, но не знает нашей жизни, но тем не менее может помочь нам решать вопросы.