- Порождаемые диалоговой системой тексты отвечают «здравому смыслу».
- Ответы системы соответствуют контексту диалога и ожиданиям человека.
- Понимание целей, намерений высказываний человека в диалоге.
Понимания смысла в полной мере нельзя отнести к теме понимания контекста диалога, так как смысл высказывания собеседника может быть по-разному интерпретирован, и какой интерпретации должно соответствовать состояние понимания, не ясно. Можно ли «ошибки» по мнению собеседника (человека) интерпретировать как иное понимание смысла выражения системой? В большей степени понимания смысла относится к пониманию намерений и целей высказывания, а это отдельная тема theory of mind. «Здравый смысл» как критерий понимания можно интерпретировать точнее. В общем смысле это соответствие ответа картине мира, что поддается проверке. И на сегодня это является лучшим критерием понимания искусственными агентами, такими как диалоговые боты, контекста диалога. Но пока в этом боты не демонстрируют успехи.
Анализ подходов
Релевантный ответ является самым простым критерием понимания ботом собеседника (человека). Но этот критерий легко «подделать», что ни раз демонстрировалось участниками Премии Лёбнера. Он достигается закладыванием большого числа вариативных шаблонов ответов на распознаваемые нейронной сетью «интентов». Это трудно назвать пониманием. Но и успехи таких ботов скромны – смешанные интенты они распознают крайне плохо. Один вопрос вне тем шаблонов и система проваливается. Это легко проверить на таких ботах как Алиса от Яндекс и Siri от Apple. Можно сказать, что знания мира у таких систем фрагментарны.
Еще один путь – построение онтологий, покрывающие все знания о мире, чтобы иметь ответить на вопросы. Это реализуется через возможностью идентифицировать вопрос на ветке онтологии и построить верный ответ на основе заложенных в ней знаний. Онтологии претендуют на охват онтологией всей картины мира. Этот подход применялся таких проектах как CYC и ABBYY Compreno. Теперь можно констатировать, что такой способ решения проблемы «понимания» провалился. Десятилетия ручного построения онтоинженерами таких онтологий не позволили построить даже такую, которая не проваливалась бы даже на простых детских вопросах. Проблемы онтологий в основном связаны с метафоричностью языка и омонимией, которые невозможно непротиворечиво заложить в древовидную «логичную» структуру онтологий. К этим же попыткам можно отнести проекты FrameNet (Филмор), заключающиеся в построении сценариев на основе семантического фрейма для отражения фактов мира. Но по тем же причинам проект не смог получить развитие. Можно сказать, что такие системы не способны реализовать экономность языка как способность ограниченным словарным запасом описывать большое число концептов через механизм метафоры.
С 2010 года больше упор делается на нейронные сети, но они ограничены тем, что могут делать предположения только в рамках той картины мира, которая присутствовала в обучающей выборке. Такие сети как GPT-2 (февраль 2019) в проекте OpenAI, построенными на архитектуре Transformer (генеративная сеть, обученная на миллиардных по объему слов текстах), порождают грамматически правильные «человеческие» тексты, совершенно лишенные смысла, что говорит о полном непонимании ими «здравого смысла» как в примере ниже.
Пример:
You: How many eyes has a wolf?
GPT-3: A wolf has four eyes.
You: Why four?
GPT-3: Two are for seeing in the dark with.
You: Why two?
GPT-3: The wolf needs to see if its food is ready.
You: And how many eyes has a human?
GPT-3: A human has two eyes and two ears to hear with.
You: And how many eyes has a blade of grass?
GPT-3: A blade of grass has one eye and one ear to see and hear with.
You: Why one?
GPT-3: To ensure it does not get stepped on.
Можно сказать, что такие системы могут сгенерировать высказывание по любому вопросу, даже не встречающемуся в обучающих текстах, но они не могут гарантировано строить факты «здравого смысла», соответствующие картине мира.
Есть комбинированные подходы как COMET, основанным Yejin Choi (1), в котором для дообучения предобученной языковой модели GPT-2 применили «рукописную» базу знаний фактов мира Atomic. В результате сеть стала порождать достоверно больше правдоподобных фактов, отсутствующих и в Atomic, и в обучающей выборке GPT. Но успехи такого проекта пока тоже скромны, так как гарантированного ответа не получить.
Интерес представляют и системы DeepMind, которые в дополнение к нейросети имеют внешнюю память фактов (или опыта), что позволяет им обучаться без учителя «правилам игры», просто проявляя активность в среде и записывая ее результат. И таким способом обучаться, даже в игре друг с другом, что позволило обыгрывать игроков-людей даже в таких играх как Го. Сейчас это считается мейнстримом в построении агентов, «понимающих мир» игры. Но архитектура такой самообучающейся системы не позволяет масштабировать ее на какую-то более сложную реальность, чем игра в черно-белые камешки или примитивную компьютерную игру Atari. Способ обучения явно имеет технологический предел сложности. Можно сказать, что такие системы создают «картину мира» не при помощи использования знаний для построения новых знаний, чтобы экономить ресурсы системы. Поэтому им требуется слишком много ресурсов для обучения даже в бедных средах.
Резюме
Что же тогда можно называть «пониманием» у искусственных систем с прагматической точки зрения? Обыденный ответ – агент должен обладать знанием. При этом, как показывает опыт, всеобъемлющее знание построить невозможно. Еще ответом может быть логичность в ответах системы. Но как мы видим, обученные на огромных текстах системы не отличаются логичностью в порождаемых высказываниях.
Понимание системой ИИ означаете ее способность ДОСТРАИВАТЬ правдоподобные гипотезы о картине мира по отрывочным знаниям фактов из этого мира. И для экономии система должна уметь для описания бесконечного числа фактов использовать ограниченный язык, что достигается механизмами, подобными метафоре. На сегодняшний момент, правда, этот механизм не известен настолько, чтобы его можно было воплотить в программном коде. Имеющиеся концепции метафоры не конкретны алгоритмически, например, концептуальная метафора или бленды. К ним пока не применима математика, но работа автора ведется именно в этом направлении
По мнению автора такое достраивание и есть основной критерий способности искусственной системы к пониманию. Когда «картина мира» ограничена, например, в шахматах, мы способны явно заложить алгоритмы продукции знаний, то есть возможных ходов, чтобы шахматы ориентировались в любой, даже не встречавшейся ранее расстановке фигур. Но как это сделать в реальном мире, где правил на много порядков больше, пока не известно, что и составляет основное направление исследования автора.
Библиография
1. Common Sense Comes Closer to Computers, Quantamagazin, April 30 2020
ni-co
Может кто со мной и не согласится, но лично я не вижу не соответствия понятий "смысла", "понимания" как его интерпретирует автор статьи для той же GPT-3.
Xom Автор
Не совсем понял, что именно Вы не видите? Можете пояснить и аргументировать?