Несмотря на то, что чатботы пока еще не слишком хорошо поддерживают беседу с людьми (хотя и постоянно совершенствуются в этом), с текстом они работают гораздо лучше. Проверить это утверждение можно при помощи веб-приложения, основа для которого — искусственный интеллект (слабая его форма).
Так, если пользователь начинает писать новостную статью, бот может ее завершить. Также технология относительно неплохо поддерживает «общение» с человеком при помощи переписки. Если спросить «Чем мне сегодня заняться?», программа даст вполне внятный ответ. Существует и решение в виде веб-сервиса, это TalkToTransformer.com.
Разработал его канадский инженер Адам Кинг. Стоит отметить, что он создал внешнюю часть сервиса, а вот в его основе — ИИ, разработанный исследовательской организацией OpenAI. Ранее в этом году OpenAI представила свою языковую ИИ-систему, GPT-2, а TalkToTransformer — это возможность опробовать эту систему.
Ранее она была доступна лишь для тестирования выбранных разработчиками ученых и журналистов. «Трансформером» сервис называется по типу нейросети, которая лежит в основе GPT-2.
Если есть желание познакомиться с языковыми возможностями ИИ, то нет лучшего варианта, чем TalkToTransformer. Сервис достаточно гибкий. Он умеет распознавать большое количество типов текстовой информации, включая рецепты, программный код, слова песен и т.п. Он также умеет идентифицировать героев различных литературных произведений, включая «Гарри Поттера» и The Lord of the Rings.
В то же самое время, возможности системы ограничены — она не умеет «мыслить» масштабно, а действует поверхностно. Тексты, которые пишет ИИ, могут иметь сюжетные линии, героев (если это рассказ). Но все это логически не связано, то есть герои появляются и исчезают, а их действия случайны.
Диалоги строятся по тому же случайном принципу. Если диалог более-менее стройный, то это, скорее, случай, чем возможности сервиса. Тем не менее, более простые тексты ИИ формирует весьма неплохо. Работа ведется за счет источников сети и других местах.
Ранее на Хабре сообщалось, что GPT-2 обучается на обычных интернет-страницах (около 8 млн сайтов, 40 ГБ текста). В выборку источников обучения попали сайты, которые имеют на reddit хороший рейтинг — это сделано во избежание засорения источника данных спамерскими и рекламными ресурсами.
При формировании диалога нужно подавать начало фразы. Например «Марс это…», после чего система дополняет предложение. Ответы сеть может давать без специального дообучения под конкретную задачу.
Комментарии (7)
2morrowMan
17.05.2019 16:16Первы раз на вопрос 42? выдало кусок кода какой-то страницы.
На вопрос What is my purpose? тоже что-то нагугленное выдало про ЦРУ и с ссылкой на какой-то сайт чтобы купить там «его» книгу…daiver19
18.05.2019 02:29Там нет ничего «нагугленного». Он генерирует названия сайтов, фирм итд. На самом деле раз в несколько генераций эта штука выдает уморительные тексты, демонстрируя при этом весьма хорошее поддержание контекста (возвращение к именам, местам, соблюдение рода итд). Но с вопросами вообще проблема, да, т.к. он явно натренирован в основном на обычном тексте а не Q&A.
fivehouse
17.05.2019 17:31+11) Показанный онлайн пример даже до средне качественного бредогенератора не дотягивает. И представляет собой смесь очень неуравновешенного бредогенератора со случайным текстовым поиском.
2) Никакой из нынешних ИИ от не умеет писать поэмы, статьи и новости. Он умеет бессмысленно генерировать текст по некоторым правилам. Что и демонстрируется в этом конкретном случае.
3) Также хотелось бы напомнить аффтарам всех этих искусственных недоинтеллектов, которые умеют «писать поэмы», что поэмы, статьи и новости это нечто существенно большее, чем бессмысленный текст для развлечения бездельников из офисов.lostmsu
17.05.2019 20:41Вы неправы насчёт поэм, статей и новостей. Я взял их маленькую модель и даже она терпимые поэмы пишет (см. ниже). А их оригинальная модель, которую они не выложили, пишет весьма неплохие тексты.
lostmsu
17.05.2019 18:15-1А вот написание "текстов песен": http://billion.dev.losttech.software:2095
Исходник тут: https://GitHub.com/losttech/BillionSongs
Статью попозже выложу
masai
18.05.2019 12:28После прочтения этой статьи может возникнуть ложное впечатление, что TalkToTransformer использует полный вариант GPT-2. Потому и появляется разочарование от результатов. OpenAI в своём анонсе показывала намного лучшие примеры.
Но нужно заметить, что этот сервис использует выложенную в открытый доступ модель с 345 миллионами параметров, а полную модель с 1,5 миллиардами параметров они решили во избежание злоупотреблений не выкладывать как раз из-за слишком высокого качества текстов.
Об этом написано на самом сайте TalkToTransformer. Мне кажется, это нужно добавить в статью.
c_kotik
Если бы новость опубликовал Ализар, было бы подозрительно.