![](https://habrastorage.org/webt/ai/py/uf/aipyufwv3zyen0doszheicaru2c.jpeg)
Несмотря на то, что чатботы пока еще не слишком хорошо поддерживают беседу с людьми (хотя и постоянно совершенствуются в этом), с текстом они работают гораздо лучше. Проверить это утверждение можно при помощи веб-приложения, основа для которого — искусственный интеллект (слабая его форма).
Так, если пользователь начинает писать новостную статью, бот может ее завершить. Также технология относительно неплохо поддерживает «общение» с человеком при помощи переписки. Если спросить «Чем мне сегодня заняться?», программа даст вполне внятный ответ. Существует и решение в виде веб-сервиса, это TalkToTransformer.com.
![](https://habrastorage.org/getpro/habr/post_images/362/139/02d/36213902d810f287e799729598b354fd.jpg)
Разработал его канадский инженер Адам Кинг. Стоит отметить, что он создал внешнюю часть сервиса, а вот в его основе — ИИ, разработанный исследовательской организацией OpenAI. Ранее в этом году OpenAI представила свою языковую ИИ-систему, GPT-2, а TalkToTransformer — это возможность опробовать эту систему.
Ранее она была доступна лишь для тестирования выбранных разработчиками ученых и журналистов. «Трансформером» сервис называется по типу нейросети, которая лежит в основе GPT-2.
![](https://habrastorage.org/getpro/habr/post_images/2c0/dd3/134/2c0dd3134655c8a4d8d6411503d70597.jpg)
Если есть желание познакомиться с языковыми возможностями ИИ, то нет лучшего варианта, чем TalkToTransformer. Сервис достаточно гибкий. Он умеет распознавать большое количество типов текстовой информации, включая рецепты, программный код, слова песен и т.п. Он также умеет идентифицировать героев различных литературных произведений, включая «Гарри Поттера» и The Lord of the Rings.
В то же самое время, возможности системы ограничены — она не умеет «мыслить» масштабно, а действует поверхностно. Тексты, которые пишет ИИ, могут иметь сюжетные линии, героев (если это рассказ). Но все это логически не связано, то есть герои появляются и исчезают, а их действия случайны.
Диалоги строятся по тому же случайном принципу. Если диалог более-менее стройный, то это, скорее, случай, чем возможности сервиса. Тем не менее, более простые тексты ИИ формирует весьма неплохо. Работа ведется за счет источников сети и других местах.
Ранее на Хабре сообщалось, что GPT-2 обучается на обычных интернет-страницах (около 8 млн сайтов, 40 ГБ текста). В выборку источников обучения попали сайты, которые имеют на reddit хороший рейтинг — это сделано во избежание засорения источника данных спамерскими и рекламными ресурсами.
При формировании диалога нужно подавать начало фразы. Например «Марс это…», после чего система дополняет предложение. Ответы сеть может давать без специального дообучения под конкретную задачу.
![](https://habrastorage.org/webt/qq/g0/i7/qqg0i7eriq4febfjqqehire4fnw.png)
![](https://habrastorage.org/webt/bv/1y/yw/bv1yywjgl2_cbtzvvtk4rup2jz8.png)
Комментарии (7)
2morrowMan
17.05.2019 16:16Первы раз на вопрос 42? выдало кусок кода какой-то страницы.
На вопрос What is my purpose? тоже что-то нагугленное выдало про ЦРУ и с ссылкой на какой-то сайт чтобы купить там «его» книгу…daiver19
18.05.2019 02:29Там нет ничего «нагугленного». Он генерирует названия сайтов, фирм итд. На самом деле раз в несколько генераций эта штука выдает уморительные тексты, демонстрируя при этом весьма хорошее поддержание контекста (возвращение к именам, местам, соблюдение рода итд). Но с вопросами вообще проблема, да, т.к. он явно натренирован в основном на обычном тексте а не Q&A.
fivehouse
17.05.2019 17:31+11) Показанный онлайн пример даже до средне качественного бредогенератора не дотягивает. И представляет собой смесь очень неуравновешенного бредогенератора со случайным текстовым поиском.
2) Никакой из нынешних ИИ от не умеет писать поэмы, статьи и новости. Он умеет бессмысленно генерировать текст по некоторым правилам. Что и демонстрируется в этом конкретном случае.
3) Также хотелось бы напомнить аффтарам всех этих искусственных недоинтеллектов, которые умеют «писать поэмы», что поэмы, статьи и новости это нечто существенно большее, чем бессмысленный текст для развлечения бездельников из офисов.lostmsu
17.05.2019 20:41Вы неправы насчёт поэм, статей и новостей. Я взял их маленькую модель и даже она терпимые поэмы пишет (см. ниже). А их оригинальная модель, которую они не выложили, пишет весьма неплохие тексты.
lostmsu
17.05.2019 18:15-1А вот написание "текстов песен": http://billion.dev.losttech.software:2095
Исходник тут: https://GitHub.com/losttech/BillionSongs
Статью попозже выложу
masai
18.05.2019 12:28После прочтения этой статьи может возникнуть ложное впечатление, что TalkToTransformer использует полный вариант GPT-2. Потому и появляется разочарование от результатов. OpenAI в своём анонсе показывала намного лучшие примеры.
Но нужно заметить, что этот сервис использует выложенную в открытый доступ модель с 345 миллионами параметров, а полную модель с 1,5 миллиардами параметров они решили во избежание злоупотреблений не выкладывать как раз из-за слишком высокого качества текстов.
Об этом написано на самом сайте TalkToTransformer. Мне кажется, это нужно добавить в статью.
c_kotik
Если бы новость опубликовал Ализар, было бы подозрительно.