Несмотря на то, что чатботы пока еще не слишком хорошо поддерживают беседу с людьми (хотя и постоянно совершенствуются в этом), с текстом они работают гораздо лучше. Проверить это утверждение можно при помощи веб-приложения, основа для которого — искусственный интеллект (слабая его форма).

Так, если пользователь начинает писать новостную статью, бот может ее завершить. Также технология относительно неплохо поддерживает «общение» с человеком при помощи переписки. Если спросить «Чем мне сегодня заняться?», программа даст вполне внятный ответ. Существует и решение в виде веб-сервиса, это TalkToTransformer.com.



Разработал его канадский инженер Адам Кинг. Стоит отметить, что он создал внешнюю часть сервиса, а вот в его основе — ИИ, разработанный исследовательской организацией OpenAI. Ранее в этом году OpenAI представила свою языковую ИИ-систему, GPT-2, а TalkToTransformer — это возможность опробовать эту систему.

Ранее она была доступна лишь для тестирования выбранных разработчиками ученых и журналистов. «Трансформером» сервис называется по типу нейросети, которая лежит в основе GPT-2.



Если есть желание познакомиться с языковыми возможностями ИИ, то нет лучшего варианта, чем TalkToTransformer. Сервис достаточно гибкий. Он умеет распознавать большое количество типов текстовой информации, включая рецепты, программный код, слова песен и т.п. Он также умеет идентифицировать героев различных литературных произведений, включая «Гарри Поттера» и The Lord of the Rings.

В то же самое время, возможности системы ограничены — она не умеет «мыслить» масштабно, а действует поверхностно. Тексты, которые пишет ИИ, могут иметь сюжетные линии, героев (если это рассказ). Но все это логически не связано, то есть герои появляются и исчезают, а их действия случайны.

Диалоги строятся по тому же случайном принципу. Если диалог более-менее стройный, то это, скорее, случай, чем возможности сервиса. Тем не менее, более простые тексты ИИ формирует весьма неплохо. Работа ведется за счет источников сети и других местах.

Ранее на Хабре сообщалось, что GPT-2 обучается на обычных интернет-страницах (около 8 млн сайтов, 40 ГБ текста). В выборку источников обучения попали сайты, которые имеют на reddit хороший рейтинг — это сделано во избежание засорения источника данных спамерскими и рекламными ресурсами.

При формировании диалога нужно подавать начало фразы. Например «Марс это…», после чего система дополняет предложение. Ответы сеть может давать без специального дообучения под конкретную задачу.


Комментарии (7)


  1. c_kotik
    17.05.2019 14:59
    +1

    Если бы новость опубликовал Ализар, было бы подозрительно.


  1. 2morrowMan
    17.05.2019 16:16

    Первы раз на вопрос 42? выдало кусок кода какой-то страницы.
    На вопрос What is my purpose? тоже что-то нагугленное выдало про ЦРУ и с ссылкой на какой-то сайт чтобы купить там «его» книгу…


    1. daiver19
      18.05.2019 02:29

      Там нет ничего «нагугленного». Он генерирует названия сайтов, фирм итд. На самом деле раз в несколько генераций эта штука выдает уморительные тексты, демонстрируя при этом весьма хорошее поддержание контекста (возвращение к именам, местам, соблюдение рода итд). Но с вопросами вообще проблема, да, т.к. он явно натренирован в основном на обычном тексте а не Q&A.


  1. fivehouse
    17.05.2019 17:31
    +1

    1) Показанный онлайн пример даже до средне качественного бредогенератора не дотягивает. И представляет собой смесь очень неуравновешенного бредогенератора со случайным текстовым поиском.
    2) Никакой из нынешних ИИ от не умеет писать поэмы, статьи и новости. Он умеет бессмысленно генерировать текст по некоторым правилам. Что и демонстрируется в этом конкретном случае.
    3) Также хотелось бы напомнить аффтарам всех этих искусственных недоинтеллектов, которые умеют «писать поэмы», что поэмы, статьи и новости это нечто существенно большее, чем бессмысленный текст для развлечения бездельников из офисов.


    1. lostmsu
      17.05.2019 20:41

      Вы неправы насчёт поэм, статей и новостей. Я взял их маленькую модель и даже она терпимые поэмы пишет (см. ниже). А их оригинальная модель, которую они не выложили, пишет весьма неплохие тексты.


  1. lostmsu
    17.05.2019 18:15
    -1

    А вот написание "текстов песен": http://billion.dev.losttech.software:2095


    Исходник тут: https://GitHub.com/losttech/BillionSongs


    Статью попозже выложу


  1. masai
    18.05.2019 12:28

    После прочтения этой статьи может возникнуть ложное впечатление, что TalkToTransformer использует полный вариант GPT-2. Потому и появляется разочарование от результатов. OpenAI в своём анонсе показывала намного лучшие примеры.


    Но нужно заметить, что этот сервис использует выложенную в открытый доступ модель с 345 миллионами параметров, а полную модель с 1,5 миллиардами параметров они решили во избежание злоупотреблений не выкладывать как раз из-за слишком высокого качества текстов.


    Об этом написано на самом сайте TalkToTransformer. Мне кажется, это нужно добавить в статью.