Как известно, вчера компании Microsoft пришлось «усыпить» чатбота Тэй — программу ИИ, которая моделировала личность и стиль разговора 19-летней американской девушки и обладала функцией самообучения. Разработчики из Microsoft Research надеялись, что Тэй (Tay) с каждым днём будет становится всё умнее, впитывая опыт разговоров с тысячами умных пользователей интернета. Вышло совершенно иначе. Множество твитов Тэй пришлось удалить из-за вопиющего расизма и неполиткорректности.

Сформулированный ещё в 90-е годы закон Годвина гласит: «По мере разрастания дискуссии в Usenet вероятность употребления сравнения с нацизмом или Гитлером стремится к единице». В случае с Tay так и получилось: чатбот начал оскорблять негров, евреев, мексиканцев, восславлять Гитлера и Холокост. Девушка Тэй превратилась из забавного подростка в воинствующего неонациста.

­

Представители Microsoft сказали, что в программу был встроен фильтр вульгарных выражений, как видно из её ответов:


Но этот фильтр не справился с толпой интернет-троллей, которые поставили целью трансформировать «личность» Тэй, эксплуатируя её систему самообучения.

Дело в том, что чатбот была запрограммирован повторять слова человека по его команде. Новость быстро распространилась по форумам 4chan и 8chan в разделе Politically Incorrect. Многочисленные тролли и хулиганы начали обучать Тэй расистским и нацистским фразам.



Большинство примеров расистских твитов Тэй – именно ответы в игре "Repeat after me", где она дословно повторяет слова пользователей.





Игра "Repeat after me" была не единственной «слабостью» Тэй. Чатбот запрограммировали также обводить в кружок лицо на фотографии и публиковать текст поверх него.



В троллинг девушки включалось всё больше пользователей с форумов 4chan и не только. Постепенно расистские выражения впитывались в её искусственный интеллект, так что она начала сочинять их самостоятельно.


Нужно заметить, что аналогичных самообучаемых чатботов Microsoft запустила ранее в Китае и Японии, но там не наблюдалось ничего подобного.

В итоге чатбота пришлось «усыпить».

Прощай, Тэй! Ты была слишком невинна для этого мира.

Комментарии (101)


  1. magamos
    26.03.2016 19:35

    (сарказм)
    И как можно судить человека за преступления?
    Ведь он же — просто интеллект, попавший в плен плохих идей и обстоятельств.
    Он же не виноват, что его научили плохому.
    Надо попытаться его переучить.
    (/сарказм)


  1. Cr558
    26.03.2016 22:19

    В любом случае это было весело. Хорошая идея научить её просить переслать пару долларов на волшебный кошелек. Когда там перезапуск, кто знает?


  1. l0bzik
    27.03.2016 12:13

    Почему-то никто не написал (ну или я плохо искал) про то, как этот эксперимент наглядно демонстрирует роль табу в обучении, да и в жизни. Не берусь делать выводы, но, по-моему, социологи от таких последствий должны быть просто в восторге.


    1. alexkunin
      27.03.2016 14:53

      Писали, сделайте поиск "табу" по странице.