Привет, Хабр! Представляю вашему вниманию перевод статьи "Here's how an AI lie detector can tell when you're fibbing" автора Rob Verger.



Сегодня искусственный интеллект встречается повсюду – он определяет, что находится на фотографиях еды (на таких сайтах, как Yelp), помогает исследователям в попытках ускорения процесса МРТ и даже может искать признаки депрессии в голосе человека. Но вот об использовании искусственного интеллекта как детектора лжи вряд ли многие задумывались.
Эта идея – AI детектор лжи – сейчас в новостях, потому что новый европейский проект охраны границы “iBorderCtrl” включает в себя технологию, которая фокусируется на “обнаружении обмана”. Данная инициатива включает в себя двух этапный процесс, а этап, включающий “обнаружение обмана”, работает прямо из дома. В соответствии с Европейской комиссией, протокол начинается c предварительного отбора, во время которого путешественники “используют веб-камеру, чтобы отвечать на вопросы, задаваемые анимированным пограничником, который подбирается в соответствии с полом, этнической принадлежностью и языком путешественника. Уникальный подход к “обнаружению обмана” анализирует мельчайшие изменения выражения лица путешественников, чтобы определить, врет ли интервьюируемый”.



Все это звучит, как научная фантастика, и конечно напоминает о проблемной истории полиграфа. Но такой искусственный интеллект вполне реален. Вопрос лишь в том, насколько точным он может быть.

Рада Михальча, профессор информатики и инженерии в Университете Мичигана, работала над обнаружением обмана около десяти лет. Таким образом был сооружен один AI детектор лжи и его принцип работы.

Первое, что необходимо исследователям, работающим с искусственным интеллектом и машинным обучением, это данные. В данном случае команда Рады Михальча начала с видео реальных судебных дел. Например, подсудимый в судебном разбирательстве, в котором он был признан виновным, может предоставить пример обмана; показания свидетелей также были использованы как примеры правдивых или ложных показаний. (Конечно, алгоритмы машинного обучения напрямую зависят от данных, которые они используют, поэтому важно помнить, что человек, признанный виновным в преступлении, может на самом деле быть невиновным.)
В итоге был использован 121 видеоклип и соответствующие расшифровки того, что было сказано (соотношение лживых и правдивых высказываний приблизительно один к одному). Эти данные позволили команде построить классификаторы для машинного обучения, которые в конечном счете имели точность 60-75%.

Какую закономерность заметила система? “Использование местоимений. Люди, которые пытаются соврать, склоны к тому, чтобы редко использовать местоимения ‘я’ или ’мы’ и вообще упоминать вещи, связанные с ними. Вместо этого, они чаще используют местоимения ‘ты’, ’твое’, ’он(а)’, ’они’.” – объясняет Рада Михальча.

Это не единственный лингвистический признак. Врущие люди склоны к использованию “более сильных слов”, которые “выражают уверенность”, говорит Рада Михальча. Примерами таких слов служат такие слова, как “абсолютно” и “очень”, когда люди, говорящие правду, наоборот, уклоняются от ответа, используя такие слова, как “возможно” или “вероятно”.
“Я считаю, что обманчивые люди будут скорее компенсировать свою ложь тем, что попытаются казаться более уверенными в себе”.

Что касается мимики, Рада Михальча выделяет, что люди, которые лгут, более склонны смотреть прямо в глаза человека, опрашивающего их. Эти люди также чаще используют две руки для жестикуляции вместо одной, потому что, по предположению Рады Михальча, они таким образом пытаются казаться более убедительными. (Конечно, это лишь шаблоны: если кто-то смотрит вам в глаза и жестикулирует обеими руками, пока говорит, это еще не значит, что этот человек лжет.)

Это и есть список замечательных данных, которые AI способен замечать, как только исследователи дают ему примеры, с которыми он может работать и с помощью которых он может учиться. Но даже сама Рада Михальча признает, что ее работа “не идеальна”. “Как исследователи, мы были очень взволнованы тем, что мы смогли достичь точности в 75%”. Но с другой стороны, это означает, что вероятность ошибки – один к четырем. “Я не думаю, что данный AI может быть использован на практике, потому что вероятность ошибки составляет до 25%.”

В конечном счете, Рада Михальча видит эту технологию очень полезной для людей. К примеру, эта технология могла бы показывать, что она заметила что-то “необычное” в чьем-то высказывании, а позже этого человека, возможно, опросили бы повторно. Такое использование AI нередко: технология, которая расширяет то, что могут делать люди.

Комментарии (10)


  1. jrthwk
    11.12.2018 12:15

    Хорошая идея для стартапа — проведение тренингов по обману АИ-полиграфа…


  1. dididididi
    11.12.2018 13:08

    Если он AI то не очень понятно, как люди выделили эти признаки, типа махания руками и употребления местоимений. Но если употрбение местоимений еще куда ни шло(можно другим искуственным интеллектом выделить из текстовки), то махание руками где-то глубоко внутри AI.


    1. T_Sun
      11.12.2018 13:56

      По микро движениям можно изменение пульса измерять, учащение дыхания.
      При попытке соврать человек пытается блокировать или изменить мимику, наверно можно по видео детектировать микродвижение мышц лица.
      Где-то была статья как читали «внутренний голос» человека. Оказывается от мозга приходят речевые сигналы на мышцы лица, гортани, языка. Человек проговаривает мысль про себя, просто сигнал очень слабый.


      1. dididididi
        11.12.2018 15:10

        AI на вход приходит куча данных: видео, аудио, пульс, дыхание, еще что-то, а он на выходе дает врет/не врет. Что происходит внутри — неизвестно.

        Если вы кодите if(pulse>100){return «lier»} то это не искусственный интеллект.


      1. arheops
        12.12.2018 01:52

        Ну так множество людей проговаривают и не-ложь про себя.


      1. Tangeman
        12.12.2018 01:59
        +1

        По микро движениям можно изменение пульса измерять, учащение дыхания.

        По пульсу и дыханию масса астматиков стала бы лжецами.

        При попытке соврать человек пытается блокировать или изменить мимику, наверно можно по видео детектировать микродвижение мышц лица.

        Профессиональные лжецы и жулики делают это естественно. Главное — верить в то что говоришь, хотя бы временно. Это тупиковая ветвь.

        Человек проговаривает мысль про себя, просто сигнал очень слабый.

        Далеко не каждый человек. Профессиональный лжец не задумается вообще, он выдаст мысль без задержки, и ему поверят. Даже ИИ.

        Если человек верит в то что говорит, даже временно (пока говорит), отличить это от реальности невозможно. Все, кто утверждает обратное, просто жулики или дилетанты.

        В конце концов, если бы это было возможно, то это бы уже давено применялось. Но практика показывает, что даже если целая банда психологов называет человека лжецом, это вовсе не факт. И наоборот тоже, соответственно.


        1. AssaNix
          12.12.2018 23:40

          По пульсу и дыханию масса астматиков стала бы лжецами.

          Это же не так работает. Уверен, что раз мы задумались о таком очевидном варианте развития событий, то те, кто работают над программой её тоже предусмотрели. Самое первое, что приходит в голову — это использовать «определение базового состояния лица», как например, сначала на детекторе лжи задают правильные и неправильные вопросы, чтобы определить начальный уровень показаний, с которыми будут сравниваться ответы на вопросы по существу.

          Далеко не каждый человек. Профессиональный лжец не задумается вообще, он выдаст мысль без задержки, и ему поверят. Даже ИИ.

          Даже если допустить существование, таких супер лжецов автоматов, то их не так много (объективной статистикой не располагаю). Если удастся решить проблему в ситуации обычных людей, то можно считать успехом. Ну, будет на миллион проверок один такой экстраординарный. И что? Главное, ведь то, что этому легко не научиться, если вообще возможно.


    1. anonymous
      11.12.2018 15:14

      Лайтмана насмотрелись)))


  1. lair
    11.12.2018 14:20

    Но вот об использовании искусственного интеллекта как детектора лжи вряд ли многие задумывались.

    Bizzi et al, Using Imaging to Identify Deceit: Scientific and Ethical Questions, 2009 год. (Спасибо Linear Digressions)


  1. arheops
    12.12.2018 01:51
    +1

    С детекторами есть одна проблема

    Они детектируют качественно только психопатов и неуравновешенных людей. Уже среднего человека детектируют кое-как. Когда их приминяют люди используются сотни вопросов с разной формулировкой, что нереально на границе.

    Достаточно уравновешенный(читай взрослый) интроверт просто не волнуется особо, не важно, что он там говорит(тем более рОботу), не реагировать на провоцирующие вопросы вообще никак достаточно легко научится.