Ухуэ Агудо и Хелена Матуте из Университета Деусто в Испании опубликовали исследование, которое показывает, как легко влиять на людей с помощью искусственного интеллекта. Исследователи пришли к выводу, что люди склонны следовать советам ИИ независимо от того, идет речь о выборе политического кандидата или пары для свидания.
Исследователи провели четыре эксперимента, каждый из которых начинался с фальшивого личностного теста. По завершении теста участники получили личностные характеристики, которые, как им сказали, помогут ИИ подобрать для них наилучшие персонализированные результаты. На самом деле индивидуальных профилей личности не было; вместо этого участникам предоставили расплывчато сформулированные профили, которые можно применить к кому угодно.
В ходе первого эксперимента участникам показывали изображения вымышленных политиков, указывая, что некоторых кандидатов им советует ИИ, основываясь на результатах личностных тестов. После людей спрашивали, за кого бы они отдали голос. По сравнению с контрольной группой участников, которым предоставлялись изображения без каких-либо советов, люди намного чаще голосовали за кандидата, которого им порекомендовал ИИ.
Во втором эксперименте вместо прямых рекомендаций ИИ тайно выбрал четырех политиков и предварительно показал их участникам, чтобы познакомиться с ними. В результате большинство участников также выбрали политиков, выбранных ИИ.
В политике кажется, что люди доверяют алгоритму, который говорит им, что делать, даже больше, когда они знают, что ими манипулируют. Но результаты были другими, когда те же концепции применили к приложениям для знакомств. Когда ИИ прямо советовал им пару, якобы подходящую им по характеристикам, участники все равно могли предпочесть другого вымышленного кандидата. Однако когда ИИ оставался «за кадром», как в ходе второго эксперимента, и просто выдавал определенные изображения, участники с большей вероятностью выбирали «знакомых» кандидатов.
Как указывают исследователи, людьми легко манипулировать с помощью ИИ, вопрос только в том, какие алгоритмы лучше всего подходят для каждой конкретной ситуации.
«Важно отметить, что скорость, с которой ученые проводят новые эксперименты и собирают новые данные, очень низка по сравнению с легкостью, с которой многие компании и их алгоритмы уже проводят эксперименты с миллионами людей. Компании, занимающиеся ИИ, могут проверять столько гипотез, сколько захотят, с произвольными выборками. Следовательно, их способность прямо или косвенно влиять на решения людей, безусловно, намного выше, чем показано в настоящем исследовании», — заключили авторы.
drWhy
Не знаю, как там политические или романтические предпочтения, а помогать подбирать варианты будущей специализации на основе выявленных предрасположенностей у детей с помощью ИИ определённо стоит.
silent_jeronimo
Проблема начнётся в тот момент, когда из рекомендации решение ИИ станет предписанием или барьером.
А оно станет. потому что «ИИ, на который государство потратило 1,5 млрд рублей, ошибаться не может».
Nepherhotep
Zibx
Такой проект быстро превратится в планирование требуемых специалистов. Так же как отображение пробок в навигаторе быстро выродилось в задачу маршрутизации потоков для утилизации всей пропускной способности.
LeToan
Не выродилось, а усложнилось до…
vindy123
Ну так отображение пробок в навигаторе само по себе ценности не имеет, оно там и появилось ровно для того, чтобы лучше планировать маршрут, не? Это как сказать, что установка бензинового двигателя на повозку быстро выродилась в задачу увеличения скорости ее передвижения.
rinaty
Просто теперь яндекс не советуют больше наилучший маршрут, а теперь решает какую-то свою задачу (надеюсь что максимизацию общего потока, но кто ж его знает). И если ты знаешь более быстрый маршрут то можешь принудительно построить маршрут через него и яндекс даже подтвердит, что он быстрее. И более того далее конкретно тебе будет в ближайшее время предлагать именно такой маршрут, но сам заранее не предложит. А вот на заре своего существования предлагал всякие интересные объезды
stetzen
Нуу, если по-хорошему, то навигатор должен решать ещё и такую проблему — если он укажет достатчному количеству автомобилистов быстрый маршрут с низкой пропускной способностью, то этот маршрут очень скоро перестанет быть быстрым просто потому, что туда все поедут. Является причиной наблюдаемых неоптимальностей именно это или что-то другое — вопрос открытый, но вот такой фактор тоже имеет место быть.
anonymous
Насколько я понял, в эксперименте искусственный интеллект не использовался, поэтому результаты отражают несовершенство людей. С таким же успехом вместо ИИ можно было сказать, что советы дает Оракул или Верховное Божество, результат был бы тот же.
MichaelBorisov
А ведь вы правы!
Исследование не дало никаких результатов по ИИ, а лишь установило две вещи: 1) ИИ имеет среди людей авторитет; 2) люди подвержены влиянию авторитетов.
serpg
Согласен. Причинно следственная связь как то не прослеживается.
ilyasok
В конце 80-х пользовалось авторитетом понятие «японский компьютер», на уровне верховного божества. Сейчас «врач» так же силен как когда-то «его святейшество». «Ученые говорят» — тоже устойчивое словосочетание. Жрецы науки… партийный аппарат на самом деле.