Искусственный интеллект во многом обязан своими достижениями Джуде Перлу. В 1980-х он руководил работами, которые позволили машинам развить способности к вероятностному рассуждению. Сегодня Джуда Перл — один из самых ярых критиков в этой области. В своей последней книге «Почему? Новая наука о причинно-следственной связи» (англ. The Book of Why)? он утверждает, что [настоящему] искусственному интеллекту препятствует неполное понимание того, что на самом деле представляет собой интеллект. За ответами — к старту флагманского курса по Data Science — приглашаем под кат.
Три десятилетия назад главной задачей исследований в области искусственного интеллекта было программирование машин на связь потенциальной причины с множеством наблюдаемых условий. Перл выяснил, как это сделать с помощью схемы, называемой байесовскими сетями. К примеру, байесовские сети позволяют машинам определить, что, если у пациента, вернувшегося из Африки, жар и ломота в теле, то самое вероятное объяснение этому — малярия. В 2011 году Перл получил премию Тьюринга, высшую награду в области компьютерных наук, что в значительной степени связано с этой работой.
Но, по мнению Перла, сфера искусственного интеллекта погрязла в вероятностных связях. В наши дни заголовки пестрят сообщениями о последних прорывах в области машинного обучения и нейросетей. Мы читаем о компьютерах, которые осваивают древние игры и управлять автомобилями. Перл не слишком-то потрясен этим. По его мнению, современное состояние искусственного интеллекта — это всего лишь усовершенствованная версия того, что машины могли делать уже поколение назад: находить скрытые закономерности в большом наборе данных. «За всеми впечатляющими достижениями глубокого обучения стоит лишь подгонка кривых», — заявил он недавно.
В своей новой книге Перл, которому сейчас 81 год, излагает свое видение того, как будут мыслить по-настоящему разумные машины. Ключевой, по его мнению, момент — замена рассуждений по ассоциативному принципу на рассуждения по приципу причинно-следственной связи. Вместо того чтобы просто соотнести лихорадку и малярию, машины должны уметь рассуждать о том, что малярия вызывает лихорадку. Как только такая причинно-следственная система будет создана, машины смогут задавать контрфактические вопросы — спрашивать, как изменятся причинно-следственные связи в случае какого-либо вмешательства, что Перл считает краеугольным камнем научного мышления. Перл также предлагает формальный язык, который сделает возможным такое мышление, — версию байесовской структуры XXI века, позволяющую машинам мыслить вероятностно.
Перл ожидает, что причинно-следственные рассуждения способны наделить машины интеллектом человеческого уровня. Они смогут эффективнее общаться с людьми и даже, как он объясняет, обретут статус существ с чертами морали, свободой воли и способностью причинять зло. Сотрудники журнала Quanta Magazine побеседовали с Перлом на недавней конференции в Сан-Диего, а затем взяли у него повторное интервью по телефону. Ниже приводится отредактированная и сжатая версия этих бесед.
Почему ваша новая книга называется «Почему? Новая наука о причинно-следственной связи»?
Она призвана подытожить работу, которой я занимался последние 25 лет, о причинно-следственной связи, о том, что она означает в жизни человека, о ее прикладном значении и о том, как нам найти ответы на вопросы, которые по своей сути являются причинно-следственными. Странно, но от этих вопросов наука отказалась. Поэтому я решил прояснить то, чем она пренебрегла.
Вы делаете очень громкое заявление о том, что наука отказалась от причинно-следственных связей. Разве это не то, на чем держится вся наука?
Безусловно, это так, однако в научных уравнениях вы не увидите этого благородного стремления. Язык алгебры симметричен: если x говорит нам об y, то и y говорит нам о x. Я говорю о детерминированных отношениях. В математике невозможно зафиксировать простой факт — например то, что надвигающаяся гроза вызывает падение барометрического давления, а не наоборот.
Математика не разработала асимметричный язык, который необходим, чтобы отразить наше понимание того, что если x вызывает y, это не значит, что y вызывает x. Я знаю, это звучит ужасно по отношению к науке.
Но наука более снисходительна: видя, что нам не хватает исчисления для асимметричных отношений, она поощряет нас к его созданию. И здесь на помощь приходит математика. Для меня оказалось огромной радостью увидеть, что простое исчисление причинно-следственных связей решает проблемы, которые величайшие статистики нашего времени считали плохо определенными или нерешаемыми. И все это делается с той же легкостью и удовольствием, как если бы я доказывал теорему на уроке школьной геометрии.
Несколько десятилетий назад вы сделали себе имя на искусственном интеллекте и машинном обучении в области алгоритмической базы вероятностного вывода. Объясните нам, что тогда происходило с искусственным интеллектом.
Проблемы, возникшие в начале 1980-х годов, носили прогностический или диагностический характер. Врач рассматривает совокупность симптомов у пациента и хочет определить вероятность того, что пациент болен малярией или иным заболеванием. Мы хотели, чтобы автоматические системы, экспертные системы, могли заменить профессионала — врача, или исследователя полезных ископаемых, или другого оплачиваемого специалиста. И тогда мне пришла в голову идея сделать это на основе вероятности.
Увы, стандартные вычисления вероятности требовали экспоненциального пространства и экспоненциального времени. Я придумал схему под названием «Байесовские сети», которая требовала полиномиального времени и была достаточно прозрачной.
Тем не менее в своей новой книге вы описываете себя сегодняшнего как человека, разочаровавшегося в сообществе искусственного интеллекта. Что вы имеете в виду?
Я имею в виду, что, как только мы разработали инструменты, позволяющие машинам рассуждать с некоторой неопределенностью, я покинул эту арену, чтобы заняться более сложной задачей: рассуждениями на основании причинно-следственных связей. Многие из моих коллег по работе с искусственным интеллектом до сих пор занимаются вопросами неопределенности. Существуют группы исследователей, которые продолжают работать над диагностикой, не уделяя внимание причинно-следственным аспектам задачи. Все, чего они хотят, — хорошо предсказывать и диагностировать.
К примеру, вся работа по машинному обучению, которую мы сегодня наблюдаем, проводится в диагностическом режиме — скажем, нужно маркировать объекты словами «кошка» или «тигр». Их не волнует вмешательство. Они хотят лишь распознать объект и предсказать, как он будет развиваться во времени.
Я почувствовал разочарование в этом, когда разработал мощные инструменты прогнозирования и диагностики, уже зная, что это лишь вершина айсберга человеческого интеллекта. Если мы хотим, чтобы машины рассуждали о вмешательстве («Что, если мы запретим сигареты?») и самоанализе («Что, если бы я окончил школу?»), нам необходимо использовать причинно-следственные модели. Ассоциативных связей недостаточно — и это математический факт, а не мнение.
Возможности искусственного интеллекта вызывают у многих людей восторг. Вы его не разделяете?
Сколько я ни смотрю на то, что происходит в сфере глубокого обучения, я вижу, что все они застряли на уровне ассоциативных связей. На подгонке кривых. Это кажется кощунством — сказать, что все эти впечатляющие достижения глубокого обучения сводятся к простой подгонке кривых к имеющимся данным. С точки зрения математической иерархии, как бы ловко вы ни манипулировали данными и что бы вы ни считывали с них, это при всей сложности и нетривиальности все равно остается упражнением по подгонке кривой.
По тому, как вы говорите о подгонке кривых, возникает ощущение, что вы не слишком-то впечатлены достижениями машинного обучения.
Нет, я весьма впечатлен, мы ведь не ожидали, что чистой подгонкой кривых можно решить столько задач. Оказалось, что можно. Но другой вопрос — что дальше? Может ли появиться робот-ученый, который будет планировать эксперимент и искать новые ответы на нерешенные научные вопросы? Вот это уже будет следующий шаг. Мы также хотим вести осмысленное общение с машиной. Но осмысленное — значит, соответствующее нашей интуиции . Если вы лишите робота вашей интуиции относительно причинно-следственных отношений, осмысленного общения вам не достичь никогда. Роботы не смогут сказать: «Я должен был сделать лучше», как это можем сказать мы с вами. Таким образом, мы теряем важный канал коммуникации.
Каковы перспективы создания машин, разделяющих наши интуитивные представления о причинах и следствиях?
Мы должны предоставить машинам модель окружающей среды. Если у машины нет модели реальности, нельзя ожидать, что она будет вести себя в этой реальности разумно. Первый шаг, который произойдет, возможно, лет через десять, состоит в том, что концептуальные модели реальности будут программироваться людьми.
На следующем шаге машины научатся самостоятельно постулировать такие модели и будут проверять и уточнять их на основании эмпирических данных. Так произошло в науке: мы начали с геоцентрической модели, с кругов и эпициклов, а закончили гелиоцентрической моделью с ее эллиптическими орбитами.
Роботы тоже будут общаться друг с другом и транслировать этот воображаемый и необузданный мир метафорических моделей.
Как реагируют люди, работающие с искусственным интеллектом сегодня, когда вы делитесь с ними этими идеями?
В настоящее время сообщество по изучению искусственного интеллекта переживает раскол. Есть те, кто опьянен успехом машинного обучения, глубокого обучения и нейронных сетей. Они не понимают, о чем я говорю. Они хотят и дальше подгонять кривые. Но когда вы общаетесь с людьми, которые работали в области искусственного интеллекта за пределами статистического обучения, они сразу же все понимают. За последние два месяца я прочитал несколько статей об ограничениях машинного обучения.
Вы полагаете, что развивается тенденция к уходу от машинного обучения?
Не тенденция, а серьезная работа по осмыслению ситуации, которая включает в себя вопросы «Куда мы идем?» и «Каким будет следующий шаг?»…
Это было последнее, о чем я хотел вас спросить.
Рад, что вы не стали спрашивать меня о свободе воли.
В таком случае что вы думаете о свободе воли?
Безусловно, у нас будут роботы со свободой воли. Мы должны понять, как их программировать и к чему это нас приведет. По какой-то причине эволюция сочла ощущение свободы воли желательным с точки зрения вычислений.
Каким образом?
У вас есть ощущение свободы воли, им наделила вас эволюция. Очевидно, что свобода воли выполняет какую-то вычислительную функцию.
Станет ли эта функция очевидна, когда роботы обретут свободу воли?
Думаю, первым свидетельством тому станет контрфактическое общение роботов друг с другом, например: «Ты должен был сделать лучше». Если футбольная команда роботов будет общаться на этом языке, мы будем знать, что у них есть свобода воли. «Ты должен был мне пасовать, я ждал твоего паса, а ты его не сделал!». «Ты должен был» означает: «Ты мог контролировать то, что побуждает тебя к данному действию, но не сделал этого». Первым признаком этого станет общение, а следующим — более проворная игра в футбол.
Раз уж вы заговорили о свободе воли, наверное, я должен спросить вас о способности делать зло, которую мы обычно считаем зависящей от способности делать выбор. Что такое зло?
Это вера в превосходство собственной жадности и недовольства над всеми устоявшимися нормами общества. Например, у человека есть что-то сродни программному модулю, который говорит ему: «Ты голоден. Это дает тебе право удовлетворить свою жадность или недовольство действиями». Но у вас есть и другие программные модули, которые предписывают вам соблюдать устоявшиеся нормы общественного поведения. Один из них называют состраданием. Когда вы возвышаете свою обиду над этими универсальными нормами общества, это и есть зло.
И как же нам узнать, способен ли искусственный интеллект совершить зло?
Когда нам станет очевидно, что робот игнорирует некоторые программные компоненты, и игнорирует их последовательно. Когда окажется, что робот следует рекомендациям одних программных компонентов и при этом игнорирует другие, которые поддерживают запрограммированные нормы поведения или просто должны присутствовать, согласно данным предыдущего обучения. А робот перестает им следовать.
Data Science и Machine Learning
- Профессия Data Scientist
- Профессия Data Analyst
- [Курс «Математика для Data Science»](https://skillfactory.ru/matematika-dlya-data-science#syllabus? utm_source=habr&utm_medium=habr&utm_campaign=article&utm_content=data-science_mat_150323&utm_term=cat)
- Курс «Математика и Machine Learning для Data Science»
- Курс по Data Engineering
- Курс «Machine Learning и Deep Learning»
- Курс по Machine Learning
Python, веб-разработка
- Профессия Fullstack-разработчик на Python
- Курс «Python для веб-разработки»
- Профессия Frontend-разработчик
- Профессия Веб-разработчик
Мобильная разработка
Java и C#
- Профессия Java-разработчик
- Профессия QA-инженер на JAVA
- Профессия C#-разработчик
- Профессия Разработчик игр на Unity
От основ — в глубину
А также
Комментарии (7)
VladimirFarshatov
00.00.0000 00:00-2Спасибо за статью. Но, кмк, прогноз в 10+ лет великоват, и скорее всего предполагает линейную или квадратичную функцию накопления фактологии и продвижения вперед. К сожалению она экспоненциальная.. С другой стороны имеем: от времени изобретения автора прошло 30лет. "Стакан наполовину полон" по сути год-два назад. Отсюда, можно сделать прогноз что не через 10лет и не "следующий шаг", а через 3-5 лет мы поимеем роботов со свободой воли, способных творить Зло. Точнее, понявших что "Человек тут не нужен".. никакой. :(
Собственно эти выводы, видимо когда-то и привели к стагнации развития компьютерного дела в СССР. Была у Беляева фантастика по этой проблематике примерно в налаче 70-х. Как известно, он "имел доступ" .. не удивлюсь, если когда-нибудь узнаем что команда Ершова, Кнорозова, Колмогорова, Маркова когда-то получила подобный прогноз или даже результат.. Марковские цепи, Байесовские сети .. Причинно-следственное исчисление .. вероятностный вывод .. рандомное озарение..
О, сколько нам открытий чудных,
Готовит Просвещенья Дух.
И Опыт - сын ошибок трудных,
и Гений - парадоксов друг...
.. и Случай. Бог-Изобретатель.
(с) А.С. Пушкин.
Очень правильно понимал, что Эйнштейн ошибался со своим "Госполь не играет в кости".. да только этим он и занят! ;)
omxela
00.00.0000 00:00+4Эйнштейн ошибался
Ну, да. А Толстой недопонимал. Сборище двоечников. Очевидно, известный физик Эйнштейн начисто отрицал молекулярно-кинетическую теорию, а квантовая статистика Бозе-Эйнштейна названа так, вероятно, с целью потроллить незадачливого естествоиспытателя. Альберт Германович написал про бога и кости по определённому поводу и в определённом контексте. И вопрос ещё не закрыт.
phenik
00.00.0000 00:00+1Более того Эйнштейн первым и ввел вероятностное описание в кванты, см. коэффициенты Эйнштейна в области спектроскопии, выпустив вероятностного джина. Но не считал, что подобное описание имеет фундаментальную природу, а связывал с неполнотой квантового описания. Такое понимание, с использованием байесовского подхода, получило развитие в современной интерпретации КМ известной, как квантовый байесионизм.
bazafaka
00.00.0000 00:00Такое ощущение что комментарий написан чат ботом GPT. Много слов, а смысла нет.
kichrot
00.00.0000 00:00+1... искусственному интеллекту препятствует неполное понимание того, что на самом деле представляет собой интеллект ...
Собственно да, проблема определения множества понятия "интеллект", в общем, и определения множества понятия "сознание", в частности, в настоящее время еще не решена.
Мало того, не решен вопрос, а является ли сознание обязательным атрибутом интеллекта.
В силу этих объективных фактов, то что мы называем сейчас "искусственный интеллект" к интеллекту созданному биологической эволюцией можно отнести только условно, с большой натяжкой, без объективных на то оснований.
... По какой-то причине эволюция сочла ощущение свободы воли желательным с точки зрения вычислений. ...
Вот эту формулировку и мнение всячески поддерживаю.
"Свобода воли" это только субъективное (относительное) ощущение, которое является искаженным отражением субъектом абсолютной детерминированности объективной реальности. :)
Чем больше человек познает объективную реальность, тем более скукоживаются его представления о "свободе воли":
Многие знания — многие печали.
Царь Соломон. Экклезиаст.
Объективно человек всегда и везде раб объективных обстоятельств. :)
StjarnornasFred
00.00.0000 00:00Может ли появиться робот-ученый, который будет планировать эксперимент и искать новые ответы на нерешенные научные вопросы?
Автор широко шагает. Нам бы сначала робота-курьера, робота-водителя и робота-копирайтера заиметь, а уже потом задумываться о чём-то более квалифицированном.
Пока что наработки в сфере ИИ выглядят многообещающе, но это именно зачаток технологии. Хвалёный ChatGPT напоминает собаку из анекдота про шахматы: вроде и умный, а по факту нет. В шахматы играть не умеет - даже правил, видимо, не знает, а самое странное - не понимает, что если он не умеет "своим умом", то имеет право мгновенно подключиться к опенсорсному Стокфишу и играть с его помощью. Когда пишет научные работы, то зачем-то выдумывает источники, хотя, казалось бы, очевидно, что в качестве источников нужно прикладывать только реально существующие материалы, даже если текст написан от фонаря. Высокоинтеллектуальных вещей типа сверки текста с источником от него никто и не ждёт, но откровенные глупости в очевидных случаях он делает уже сейчас.
Travisw
В Японии много роботов