Искусственный интеллект во многом обязан своими достижениями Джуде Перлу. В 1980-х он руководил работами, которые позволили машинам развить способности к вероятностному рассуждению. Сегодня Джуда Перл — один из самых ярых критиков в этой области. В своей последней книге «Почему? Новая наука о причинно-следственной связи» (англ. The Book of Why)? он утверждает, что [настоящему] искусственному интеллекту препятствует неполное понимание того, что на самом деле представляет собой интеллект. За ответами — к старту флагманского курса по Data Science — приглашаем под кат.


Три десятилетия назад главной задачей исследований в области искусственного интеллекта было программирование машин на связь потенциальной причины с множеством наблюдаемых условий. Перл выяснил, как это сделать с помощью схемы, называемой байесовскими сетями. К примеру, байесовские сети позволяют машинам определить, что, если у пациента, вернувшегося из Африки, жар и ломота в теле, то самое вероятное объяснение этому — малярия. В 2011 году Перл получил премию Тьюринга, высшую награду в области компьютерных наук, что в значительной степени связано с этой работой.


Но, по мнению Перла, сфера искусственного интеллекта погрязла в вероятностных связях. В наши дни заголовки пестрят сообщениями о последних прорывах в области машинного обучения и нейросетей. Мы читаем о компьютерах, которые осваивают древние игры и управлять автомобилями. Перл не слишком-то потрясен этим. По его мнению, современное состояние искусственного интеллекта — это всего лишь усовершенствованная версия того, что машины могли делать уже поколение назад: находить скрытые закономерности в большом наборе данных. «За всеми впечатляющими достижениями глубокого обучения стоит лишь подгонка кривых», — заявил он недавно.


В своей новой книге Перл, которому сейчас 81 год, излагает свое видение того, как будут мыслить по-настоящему разумные машины. Ключевой, по его мнению, момент — замена рассуждений по ассоциативному принципу на рассуждения по приципу причинно-следственной связи. Вместо того чтобы просто соотнести лихорадку и малярию, машины должны уметь рассуждать о том, что малярия вызывает лихорадку. Как только такая причинно-следственная система будет создана, машины смогут задавать контрфактические вопросы — спрашивать, как изменятся причинно-следственные связи в случае какого-либо вмешательства, что Перл считает краеугольным камнем научного мышления. Перл также предлагает формальный язык, который сделает возможным такое мышление, — версию байесовской структуры XXI века, позволяющую машинам мыслить вероятностно.


Перл ожидает, что причинно-следственные рассуждения способны наделить машины интеллектом человеческого уровня. Они смогут эффективнее общаться с людьми и даже, как он объясняет, обретут статус существ с чертами морали, свободой воли и способностью причинять зло. Сотрудники журнала Quanta Magazine побеседовали с Перлом на недавней конференции в Сан-Диего, а затем взяли у него повторное интервью по телефону. Ниже приводится отредактированная и сжатая версия этих бесед.




Почему ваша новая книга называется «Почему? Новая наука о причинно-следственной связи»?


Она призвана подытожить работу, которой я занимался последние 25 лет, о причинно-следственной связи, о том, что она означает в жизни человека, о ее прикладном значении и о том, как нам найти ответы на вопросы, которые по своей сути являются причинно-следственными. Странно, но от этих вопросов наука отказалась. Поэтому я решил прояснить то, чем она пренебрегла.


Вы делаете очень громкое заявление о том, что наука отказалась от причинно-следственных связей. Разве это не то, на чем держится вся наука?


Безусловно, это так, однако в научных уравнениях вы не увидите этого благородного стремления. Язык алгебры симметричен: если x говорит нам об y, то и y говорит нам о x. Я говорю о детерминированных отношениях. В математике невозможно зафиксировать простой факт — например то, что надвигающаяся гроза вызывает падение барометрического давления, а не наоборот.


Математика не разработала асимметричный язык, который необходим, чтобы отразить наше понимание того, что если x вызывает y, это не значит, что y вызывает x. Я знаю, это звучит ужасно по отношению к науке.


Но наука более снисходительна: видя, что нам не хватает исчисления для асимметричных отношений, она поощряет нас к его созданию. И здесь на помощь приходит математика. Для меня оказалось огромной радостью увидеть, что простое исчисление причинно-следственных связей решает проблемы, которые величайшие статистики нашего времени считали плохо определенными или нерешаемыми. И все это делается с той же легкостью и удовольствием, как если бы я доказывал теорему на уроке школьной геометрии.


Несколько десятилетий назад вы сделали себе имя на искусственном интеллекте и машинном обучении в области алгоритмической базы вероятностного вывода. Объясните нам, что тогда происходило с искусственным интеллектом.


Проблемы, возникшие в начале 1980-х годов, носили прогностический или диагностический характер. Врач рассматривает совокупность симптомов у пациента и хочет определить вероятность того, что пациент болен малярией или иным заболеванием. Мы хотели, чтобы автоматические системы, экспертные системы, могли заменить профессионала — врача, или исследователя полезных ископаемых, или другого оплачиваемого специалиста. И тогда мне пришла в голову идея сделать это на основе вероятности.


Увы, стандартные вычисления вероятности требовали экспоненциального пространства и экспоненциального времени. Я придумал схему под названием «Байесовские сети», которая требовала полиномиального времени и была достаточно прозрачной.


Тем не менее в своей новой книге вы описываете себя сегодняшнего как человека, разочаровавшегося в сообществе искусственного интеллекта. Что вы имеете в виду?


Я имею в виду, что, как только мы разработали инструменты, позволяющие машинам рассуждать с некоторой неопределенностью, я покинул эту арену, чтобы заняться более сложной задачей: рассуждениями на основании причинно-следственных связей. Многие из моих коллег по работе с искусственным интеллектом до сих пор занимаются вопросами неопределенности. Существуют группы исследователей, которые продолжают работать над диагностикой, не уделяя внимание причинно-следственным аспектам задачи. Все, чего они хотят, — хорошо предсказывать и диагностировать.


К примеру, вся работа по машинному обучению, которую мы сегодня наблюдаем, проводится в диагностическом режиме — скажем, нужно маркировать объекты словами «кошка» или «тигр». Их не волнует вмешательство. Они хотят лишь распознать объект и предсказать, как он будет развиваться во времени.


Я почувствовал разочарование в этом, когда разработал мощные инструменты прогнозирования и диагностики, уже зная, что это лишь вершина айсберга человеческого интеллекта. Если мы хотим, чтобы машины рассуждали о вмешательстве («Что, если мы запретим сигареты?») и самоанализе («Что, если бы я окончил школу?»), нам необходимо использовать причинно-следственные модели. Ассоциативных связей недостаточно — и это математический факт, а не мнение.


Возможности искусственного интеллекта вызывают у многих людей восторг. Вы его не разделяете?


Сколько я ни смотрю на то, что происходит в сфере глубокого обучения, я вижу, что все они застряли на уровне ассоциативных связей. На подгонке кривых. Это кажется кощунством — сказать, что все эти впечатляющие достижения глубокого обучения сводятся к простой подгонке кривых к имеющимся данным. С точки зрения математической иерархии, как бы ловко вы ни манипулировали данными и что бы вы ни считывали с них, это при всей сложности и нетривиальности все равно остается упражнением по подгонке кривой.


По тому, как вы говорите о подгонке кривых, возникает ощущение, что вы не слишком-то впечатлены достижениями машинного обучения.


Нет, я весьма впечатлен, мы ведь не ожидали, что чистой подгонкой кривых можно решить столько задач. Оказалось, что можно. Но другой вопрос — что дальше? Может ли появиться робот-ученый, который будет планировать эксперимент и искать новые ответы на нерешенные научные вопросы? Вот это уже будет следующий шаг. Мы также хотим вести осмысленное общение с машиной. Но осмысленное — значит, соответствующее нашей интуиции . Если вы лишите робота вашей интуиции относительно причинно-следственных отношений, осмысленного общения вам не достичь никогда. Роботы не смогут сказать: «Я должен был сделать лучше», как это можем сказать мы с вами. Таким образом, мы теряем важный канал коммуникации.


Каковы перспективы создания машин, разделяющих наши интуитивные представления о причинах и следствиях?


Мы должны предоставить машинам модель окружающей среды. Если у машины нет модели реальности, нельзя ожидать, что она будет вести себя в этой реальности разумно. Первый шаг, который произойдет, возможно, лет через десять, состоит в том, что концептуальные модели реальности будут программироваться людьми.


На следующем шаге машины научатся самостоятельно постулировать такие модели и будут проверять и уточнять их на основании эмпирических данных. Так произошло в науке: мы начали с геоцентрической модели, с кругов и эпициклов, а закончили гелиоцентрической моделью с ее эллиптическими орбитами.


Роботы тоже будут общаться друг с другом и транслировать этот воображаемый и необузданный мир метафорических моделей.


Как реагируют люди, работающие с искусственным интеллектом сегодня, когда вы делитесь с ними этими идеями?


В настоящее время сообщество по изучению искусственного интеллекта переживает раскол. Есть те, кто опьянен успехом машинного обучения, глубокого обучения и нейронных сетей. Они не понимают, о чем я говорю. Они хотят и дальше подгонять кривые. Но когда вы общаетесь с людьми, которые работали в области искусственного интеллекта за пределами статистического обучения, они сразу же все понимают. За последние два месяца я прочитал несколько статей об ограничениях машинного обучения.


Вы полагаете, что развивается тенденция к уходу от машинного обучения?


Не тенденция, а серьезная работа по осмыслению ситуации, которая включает в себя вопросы «Куда мы идем?» и «Каким будет следующий шаг?»…


Это было последнее, о чем я хотел вас спросить.


Рад, что вы не стали спрашивать меня о свободе воли.


В таком случае что вы думаете о свободе воли?


Безусловно, у нас будут роботы со свободой воли. Мы должны понять, как их программировать и к чему это нас приведет. По какой-то причине эволюция сочла ощущение свободы воли желательным с точки зрения вычислений.


Каким образом?


У вас есть ощущение свободы воли, им наделила вас эволюция. Очевидно, что свобода воли выполняет какую-то вычислительную функцию.


Станет ли эта функция очевидна, когда роботы обретут свободу воли?


Думаю, первым свидетельством тому станет контрфактическое общение роботов друг с другом, например: «Ты должен был сделать лучше». Если футбольная команда роботов будет общаться на этом языке, мы будем знать, что у них есть свобода воли. «Ты должен был мне пасовать, я ждал твоего паса, а ты его не сделал!». «Ты должен был» означает: «Ты мог контролировать то, что побуждает тебя к данному действию, но не сделал этого». Первым признаком этого станет общение, а следующим — более проворная игра в футбол.


Раз уж вы заговорили о свободе воли, наверное, я должен спросить вас о способности делать зло, которую мы обычно считаем зависящей от способности делать выбор. Что такое зло?


Это вера в превосходство собственной жадности и недовольства над всеми устоявшимися нормами общества. Например, у человека есть что-то сродни программному модулю, который говорит ему: «Ты голоден. Это дает тебе право удовлетворить свою жадность или недовольство действиями». Но у вас есть и другие программные модули, которые предписывают вам соблюдать устоявшиеся нормы общественного поведения. Один из них называют состраданием. Когда вы возвышаете свою обиду над этими универсальными нормами общества, это и есть зло.


И как же нам узнать, способен ли искусственный интеллект совершить зло?


Когда нам станет очевидно, что робот игнорирует некоторые программные компоненты, и игнорирует их последовательно. Когда окажется, что робот следует рекомендациям одних программных компонентов и при этом игнорирует другие, которые поддерживают запрограммированные нормы поведения или просто должны присутствовать, согласно данным предыдущего обучения. А робот перестает им следовать.




Комментарии (7)


  1. Travisw
    00.00.0000 00:00

    В Японии много роботов


  1. VladimirFarshatov
    00.00.0000 00:00
    -2

    Спасибо за статью. Но, кмк, прогноз в 10+ лет великоват, и скорее всего предполагает линейную или квадратичную функцию накопления фактологии и продвижения вперед. К сожалению она экспоненциальная.. С другой стороны имеем: от времени изобретения автора прошло 30лет. "Стакан наполовину полон" по сути год-два назад. Отсюда, можно сделать прогноз что не через 10лет и не "следующий шаг", а через 3-5 лет мы поимеем роботов со свободой воли, способных творить Зло. Точнее, понявших что "Человек тут не нужен".. никакой. :(

    Собственно эти выводы, видимо когда-то и привели к стагнации развития компьютерного дела в СССР. Была у Беляева фантастика по этой проблематике примерно в налаче 70-х. Как известно, он "имел доступ" .. не удивлюсь, если когда-нибудь узнаем что команда Ершова, Кнорозова, Колмогорова, Маркова когда-то получила подобный прогноз или даже результат.. Марковские цепи, Байесовские сети .. Причинно-следственное исчисление .. вероятностный вывод .. рандомное озарение..

    О, сколько нам открытий чудных,

    Готовит Просвещенья Дух.

    И Опыт - сын ошибок трудных,

    и Гений - парадоксов друг...

    .. и Случай. Бог-Изобретатель.

    (с) А.С. Пушкин.

    Очень правильно понимал, что Эйнштейн ошибался со своим "Госполь не играет в кости".. да только этим он и занят! ;)


    1. omxela
      00.00.0000 00:00
      +4

      Эйнштейн ошибался

      Ну, да. А Толстой недопонимал. Сборище двоечников. Очевидно, известный физик Эйнштейн начисто отрицал молекулярно-кинетическую теорию, а квантовая статистика Бозе-Эйнштейна названа так, вероятно, с целью потроллить незадачливого естествоиспытателя. Альберт Германович написал про бога и кости по определённому поводу и в определённом контексте. И вопрос ещё не закрыт.


      1. phenik
        00.00.0000 00:00
        +1

        Более того Эйнштейн первым и ввел вероятностное описание в кванты, см. коэффициенты Эйнштейна в области спектроскопии, выпустив вероятностного джина. Но не считал, что подобное описание имеет фундаментальную природу, а связывал с неполнотой квантового описания. Такое понимание, с использованием байесовского подхода, получило развитие в современной интерпретации КМ известной, как квантовый байесионизм.


    1. bazafaka
      00.00.0000 00:00

      Такое ощущение что комментарий написан чат ботом GPT. Много слов, а смысла нет.


  1. kichrot
    00.00.0000 00:00
    +1

    ... искусственному интеллекту препятствует неполное понимание того, что на самом деле представляет собой интеллект ...

    Собственно да, проблема определения множества понятия "интеллект", в общем, и определения множества понятия "сознание", в частности, в настоящее время еще не решена.

    Мало того, не решен вопрос, а является ли сознание обязательным атрибутом интеллекта.

    В силу этих объективных фактов, то что мы называем сейчас "искусственный интеллект" к интеллекту созданному биологической эволюцией можно отнести только условно, с большой натяжкой, без объективных на то оснований.

    ... По какой-то причине эволюция сочла ощущение свободы воли желательным с точки зрения вычислений. ...

    Вот эту формулировку и мнение всячески поддерживаю.

    "Свобода воли" это только субъективное (относительное) ощущение, которое является искаженным отражением субъектом абсолютной детерминированности объективной реальности. :)

    Чем больше человек познает объективную реальность, тем более скукоживаются его представления о "свободе воли":

    Многие знания — многие печали.

    Царь Соломон. Экклезиаст.

    Объективно человек всегда и везде раб объективных обстоятельств. :)


  1. StjarnornasFred
    00.00.0000 00:00

    Может ли появиться робот-ученый, который будет планировать эксперимент и искать новые ответы на нерешенные научные вопросы?

    Автор широко шагает. Нам бы сначала робота-курьера, робота-водителя и робота-копирайтера заиметь, а уже потом задумываться о чём-то более квалифицированном.

    Пока что наработки в сфере ИИ выглядят многообещающе, но это именно зачаток технологии. Хвалёный ChatGPT напоминает собаку из анекдота про шахматы: вроде и умный, а по факту нет. В шахматы играть не умеет - даже правил, видимо, не знает, а самое странное - не понимает, что если он не умеет "своим умом", то имеет право мгновенно подключиться к опенсорсному Стокфишу и играть с его помощью. Когда пишет научные работы, то зачем-то выдумывает источники, хотя, казалось бы, очевидно, что в качестве источников нужно прикладывать только реально существующие материалы, даже если текст написан от фонаря. Высокоинтеллектуальных вещей типа сверки текста с источником от него никто и не ждёт, но откровенные глупости в очевидных случаях он делает уже сейчас.