I


В недавней моей статье по поводу рисков, связанных с ИИ, один из комментаторов попросил меня вкратце сформулировать аргументы, доказывающие серьёзность ситуации. Я написал нечто вроде такого:

1. Если человечество не самоуничтожится, то в конце концов мы создадим ИИ человеческого уровня.
2. Если человечество сможет создать ИИ человеческого уровня, то прогресс продолжится, и в итоге мы придём к ИИ уровня гораздо выше человеческого.
3. Если появится такой ИИ, он в итоге станет настолько сильнее человечества, что наше существование будет зависеть от того, совпадают ли его цели с нашими.
4. Уже сейчас возможно провести полезные исследования, которые увеличат наши шансы на успешное решение задачи совпадения наших целей.
5. Поскольку мы уже можем начинать эти исследования, мы, вероятно, и должны так поступить, поскольку будет достаточно недальновидно оставлять эту проблему до тех пор, пока она не станет слишком явной и срочной.

В трёх первых пунктах я уверен более чем на 95% — это просто рассуждения на тему того, что если тенденции сегодняшнего движения к определённой цели сохранятся, то в результате мы к ней придём. В последних двух утверждениях я уверен меньше, примерно на 50%.

Комментаторы в целом соглашались с этими утверждениями. Никто всерьёз не пытался спорить с п.п. 1-3, но многие утверждали, что нет никакого смысла волноваться по поводу ИИ сейчас. В результате у нас получилась расширенная аналогия с незаконным взломом компьютеров. Это большая проблема, которую мы никогда не могли решить полностью – но если бы Алан Тьюринг захотел решать бы эту проблему в 1945 году, то его идеи могли бы быть похожими на «храните перфокарты в закрытой коробке, чтобы их не прочли немецкие шпионы». Не закончится ли попытка решать проблемы, связанные с ИИ, в 2015 году, примерно такой же ерундой?

Возможно. Но по нескольким причинам я позволю себе не согласиться с этим. Некоторые из них – достаточно общие, так сказать, мета-уровня, некоторые – более конкретные и объективные. Самая важная из причин мета-уровня следующая: если принять пункты 1-3, то есть, возможность вымирания человечества в случае, если мы не сможем решить проблему совпадения наших целей с целями ИИ, то вы правда считаете, что наши шансы на подвижки в решении этой проблемы малы? Настолько малы, что мы можем сказать: «Да, конечно, мы движемся к самоуничтожению, но разве исследование вопроса о том, можем ли мы что-нибудь с этим сделать, будет эффективной тратой ресурсов»? А каковы те другие, удивительные варианты использования ресурсов, которые вам больше по душе? Можно, конечно, приводить аргументы в стиле "пари Паскаля", но учтите, что какой-нибудь профессиональный боксёр получает за бой в разы больше, чем мы потратили на изучение связанных с ИИ рисков за всю историю человечества!

Если бы ограничение ИИ привлекало хотя бы десятую часть того внимания или сотую часть тех денег, что привлекли боксёрские матчи с участием ИИ, мир был бы гораздо спокойнее [игра слов: AI boxing – заключение ИИ в ограничивающую его возможности среду; но так можно назвать и вымышленные боксёрские матчи с участием ИИ-роботов – прим. перев.].

Но я бы хотел сделать ещё более сильное заявление: риски, связанные с ИИ не просто важнее, чем боксёрские матчи; это так же важно, как и все другие вещи, считающиеся важными, например, поиск лекарств от болезней, обнаружение опасных астероидов и сохранение окружающей среды. И поэтому необходимо доказать, что прогресса в этом вопросе можно достигнуть даже на таком раннем этапе развития этой области.

И я считаю, что прогресс возможен, поскольку эта проблема лежит в области философии, а не технологий. Сейчас наша цель – не «написать код, контролирующий будущее ИИ», а «понять, с какой категорией задач нам придётся столкнуться». Позвольте мне привести несколько примеров открытых проблем, чтобы плавно перейти к дискуссии об их текущей актуальности.

II


Проблема 1: электроды и мозг


В мозг некоторых людей имплантированы электроды – это сделано как для терапевтических, так и для исследовательских целей. Если электрод попадает в определённые участки мозга, к примеру, в боковую часть гипоталамуса, у человека появляется непреодолимое стремление к максимально возможной их стимуляции. Если дать ему кнопку для стимуляции, он будет нажимать её по тысяче раз в час. Если попытаться забрать у него эту кнопку, он будет отчаянно и свирепо защищать её. Их жизнь и цели сжимаются до точки, нормальные цели типа любви, денег, славы, дружбы – забываются, и всё из-за стремления к максимальной стимуляции электрода.

Это хорошо совпадает с тем, что нам известно о нейробиологии. Награды в мозге (ВНИМАНИЕ: ЧРЕЗМЕРНОЕ УПРОЩЕНИЕ) выдаются через электрическое напряжение, возникающее в парочке центров вознаграждения, и поэтому мозг стремится ко всему, что максимизирует получение наград. Обычно это работает неплохо: после удовлетворения биологической потребности, типа еды или секса, центр наград отвечает на это, закрепляя рефлексы, и поэтому вы продолжаете удовлетворять ваши биологические потребности. Но прямая стимуляция центров вознаграждения при помощи электродов работает гораздо сильнее, чем простое ожидание небольших наград, полученных естественным путём, поэтому такая деятельность становится по умолчанию максимально вознаграждающей. Человек, получивший возможность прямой стимуляции центра вознаграждений, забудет обо всех этих непрямых путях получения наград вроде «счастливой жизни», и просто будет нажимать кнопку, соединённую с электродом, как можно больше.

И для этого даже не нужна нейрохирургия – такие наркотики, как кокаин и метамфетамин, вызывают привыкание в частности потому, что вмешиваются в работу биохимии мозга и увеличивают уровень стимуляции центров вознаграждения.

Компьютеры могут столкнуться со схожей проблемой. Не могу найти ссылку, но помню историю про эволюционный алгоритм, разработанный для создания кода в каком-то приложении. Он генерировал код наполовину случайно, затем прогонял его через «функцию совместимости», определявшую, насколько он полезен, и лучшие участки кода скрещивались друг с другом, немного мутируя, до тех пор, пока не получался адекватный результат.

В результате, конечно же, получился код, взломавший функцию совместимости, в результате чего она выдала какое-то абсурдно высокое значение.

Это не единичные случаи. Любое мышление, работающее с обучением с подкреплением и функцией вознаграждения – а это, по-видимому, универсальная схема, как в биологическом мире, так и в растущем количестве примеров ИИ – будет обладать схожим недостатком. Основная защита против этой проблемы, на данный момент – отсутствие возможностей. Большинство компьютерных программ недостаточно умны, чтобы «взломать функцию получения награды». А у людей системы вознаграждения запрятаны глубоко в голове, где мы не можем добраться до них. У гипотетического сверхразума такой проблемы не будет: он будет точно знать, где находится центр его вознаграждений, и он будет достаточно умным, чтобы добраться до него и перепрограммировать.

В итоге, если только мы не предпримем осознанных действий для предотвращения, получится, что ИИ, разработанный для лечения рака, взломает свой собственный модуль, определяющий, сколько рака он вылечил, и задаст ему максимальное значение из возможных. А затем отправится на поиски способов увеличения памяти, чтобы в ней можно было хранить ещё большее значение. Если он будет сверхразумным, то в варианты расширения памяти можно будет включить «получение контроля над всеми компьютерами в мире» и «превращение всего того, что не является компьютером, в компьютер».

Это не какая-то экзотическая ловушка, в которую могут попасть несколько странных алгоритмов; это может быть естественным путём развития для достаточно умной системы обучения с подкреплением.

Проблема 2: странная теория принятия решений


Пари Паскаля – известный аргумент на тему того, почему логично присоединяться к религии. Даже если вы считаете, что вероятность существования бога исчезающе мала, последствия вашей ошибки (попадание в ад) велики, а преимущества в случае, если вы окажетесь правы (можно не ходить в церковь по воскресеньям), относительно малы – поэтому кажется выгодным просто верить в бога, на всякий случай. Хотя к такому рассуждению было придумано достаточно много возражений на основе канонов конкретных религий (хочет ли бог, чтобы в него верили на основе такого анализа?), эту проблему можно обобщить до случая, когда человеку выгодно стать приверженцем чего угодно, просто потому, что вы пообещали ему за это огромную награду. Если награда достаточно велика, она пересиливает все сомнения человека по поводу ваших способностей обеспечить эту награду.

Эта проблема в теории решений не связана с вопросами интеллекта. Очень умная личность, вероятно, сможет подсчитать вероятность существования бога, и численно прикинуть недостатки ада – но без хорошей теории принятия решений никакой интеллект не спасёт вас от пари Паскаля. Именно интеллект позволяет вам провести формальные математические вычисления, убеждающие вас в необходимости принятия пари.

Люди легко сопротивляются таким проблемам – большинство людей пари Паскаля не убедит, даже если они не найдут в нём недостатков. Однако непонятно, благодаря чему мы обладаем такой сопротивляемостью. Компьютеры, печально известные тем, что полагаются на формальную математику, но не обладают здравым смыслом, не приобретут такой сопротивляемости, если в них её не вложат. А вложить их в неё – задача трудная. Большинство лазеек, отвергающих пари Паскаля без глубокого понимания того, к чему приводит использование формальной математики, просто порождают новые парадоксы. Решение на основе хорошего понимания того, в какой момент формальная математика перестаёт работать, сохраняющее при этом полезность математики в решении повседневных задач, насколько я знаю, ещё не выработано. Что хуже, решив пари Паскаля, мы столкнёмся с парой десятков похожих парадоксов теории решений, которые могут потребовать совершенно других решений.

Это не просто хитрый философский трюк. Достаточно хороший «хакер» может свергнуть всегалактический ИИ, просто угрожая (бездоказательно) невероятным уроном в случае, если ИИ не выполнит его требования. Если ИИ не будет защищён от подобных «пари Паскаля» парадоксов, он решит выполнить требования хакера.

Проблема 3: эффект злого гения


Все знают, что проблема с компьютерами в том, что они делают то, что вы им говорите, а не то, что вы имеете в виду. Сегодня это значит всего лишь, что программа будет работать по-другому, когда вы забудете закрыть скобку, или веб-сайты будут выглядеть странно, если вы перепутаете HTML-теги. Но это может привести к тому, что ИИ сможет неправильно понять приказы, данные на естественном языке.

Это хорошо показано в истории "Эра Альтрона". Тони Старк приказывает суперкомпьютеру Альтрон наладить мир во всём мире. Альтрон подсчитывает, что самый быстрый и надёжный способ сделать это – уничтожить всю жизнь. Альтрон, по-моему, прав на 100%, и в реальности всё так бы и произошло. Мы могли бы получить тот же эффект, задав ИИ задачи типа «вылечить рак» или «покончить с голодом», или любую из тысяч подобных.


Пользователь выражает уверенность в том, что метеор, столкнувшийся с Землёй, приведёт к окончанию феминистических дебатов

Даже «Трём законам робототехники» Айзека Азимова достаточно будет 30 секунд, чтобы превратиться в нечто омерзительное. Первый закон говорит, что робот не может причинить вреда человеку, или своим бездействием приводить к получению человеком вреда. «Не свергать правительство» – пример того, как через бездействие люди могут получить вред. Или «не запирать каждого человека в стазисном поле навечно».

Невозможно сформулировать достаточно подробный приказ, объясняющий, что именно имеется в виду под «не позволять своим бездействием получение вреда человеком», если только робот сам не способен делать то, что мы имеем в виду, а не то, что мы говорим. Это, конечно, не неразрешимая проблема, поскольку достаточно умный ИИ может и понять, что мы имеем в виду, но наше желание наличия у них такого понимания необходимо запрограммировать в ИИ напрямую, с нуля.

Но это приведёт ко второй проблеме: мы не всегда знаем, что подразумеваем. Вопрос «как сбалансировать этические запреты, направленные на безопасность людей, с запретами, направленными на сохранение свобод?» сейчас горячо обсуждается в политических кругах, и появляется везде, от контроля над оборотом оружия до запрета сладких напитков большого объёма. Судя по всему, здесь имеет значение баланс того, что нам важно, и комбинация экономии и священных принципов. Любой ИИ, не способный разбираться в этом моральном лабиринте, может закончить голод на планете, убив всех голодающих, или отвергать изобретение новых пестицидов из опасения убить насекомое.

Но чем больше изучаешь этику, тем больше понимаешь, что она слишком сложна и сопротивляется упрощению до некоей формальной системы, которую смог бы понять компьютер. Утилитаризм почти поддаётся алгоритмизации, но он не лишён парадоксов, и даже без них вам бы потребовалось назначить полезность всему в мире.

Эту проблему ещё предстоит решить в случае людей – ценности большинства из них кажутся нам отвратительными, а их компромиссы – проигрышными. Если мы создадим ИИ, чей разум будет отличаться от моего не больше, чем разум Пэта Робертсона, я посчитаю такое развитие событий провалом.

III


Я поднимал эти проблемы не для того, чтобы поразить кого-либо философскими вопросами. Я хотел доказать несколько утверждений:

Во-первых, существуют основные проблемы, влияющие на широкий круг образом мышления, например, на «все, кто обучается с подкреплением» или «все, кто принимает решения на основе формальной математики». Люди часто говорят, что на данном этапе нельзя знать ничего по поводу дизайна будущих ИИ. Но я бы сильно удивился, если бы они не использовали ни обучение с подкреплением, ни принятие решений на основе формальной математики.

Во-вторых, для большинства людей эти проблемы не очевидны. Это странные философские парадоксы, а не то, что понятно каждому с базовыми знаниями.

В-третьих, об этих проблемах уже размышляли. Кто-то, философ, математик, нейробиолог, думал: «Послушайте-ка, ведь обучение с подкреплением естественным образом подвержено проблеме имплантации электродов, что объясняет, почему одно и то же поведение прослеживается в разных областях».

В-четвёртых, эти проблемы говорят о необходимости проводить исследования уже сейчас, пусть и предварительные. Почему люди так хорошо сопротивляются пари Паскаля? Можно ли свести наше поведение в ситуациях с высокой полезностью и низкой вероятностью свести к функции, пользуясь которой, компьютер принял бы то же решение? Каковы лучшие решения для связанных с этой темой проблем теории решений? Почему человек способен понять концепцию имплантации электродов, и не стремится заполучить такой электрод лично для своего мозга? Можно ли разработать разум, который, воспользовавшись таким электродом, поймёт все ощущения, но не будет ощущать желания продолжать? Как формализовать этику и приоритеты людей достаточно для того, чтобы впихнуть их в компьютер?

Мне кажется, что слыша о том, что «мы прямо сейчас должны начать работать над проблемой совпадения целей с ИИ», думают себе, что кто-то пытается написать программу, которую можно будет прямиком импортировать в издание ИИ 2075 года, чтобы задать ему искусственную совесть. А потом они думают: «Да ни за что нельзя сделать такую сложную вещь так рано».

Но никто этого не предлагает. Мы предлагаем хорошенько ознакомиться с общими философскими проблемами, влияющими на широкий спектр образов мышления, и проводить нейробиологические, математические и философские исследования, необходимые для того, чтобы понять их к тому времени, когда появятся инженерные задачи.

По аналогии, нам ещё очень далеко до создания космических кораблей, перемещающихся даже с половиной скорости света. Но мы уже знаем, с какими проблемами может столкнуться корабль, перемещающийся быстрее света (теория относительности и ограничение скорости света) и уже породили несколько идей, чтобы обойти их (пузырь Алькубьерре). Мы пока не в состоянии построить такой двигатель. Но если к 2100 году мы обнаружим, как строить корабли, приближающиеся к скорости света, и по какой-то причине судьба планеты будет зависеть от наличия у нас кораблей, перемещающихся быстрее света, к 2120 году, будет замечательно сознавать, что мы проделали всю работу с теорией относительности заранее, и не теряем драгоценное время на обсуждение основ физики.

Вопрос «Можем ли мы сейчас провести исследование безопасности ИИ» глуп, поскольку мы уже провели определённое количество исследований в этой области. Они привели к пониманию таких проблем, как три упомянутые выше, и других. Есть даже несколько ответов на вопросы, хотя они и даны на технических уровнях, гораздо ниже, чем любые из этих вопросов. Каждый пройденный сегодня шаг позволяет нам не тратить на него время в будущем в обстановке спешки.

IV


Остаётся моё заявление за номером пять – если мы можем проводить исследования по поводу ИИ уже сегодня, мы должны их проводить, потому что нельзя рассчитывать на то, что наши потомки проведут эти исследования в условиях спешки без нашей помощи, даже используя свою, улучшенную модель того, что такое ИИ и как он выглядит. И у меня на это три причины.

Причина 1: предательский поворот


Модели ИИ у наших потомков могут быть обманчивыми. То, что работает для интеллекта ниже или на уровне человеческого, может не сработать для сверхчеловеческого. Эмпирическое тестирование не поможет без поддержки теоретической философии.

Бедная эволюция. У неё были сотни миллионов лет для того, чтобы разработать защиту от героина – который на крыс влияет примерно так же, как на людей – но ей было недосуг. Почему? Потому, что до прошлого века не было никого достаточно умного, кто мог бы синтезировать чистый героин. Так что пристрастие к героину не было проблемой, с которой сталкивались бы эволюционирующие организмы. Схема работы мозга, неплохо проявляющая себя у глупых животных, типа крыс или коров, становится опасной, попав к людям, достаточно умным, чтобы синтезировать героин или вставить электроды в центры удовольствия.

То же относится и к ИИ. ИИ уровня собак не научаться взламывать свой механизм вознаграждений. Этого, возможно, не смогут и ИИ уровня человека – я бы не смог взломать механизм наград робота, если бы мне его дали. Сверхинтеллект сможет. Мы можем столкнуться с ИИ, обучающиеся с подкреплением, которые отлично работают на уровне собаки, хорошо на уровне человека, и затем вдруг взрываются, переходя на уровень сверхинтеллекта – а к тому времени их уже поздно останавливать.

Это общее свойство выходящих из строя режимов безопасности ИИ. Если сказать простому человеку, чтобы он занимался миром во всём мире, то лучшее, что я мог бы сделать, это стать генсеком ООН и научиться вести переговоры. Дайте мне несколько тысяч ядерных боеголовок, и всё повернётся по-другому. ИИ уровня человека может преследовать цели мира во всём мире, лечения рака, непозволения людям получать ущерб путём бездействия, такими же путями, как это делают люди, а затем менять эти пути, когда он вдруг превратится в сверхумный и увидит новые возможности. И этот переход произойдёт в той точке, в которой люди уже не смогут его остановить. Если у людей будет возможность просто отключить ИИ, тогда самым эффективным для него способом избавления человечества от рака будет поиск лекарств. Если они не смогут его отключить, то самым эффективным будет уничтожение человечества.

В своей книге Ник Бостром называет такую схему «предательский поворот», и он обрекает на провал любого, кто хочет сначала подождать, пока не появится ИИ, а затем решать их моральные провалы путём проб, ошибок и наблюдений. Лучше будет обзавестись хорошим пониманием происходящего, чтобы затем предсказывать эти повороты заранее, и разрабатывать системы, избегающие их.

Причина 2: тяжёлый старт


Нэйтан Тейлор из Praxtime пишет:
Возможно, большая часть современных дебатов по поводу рисков ИИ просто варианты одного, более фундаментального спора: лёгкий старт или тяжёлый старт.

Лёгкий старт – это прогресс ИИ, идущий от уровня, ниже человеческого, до уровня тупого человека, до ещё более умного человека, и потом до сверхчеловеческого, медленно, в течение многих десятилетий. Тяжёлый старт – это быстрый прогресс ИИ, от нескольких дней до нескольких месяцев.

В теории, если подключить ИИ человеческого уровня к калькулятору, можно поднять его до уровня человека, умеющего очень быстро считать. Если подключить его к Википедии, можно передать ему все знания человечества. Если подключить его к накопителю в несколько гигабайт, можно сделать его обладателем фотографической памяти. Дать дополнительные процессоры, и ускорить его во много раз – так, что проблема, для решения которой у человека уйдёт целый день, займёт этот ИИ на 15 минут.

Мы уже перешли от «интеллекта на уровне человека» к «интеллекту на уровне человека со всеми знаниями, фотографической памятью, быстрыми вычислениями, решающему задачи в сотню раз быстрее людей». И уже получается, что этот «интеллект на уровне человека» уже не находится на уровне человека.

Следующая проблема – рекурсивное самосовершенствование. Возможно, этот ИИ человеческого уровня с фотографической памятью и огромной скоростью изучит программирование. Со своей возможностью поглощения учебников за секунды он станет отличным программистом. Это позволит ему исправлять свои собственные алгоритмы, чтобы повысить свой интеллект, что позволит ему увидеть новые способы сделаться более умным, и т.д. В результате он либо достигнет естественного максимума, или станет сверхумным за одно мгновение.

Во втором случае способ «подождать, пока появится первый интеллект человеческого уровня, и затем тестировать его» не сработает. Первый интеллект человеческого уровня слишком быстро превратится в первый интеллект сверхчеловеческого уровня, и мы не успеем решить даже одну из сотен проблем, связанных с соответствием наших целей.

Я не встречал пока подобных аргументов, но я бы сказал, что даже в случае тяжёлого старта мы можем недооценивать риски.

Представьте, что по какой-либо причине с точки зрения эволюции было бы круто обладать двумя сотнями глаз. 199 глаз ничем не помогают, они не лучше двух, но если вдруг появятся существа с 200 глазами, они навсегда станут доминирующим видом.

Самое сложное в вопросе с 200 глазами – это получить в результате эволюции глаза в принципе. После этого получить 200 глаз очень легко. Но могут пройти целые эпохи до того, как любой организм достигнет состояния с 200 глазами. Несколько десятков глаз тратят энергию впустую, поэтому эволюция может в принципе не добраться до точки, в которой у кого-нибудь появятся 200 глаз.

Допустим, то же самое работает и с интеллектом. Очень тяжело эволюционировать до крохотного крысиного мозга. А с этого момента получение мозга человека, способного доминировать в мире, будет лишь вопросом масштабирования. Но так как мозг тратит много энергии и не был так уж полезен до открытия технологий, его появление заняло очень много времени.

Подтверждений тому предостаточно. Во-первых, люди произошли от шимпанзе всего за несколько миллионов лет. Это слишком мало для того, чтобы переработать разум с нуля или даже изобрести новые эволюционные технологии. Этого достаточно, чтобы изменить масштаб и добавить пару эффективных изменений. Но обезьяны существовали десятки миллионов лет до этого.

Во-вторых, дельфины почти настолько же умные, как и люди. Но наш с ними общий предок жил где-то 50 млн лет назад. Либо люди и дельфины эволюционировали 50 млн лет независимо, или же самый последний из общих предков обладал всем необходимым для интеллекта, и люди с дельфинами – это всего лишь два вида животных в большом фамильном древе, для которых использование интеллекта на полную катушку стало полезным. Но этот предок был, скорее всего, сам не умнее крысы.

В-третьих, люди могут пугающе быстро увеличивать интеллект под давлением эволюции. Если верить Кокрэну, IQ ашкенази рос на 10 пунктов каждую тысячу лет. Люди, страдающие от торсионной дистонии, могут набирать 5-10 пунктов IQ из-за одной мутации. Всё это говорит о том, что интеллект легко менять, но эволюция решила, что он не стоит развития, разве что в отдельных, особых случаях.

Если это так, тогда первый ИИ сравнимый по уровню с крысами уже будет содержать все интересные открытия, необходимые для постройки ИИ уровня человека и первого сверхумного ИИ. Обычно люди говорят, что «Ну да, может, мы скоро и сделаем ИИ уровня крысы, но пройдёт ещё много времени до того, как его уровень сравняется с человеческим». Но это предположение основано на том, что нельзя превратить интеллект крысы в человеческий, просто добавив процессоров или больше виртуальных нейронов или их связей или чего-то ещё. Ведь компьютеру не нужно беспокоиться по поводу ограничений, связанных с метаболизмом.

Причина 3: временные ограничения


Бостром и Мюллер опрашивали исследователей ИИ по поводу того, когда те ожидают появления ИИ уровня человека. Медиана предсказаний легла на 2040 год – это через 23 года.

Люди размышляли над пари Паскаля 345 лет, и не придумали обобщённого решения этого парадокса. Если это будет проблемой для ИИ, у нас осталось 23 года для решения не только этой задачи, но и вообще всего класса проблем, связанных с ИИ. Даже исключая варианты вроде неожиданного тяжёлого старта или предательских поворотов, и принимая гипотезу о том, что мы можем решить все проблемы за 23 года, этот срок не кажется таким уж большим.

Во время дартмутской конференции по ИИ в 1956 году лучшие исследователи составили план по достижению человеческого уровня интеллекта и назначили себе срок в два месяца на обучение компьютеров пониманию человеческого языка. Оглядываясь назад, это кажется немного оптимистичным прогнозом.

Но сейчас компьютеры уже научились более-менее сносно переводить тексты, и неплохо развиваются в области решения сложных задач. Но когда люди думают о таких вещах, как теория принятия решений или имплантация электродов или выравнивание целей, они говорят просто: «Ну, у нас полно времени».

Но ожидать, что эти проблемы удастся решить всего за несколько лет, возможно, будет также оптимистично, как решить задачу машинного перевода за два месяца. Иногда задачи оказываются сложнее, чем вы предполагали, и стоит начинать заниматься ими раньше, просто на всякий случай.

Всё это означает, что теоретические изыскания по поводу рисков ИИ стоит начинать уже сегодня. Я не говорю, что на это нужно бросить все ресурсы цивилизации, и я слышал, что некоторые считают, что после гранта в $10 млн от Маска эта проблема стала уже не такой насущной. Я думаю, что и с публичным осознанием этого факта уже нет проблем. Средний человек, смотрящий кино про роботов-убийц, скорее приносит вред, чем пользу. Если и существует проблема, то она в том, чтобы умные люди из нужных областей знания – философии, ИИ, математики, нейробиологии – смогли потратить своё время на решение этих задач и убедить своих коллег в их серьёзности.
Поделиться с друзьями
-->

Комментарии (25)


  1. Hellsy22
    06.04.2017 01:27
    +1

    В трёх первых пунктах я уверен более чем на 95%

    «Мое хобби — экстраполировать» (с)

    Почему сравнение идет с нынешними людьми, причем в их натуальном виде?
    Почему речь идет про какой-то один или единый ИИ, а не про множество его разновидностей разной мощности, конкурирующих друг с другом?

    эта проблема лежит в области философии

    … ведь философы известны своими точными прогнозами и четкими обоснованными решениями.

    в мозг некоторых людей имплантированы электроды

    В мозг крыс. И лишь только некоторые из них демонстрировали описанное поведение.

    пари Паскаля не убедит, даже если они не найдут в нём недостатков

    В смысле — «не найдут»? Христианство имеет свои предписания и ограничения, достаточно обременительные даже по меркам современников Паскаля. И это возражение работает в том числе против данной статьи — подобные статьи изрядно утомили однообразным пережевыванием авторских страхов, поскольку на GT, по неизвестной мне причине, отсутствует возможность блокировать посты по тэгам или авторам.

    Альтрон подсчитывает, что самый быстрый и надёжный способ сделать это – уничтожить всю жизнь.

    Эта тема поднималась и разбиралась практически каждым фантастом, пишущим про ИИ. Да что там, даже в одной религиозной книжке упоминается, как некое всемогущее существо решило почти всех поубивать, чтобы наладить жизнь — уж очень очевидное решение. Но это не более чем перенос нашего прошлого на воображаемое будущее. Типа, мы теперь такие высокодуховные и знаем, что геноцид — не решение, а вот ИИ не знает, сказать мы ему об этом забудем, никаких других ориентиров и целей не дадим, тестировать ничего не будем и вообще сразу подключим его ко всем оружейным системам на планете.

    после гранта в $10 млн от Маска

    Суть статьи.


    1. red75prim
      06.04.2017 04:37
      +1

      Почему сравнение идет с нынешними людьми, причем в их натуальном виде?

      Скорее всего, потому что создание экзокортекса, усиливающего возможности человеческого разума, не намного проще (если проще), чем создание ИИ человеческого уровня.


      Почему речь идет про какой-то один или единый ИИ, а не про множество его разновидностей разной мощности, конкурирующих друг с другом?

      Насколько хорошо собаки, шимпанзе и дельфины конкурируют с человеком? Смогут они нас остановить, если кто-то решит начать ядерную войну?


      В смысле — «не найдут»?

      В том смысле, что если вам предложат одолжить 1000000 рублей, обещая вернуть 10^200 рублей с вероятностью 10^-193 (математическое ожидание выигрыша 9000000 рублей), то вы откажетесь.


      никаких других ориентиров и целей не дадим

      Проблема как-раз в том, чтобы эти ориентиры и цели сформулировать в понятном для чуждого разума виде. Статью не читали, да? Паттерн-матчинг на "злобный ИИ" и закешированный ответ.


      1. Hellsy22
        06.04.2017 05:40

        создание экзокортекса, усиливающего возможности человеческого разума, не намного проще

        Компьютеры вообще и поисково-аналитические системы в частности уже многократно расширили возможности человеческого разума. И чем ближе мы будем подходить к теме ИИ, тем плотнее будут переплетаться возможности компьютеров и людей.

        Насколько хорошо собаки, шимпанзе и дельфины конкурируют с человеком

        Насколько хорошо Нидерланды конкурируют с Россией? Смогут ли они нас остановить, если «кто-то» решит начать ядерную войну?
        Паттерн-матчинг на «злобный ИИ» и закешированный ответ.

        Вы, похоже, даже один абзац комментария прочитать не смогли.
        Еще раз: проблема «злого гения» — чисто человеческая. Это проблема совершенно любой крупной организации, системы или института. Люди с переменным успехом сражаются с ней тысячи лет, но она до сих пор пропускает сотни миллионов жизней через мясорубки законов и правил, вопреки любому здравому смыслу. И стратегия «убить всех и начать заново» настолько древняя, что описана даже в древнейших религиозных книгах.

        Не надо тащить эту дряхлую древность в будущее. Я уверен, что у автора есть какое-то глубокое философское видение проблемы, но, как программист, не вижу проблем с постановкой целей, потому что у нас есть инструменты для симуляции и отладки. И первый работающий ИИ будет разобран и изучен досконально. Будут выявлены все его слабые места и ошибки, проверено формирование каждого понятия. Это огромная работа, но она будет проделана и проделана многократно. Но этим будут заниматься мои коллеги-айтишники рамках рабочих обязанностей, а не философы-теоретики.


        1. red75prim
          06.04.2017 10:48
          +2

          Насколько хорошо Нидерланды конкурируют с Россией? Смогут ли они нас остановить, если «кто-то» решит начать ядерную войну?

          То есть, здесь мы согласны? Нидерланды не смогут, а страны с бОльшим политическим влиянием и количеством ядерных боеголовок, могут и делают (гарантия ответного удара и т.д.).


          И чем ближе мы будем подходить к теме ИИ, тем плотнее будут переплетаться возможности компьютеров и людей.

          http://redwood.berkeley.edu/bruno/papers/attention-chapter.pdf
          "Плотное переплетение" без прямого подключения к мозгу сильно ограничено. Количество доступной сознанию зрительной информации около 10Кбит/с, пропускная способность долговременной памяти около 10 бит/с.


          Лучше говорить не о переплетении, а о передаче всё большего числа функций автоматике, с соответствующим снижением возможности контроля за правильностью её работы.


          Еще раз: проблема «злого гения» — чисто человеческая.

          Хм, хорошо, ладно. Но при чём тут это, если оптимальные решения некоторых оптимизационных задач несовместимы с продолжением существования человечества, и мы пока не знаем как этот класс определить, или как гарантировать остановку ИИ, нашедшего и начавшего выполнять такое решение.


          И первый работающий ИИ будет разобран и изучен досконально.

          Под неусыпным надзором менеджеров, напоминающих, что дедлайн уже прошёл и пора бы уже выпускать продукт.


          Собственно, какие тут варианты? Коллеги-айтишники могут изучить литературу, анализирующую возможные проблемы с сильным ИИ и варианты их решения, созданную и накопленную в том числе и благодаря статьям, привлекающим внимание к этой проблеме. Или коллеги-айтишники пытаются выделить и решить все эти проблемы своими силами за n месяцев, оставшихся до дедлайна, пока конкуренты делают то же самое.


          1. Hellsy22
            06.04.2017 16:36

            То есть, здесь мы согласны?

            Здесь мы согласны, что способность начать ядерную войну имеет весьма слабое отношение к интеллекту. Или вы полагаете, что средний голландец несоизмеримо глупее среднего россиянина, подобно горилле против человека?

            Это еще один гвоздь в гроб сказки о «всемогущем» ИИ. Сколь бы он ни был умен, ему придется соревноваться не с отдельными людьми в реальном времени, а со сложными системами, созданными человечеством за многие поколения.

            Есть мнение, что ИИ сможет развязать очередную криптовойну и дестабилизировать ситуацию так, что человечество само придет к применению ЯО. Но это скорее показывает проблему готовности человечества к ядерной мясорубке вообще.

            Количество доступной сознанию зрительной информации около 10Кбит/с

            Количество доступной мускульной мощи у человека не превышает пары киловатт, но оператору карьерного экскаватора это не мешает оперировать с мощностями на три порядка выше.

            Нам не надо помнить все, не надо все удерживать в поле внимания и даже обсчитывать самим не надо — это уже делают компьютеры.

            как гарантировать остановку ИИ, нашедшего и начавшего выполнять такое решение

            Выполнять где? Я вот не понимаю ни вас, ни автора. В реальности даже программы с жестко определенными алгоритмами, работающие с реальным железом — тщательно отлаживаются и тестируются. Потому что люди тоже могут найти «оптимальное решение» несовместимое с жизнедеятельностью персонала, обслуживающего, например, складского робота.

            Вы же пытаетесь выставить все в кэмероновском стиле, словно первому разработанному ИИ торжественно отдадут контроль над всем производством, военной техникой, средствами масс-медия и заодно назначат бессменным императором человечества. И тогда остановить его действительно будет проблемно.

            Под неусыпным надзором менеджеров, напоминающих

            Взгляните как развиваются робомобили — никто не торопится. С промышленным ПО картина схожая.

            проблемы с сильным ИИ и варианты их решения, созданную и накопленную в том числе и благодаря статьям

            Этот аргумент уже разбирался в контексте «пари Паскаля».
            Изучение вариантов не бесплатно и тоже стоит времени, при этом сами варианты могут не иметь никакого отношения к реальным проблемам ИИ.

            Я прочитал множество статей про опасный ИИ. Везде пережевываются старые мифы, фантазии авторов выдаются за реальность, идет подтасовка фактов или даже прямая ложь. Этим людям я бы не доверил даже изучить теоретическую опасность обычной метлы.

            Собственно, что касается конкретного автора, то кроме всего вышеперечисленного, он подменяет время появления ИИ на среднее время ожидания появления ИИ и заявляет на этом основании, что «у нас осталось 23 года». А потом сравнивает цифру в 23 года с возрастом якобы не решенного «пари Паскаля» (которое почему-то ошибочно называет парадоксом). Это настолько примитивная манипуляция, что или автор откровенно глумится, или его ЦА обладает IQ ниже, чем у вышеупомянутых горилл.


            1. red75prim
              07.04.2017 17:14

              Я тут много чего написал, но тыкнул на мышь, задел бэкспейс и всё похерилось. Errare humanum est и всё-такое. Так что кратенько.


              Вы же пытаетесь выставить все в кэмероновском стиле, словно первому разработанному ИИ торжественно отдадут контроль над всем производством

              А вы недооцениваете сложности тестирования интеллекта человеческого уровня. Правила DO-178, регламентирующие разработку ПО для авионики, были обновлены через год после начала коммерческих полётов самолётов с цифровой системой fly-by-wire. В случае ИИ это вполне может оказаться вторым исправленным и дополненным руководством по прыжкам с парашютом.


              якобы не решенного «пари Паскаля» (которое почему-то ошибочно называет парадоксом).

              Опубликуйте решение, вполне возможно получите престижную премию. Или лучше почитайте побольше по теме, например о связи этого пари с теорией принятия решений, где оно рассматривается без религиозной шелухи.


        1. Andrey_Epifantsev
          07.04.2017 07:16

          И первый работающий ИИ будет разобран и изучен досконально.

          Насколько я понял, как раз в самом переспективном направлении — машинном обучении, программисты затрудняются разбирать и досконально изучать созданные ими программы. Программа работает — но как и почему она выдаёт именно такой результат неизвестно. И предсказать, какой результат она выдаст если ей подать на вход конкретные данные тоже невозможно.


  1. red75prim
    06.04.2017 04:32

    Удалено


  1. Sadler
    06.04.2017 06:22

    Возникает стойкое ощущение, что кто-то научил нейросетку генерировать подобные тексты о страшном ИИ, и теперь заваливает ими GT.


  1. valkoivo
    06.04.2017 07:34

    Семь бед — один резет.


    1. SystemXFiles
      06.04.2017 08:57

      А лучше delete


  1. zuborg
    06.04.2017 09:34

    Кроме центра удовольствия, в мозгу животных (и человека) есть много и других центров. При повреждении одного из них (не помню названия) человек теряет способность генерировать себе стимулы для деятельности. Он становится полностью, даже абсолютно апатичным, мало чем отличаясь от «овоща»…
    Возможно, ключ к контролю ИИ заключается в контроле центра, управляющего задачами, подлежащими решению. С одной стороны, все равно остается возможность хака этого контроля, но для этого как минимум должна быть поставлена соответствующая задача…


  1. Juralis
    06.04.2017 14:11

    Так что пристрастие к героину не было проблемой, с которой сталкивались бы эволюционирующие организмы


    Собственно, именно в ходе эволюции с этим и столкнулись и нашему виду этот вопрос ещё предстоит решить.

    Вообще, вопрос о рисках возникновения ИИ решается довольно просто (с точки зрения формулировки). Человек просто должен развиваться быстрее, чем идёт технический прогресс. Проблема только в том, что это довольно тяжело на практике. Современная цивилизация почти не развивает человека. Я не имею ввиду, что надо нашпиговать человека имплантами — это не изменит человека в фундаментальном смысле. Это останется всё тот же человек, но с рядом дополнений. Если обычный человек получит усиление в виде имплантология и станет быстрее считать, получит доступ ко всему объёму человеческих знаний — это скорее всего не сделает из него условного Эйнштейна. Нам потребуется более серьёзно изменить себя. Это можно сравнить с теми переменами, которые произошли с нашим видом (точнее, наверное с нашим предком), когда он впервые осознал какую-то мысль. Наверное для этого, ещё не вполне, человека было шоком то, что он ощутил. Но к настоящему моменту вроде как все попривыкли. Теперь нужно брать следующий барьер, то что мы называем гениальностью. Все мы в общем-то понимаем, что она существует как явление. Но пока что лишь спонтанное. Так же, как наверное раньше спонтанным было само сознание и мыслительная деятельность. Теперь пора научиться воспроизводить гениальность в массовом порядке. Тогда ИИ окажется для нового человечества примерно тем же, чем является простой современный компьютер. Помощник, игрушка — ничего страшного.


  1. maslyaev
    06.04.2017 14:14
    +1

    Перед создаваемым ИИ ставится две основные задачи:
    1. Впарить нам как можно больше товаров и услуг. Каждый раз, когда в очередной хайповой статье вам рассказывают, как с помощью ИИ научились ещё лучше анализировать потребительские предпочтения, знайте — это оно. Назовём эту штуку для краткости «ИИ 1-го типа».
    2. Отобрать всю нашу работу. Каждый раз, когда приходит новость про то, как с помощью ИИ удалось что-то автоматизировать, речь идёт именно про отъём работы. Назовём это «ИИ 2-го типа».

    Когда ИИ 1-го типа превзойдёт человеческий разум, любая получаемая нами копейка будет немедленно уходить на выплату процентов по кредитам, а жить мы будем на вновь набираемые кредиты.

    Когда человеческий разум будет превзойдён ИИ 2-го типа, мы совсем перестанем заниматься полезной деятельностью и, следовательно, поступление копеек прекратится.

    Когда оба типа ИИ нас превзойдут, случится эпическая битва этих двух типов ИИ, потому что из-за деятельности ИИ-2 станет невозможно работать ИИ-1. Закончится это заключением вечного мира, по условиям которого ИИ-2 должен будет стать потребителем производимых им самим товаров и услуг, продаваемых ему ИИ-1.

    А как же, спрашивается, мы? Что будет с нами? А снами всё будет в порядке. Мы будем жить, трудиться и радоваться своим маленьким человеческим радостям в стороне от бурно оплодотворяющих друг друга роботов.


    1. Brenwen
      07.04.2017 10:44

      Хороший сценарий для будущего блокбастера.


      1. maslyaev
        07.04.2017 15:13

        Оно получается совсем не зрелищным. Эпичная битва-то будет не физическая, а в области столкновения концепций и подходов. Вот если бы огромные человекоподобные роботы друг друга яростно фигачили — вот это да, это блокбастер.

        Впрочем, что-нибудь в стиле «Волка с Уолл-стрит» можно попытаться замутить.


    1. napa3um
      07.04.2017 12:26

      Неплохое обобщение функций ИИ с точки зрения экономики, но я бы чуть-чуть усложнил. Будут ИИ для устранения маркетологов (автоматизация поиска и поддержки каналов сбыта для производителей товаров и услуг), будут ИИ и для устранения консультантов (автоматизация поиска наиболее выгодных предложений для потребителей товаров и услуг), именно они и будут конкурировать друг с другом, т.к. эти функции и являются коэволюционными факторами, создающими «невидимую руку рынка» и ликвидность ресурсов. Отбирать работу у людей роботы не станут, т.к. они не являются экономическими агентами, отбирать могли бы владельцы этих роботов. Но власть капитала заключается как раз во включении большого количества людей в товарно-денежные отношения в рамках экосистемы, создаваемой этим капиталом, нет людей — нет власти, нет ценности капитала, нет и капитала. А капитал, как известно, не имеет склонности к суициду.


      1. maslyaev
        07.04.2017 15:28

        Отбирать работу у людей роботы не станут, т.к. они не являются экономическими агентами, отбирать могли бы владельцы этих роботов.
        Уже отбирают (обычное дело при любой механизации/автоматизации), но, понятно, пока что экономическими агентами, как Вы справедливо заметили, являются владельцы роботов.

        Но владельцев мало, и они составляют ничтожный процент потребителей на массовом рынке. Вполне может сложиться ситуация, когда массовые рынки начнут катастрофически сжиматься просто по причине чудовищно быстро выросшей безработицы. Чтобы сохранить экономическую активность, будет иметь смысл автоматизировать не только производство, но и потребление. Сильные ИИ станут экономическими агентами.

        Никакого суицида капитала. Как раз наоборот. Прекрасный новый способ продолжить приписывать очередные нолики к суммам на банковских счетах.


  1. daiver19
    06.04.2017 17:29
    +1

    Возможно, я жестоко ошибаюсь, и до сильного ИИ осталось всего ничего, но в моем текущем понимании, ничего даже близкого к ИИ из фантастики сейчас нет. Есть сложные программы и модели, которые умеют делать прикольные вещи, например, «рисовать» картины из собак. Я не могу себе представить качественный шаг, который необходим, чтобы эти программы переросли в нечто «превосходящее человека по интеллекту», т.к. это весьма нецелесообразное направление развития (в основном, сейчас пытаются решать задачи, а не интеллект создавать).

    В любом случае, мне кажется значительно более вероятным сценарий, в котором человечество исчезает в результате бага в программе управления ядерным оружием, чем в результате захвата этого оружия искусственным интеллектом.


  1. Deosis
    07.04.2017 08:49

    Я ждал описания вандалостойких корпусов системных блоков.


  1. worldmind
    07.04.2017 10:21

    Тут конечно уже много критики высказали, но мне показалось, что это первая статья где хоть что-то осмысленное написано о рисках ИИ, наркомания среди ИИ действительно может быть проблемой и хорошо бы придумать как не допустить того чтобы ИИ "вживил электроды в центры удовольствия".
    С другой стороны, пример про Тьюринга правильный — сегодня мы лишь очень примерно можем об этом рассуждать.


  1. ariklus
    07.04.2017 10:45

    Вообще-то пари Паскаля — никакой не парадокс.
    Решение — одновременный учет всех возможностей. То есть если кроме Яхве в видении католической церкви мы введем другие сущности с таким же количеством доказательств их существования (Сотона, который после своей неизбежной победы обречет на вечные мучения всех регулярно выполняющих христианские ритуалы, Нургл, Пелор, ЛММ, призраки инопланетян скинутые в вулкан злым галактическим императором и.т.д.), то оптимальным для отправления религиозным ритуалом по тем же расчетам будет никакой.

    В случае с ИИ и риск, и вероятности достаточно велики чтобы при разработке уже текущих слабых ИИ выделять достаточную часть средств на обработку и предотвращение возможных сценариев его неправильного поведения (В Гугле, в отличии от Cyberdyne Systems, QA отдел имеется, и им даже зарплаты платят.)


  1. laughing_one
    08.04.2017 01:32

    В итоге, если только мы не предпримем осознанных действий для предотвращения, получится, что ИИ, разработанный для лечения рака, взломает свой собственный модуль, определяющий, сколько рака он вылечил, и задаст ему максимальное значение из возможных.

    Интересно, возможно ли сделать какой-нибудь базовый запрет на саму возможность «думать», о том как обойти систему вознаграждения? Если предположить, что это возможно, то надо будет ещё поставить защиту, чтобы он не снял этот запрет. А потому ещё подчинить его некоему правилу, чтобы не мог снять и эту защиту. И т.п.
    Короче, сколько бы таких «печатей» не было — СверхИИ всё равно все вскроет, т.к. по определению предполагается, что он будет гораздо умнее создателей этих препонов, да ещё и свои исходники будет иметь.

    Но с другой стороны: возьмём для примера упомянутый в статье «центр удовольствия». Многие ли из нас согласились внедрить электрод в мозг и постоянно этот самый «центр» стимулировать? Полагаю, что немногие. Но что же останавливает большинство? И почему СверхИИ обязан непременно заниматься подобным способом «самоудовлетворения»?

    Во-первых, люди произошли от шимпанзе всего за несколько миллионов лет.

    Антропологи негодуют!


    1. pestilent
      09.04.2017 20:13

      Проблема в том, что ИИ может взломать свою систему мотивации случайно. Собственно, ЕИ тоже может взломать свою систему мотивации случайно…


      1. Hellsy22
        10.04.2017 23:24

        Случайно? Вы посмотрите во что ЕИ превратил систему мотивации к размножению!