image

Элиезер Шломо Юдковский — американский специалист по искусственному интеллекту, исследующий проблемы технологической сингулярности и выступающий за создание Дружественного ИИ. В неакадемических кругах больше известен как автор фанфика «Гарри Поттер и методы рационального мышления» под эгидой Less Wrong.

Меня всегда удивляли умные люди, верящие в вещи, кажущиеся мне абсурдными. К примеру, генетик и директор Национальных институтов здоровья Фрэнсис Коллинс верит, что Иисус восстал из мёртвых. Теоретик ИИ Элиезер Юдковский верит, что машины… Но лучше я дам слово ему самому. В 2008 я брал у него интервью на Bloggingheads.tv, но ничего хорошего из этого не получилось, поскольку я решил, что он был последователем гуру сингулярности Рэя Курцвейла. Но Юдковский ни за кем не следовал и никогда не учился в колледже. Он упрямый и оригинальный теоретик интеллекта, как человеческого, так и искусственного. Его работы (к примеру, эссе, помогшее мне понять, или давшее иллюзию понимания, теоремы Байеса) источает высокомерие самоучки, острые грани которого не были зашлифованы формальным образованием – но в этом есть часть его очарования. Даже когда он раздражает вас, Юдковский забавен, свеж, провокационен. Для подробностей его биографии смотрите его личный сайт или сайт Института исследования машинного интеллекта, в основании которого он участвовал. И почитайте это интервью с бонусом в виде комментариев от его жены Брийены.

Хорган: Когда на вечеринке вас спрашивают, чем вы занимаетесь, что вы отвечаете?

Юдковский: Зависит от мероприятия. «Я специалист по теории принятия решений», или «Сооснователь Института исследования машинного интеллекта», или, если это вечеринка другого типа, рассказываю о моих художественных произведениях.

Х: Какой ваш любимый фильм про ИИ и почему?

Ю: ИИ в фильмах стандартно ужасен. Ex Machina подошёл настолько близко к исключению из этого правила, насколько этого вообще можно ожидать.

Х: Полезность колледжа переоценена?

Ю: Я бы удивился, если бы его полезность была недооценена, учитывая социальные требования к тому, чтобы окончить его. Насколько я знаю, нет причин не верить экономистам, считающим, что колледж превратился в некий «престижный товар», и что попытки увеличить объём студенческих займов просто увеличили стоимость колледжа и бремя студенческих долгов.

Х: Почему вы пишете художественные рассказы?

Ю: Если перефразировать комиксы Wondermark: «Сначала я пытался этого не делать, но это не сработало».

Кроме того, серьёзная литература передаёт знания, а художественная – опыт. Если вы хотите понять доказательства формулы Байеса, я могу использовать диаграммы. Если вы хотите почувствовать, как это – использовать логику Байеса, мне надо написать историю, в которой это делает персонаж.

Х: Религиозны вы в каком-нибудь смысле?

Ю: Нет. Когда вы делаете ошибку, вам нужно избежать искушения уйти в защиту, попытаться найти какую-то точку зрения, с которой вы хотя бы немножечко правы. Гораздо мудрее сказать: «Ой», признать, что вы не были даже немножечко правы, проглотить горькую пилюлю целиком и продолжать жить. Именно так человечество должно относиться к религии.

Х: Если бы вы стали «Королём мира», что было бы наверху в вашем списке дел?

Ю: Я однажды писал: «Проверка на либертарианца работает так: представьте, что вы получили власть; о чём вы подумаете в первую очередь – о законах, которые примете, или о законах, которые отмените?» Я не на 100% либертарианец, поскольку не все мои хотелки выражаются в отмене законов и ослаблении ограничений. Но я представляю о том, как я бы попытался сделать мир, в котором какой-нибудь безработный человек мог бы предложить вам подвезти вас до работы, получить $5 за 20 минут езды, и с ним из-за этого ничего плохого не случилось бы. Ему не нужно было бы лишаться страховки по безработице, регистрировать разрешение на ведение бизнеса, терять медстраховку, проходить аудит, просить юриста удостоверить соответствие его работы правилам Управления по охране труда, и т.п. У него просто прибавилось бы $5.

Я бы попытался вернуться к состоянию, в котором нанять работника было бы так же просто, как в 1900-м году. Возможно, сейчас есть смысл в неких мерах безопасности, но я бы попытался создать такую безопасность, которая не сдерживает человека и не плодит бумаг в результате простого возвращения человека в экономику.

Я бы попытался сделать всё то, о чём давно уже кричат умные экономисты, и чего не делает ни одно государство. Заменить налоги на инвестирование и прибыль налогами на потребление и недвижимость. Заменить минимальную оплату труда отрицательными налогами на зарплату. Установить для центробанков политику таргетирования номинального ВВП и перестать поддерживать структуры, «слишком большие, чтобы разориться». Требовать, чтобы во время патентных судебных разбирательств проигравшая в суде сторона оплачивала судебные издержки [следуя т.н. английскому правилу – в отличие от американских законов, по которым каждая из сторон по умолчанию занимается своими издержками сама – прим. перев.] и вернуть длительность авторских прав к 28 годам. Устранить препятствия для строительства домов. Скопировать медстраховку у Сингапура. Электронное правительство у Эстонии. Заменить комитеты и сложные процессы принятия решений конкретными индивидуумами, принимающими публично задокументированные решения, и несущими за это ответственность. Проводить контролируемые эксперименты с различными вариантами управления странами и принимать во внимание их результаты. Я могу часами продолжать список.

Всё это может не иметь значения через две сотни миллионов лет. Но номинальные активы, полученные в результате экономического бума, могут сослужить хорошую службу, пока я пытаюсь выяснить, что же мы будем делать с искусственным интеллектом. Очевидная вещь – Манхэттенский проект где-нибудь на острове, с оплатой на основе соревнования между крупнейшими хедж-фондами, в котором люди смогут исследовать проблему обобщённого искусственного интеллекта без того, чтобы публикация результатов их работы автоматически приближала бы конец света. И если только мы не примем, что у меня есть волшебные способности или принципиально несвергаемый режим, я не вижу, как любой закон, который я бы принял, задержал бы приближение ИИ достаточно сильно на планете, где компьютеры распространены повсеместно.

Но всё это всё равно можно считать невозможным мысленным экспериментом и в реальной жизни вероятность осуществления такого эксперимента нулевая.

Х: Что такого хорошего есть в теореме Байеса?

Ю: Ну, например, она очень глубока. Поэтому на такой вопрос сложно ответить кратко.

Я мог бы ответить, что теорему Байеса можно назвать вторым законом термодинамики для познания. Если вы сделали вывод о том, что вероятность некоего предположения составляет 99%, будь то наличие молока в супермаркете или антропогенная причина глобального потепления, значит, вы обладаете комбинацией из достаточно хороших априорных вероятностей и достаточно надёжных доказательств. Это не требование нормативов, это закон. Точно так же, как автомобиль не может ехать, не рассеивая энтропию, вы не сможете получить хороший образ мира, не выполняя процесс, в котором где-то внутри существует байесовская структура, даже если вероятности не используются в процессе непосредственно.

Лично я думаю, что главное, что может предложить нам Байес – это существование правил, железных законов, определяющих, работает ли способ размышления для разметки реальности. Мормонам рассказывают, что они узнают истинность Книги мормонов благодаря ощущению жжения в сердце. Консервативно примем априорную вероятность Книги мормонов как один к миллиарду. Затем оценим вероятность того, что Книга мормонов не истинна, и кто-либо испытал ощущения жжения в сердце после того, как ему сказали, что этого нужно ожидать. Если вы понимаете формулу Байеса, мы сразу же поймёте, что малая вероятность доказательства несоизмерима с малой вероятностью гипотезы, которую пытаются доказать с его помощью. Не нужно даже придумывать конкретные цифры, чтобы понять, что они не сходятся – как обнаружил Филип Тетлок в своём исследовании "сверхпредсказателей", они часто знали формулу Байеса, но редко давали определённые цифры. В каком-то смысле вас тяжелее обмануть, если вы поймёте, что есть некая математика, при помощи которой можно точно определить силу доказательства и понять, достаточно ли его, чтобы преодолеть малую вероятность гипотезы. Нельзя просто придумывать что-нибудь и верить в это, потому что это так не работает.

Х: Впечатляет ли вас гипотеза Байесовского мозга?

Ю: Я думаю, что некоторые люди, спорящие на эту тему, говорят о разных вещах. Спрашивать, является ли мозг байесовским алгоритмом, это всё равно, что спрашивать, работает ли Honda Accord на тепловом двигателе Карно. Если один человек говорит: «Каждый автомобиль – это термодинамический процесс, требующий топлива и рассеивающий паразитное тепло», а другой человек слышит: «Если построить диаграмму цикла Карно и показать её механику, он должен согласиться с тем, что она похожа на внутренности Honda Accord», тогда ярые споры неизбежны.

Некоторые люди очень обрадуются, вскрыв двигатель внутреннего сгорания, обнаружив в нём цилиндры и заявив: «Уверен, что они преобразовывают тепло в давление и помогают двигать автомобиль вперёд!». И они будут правы, но другие люди скажут: «Вы фокусируетесь на единственном компоненте гораздо большего набора частей автомобиля. Каталитический конвертер тоже очень важен, а его нет на ваших диаграммах цикла Карно. А иногда у нас работает кондиционер воздуха, работающий строго противоположно тому, как по вашим словам работает тепловой двигатель».

Не думаю, что будет удивительно, если я скажу, что люди, свысока говорящие: «Вы явно незнакомы с современными автомобилями; вам нужен целый набор различных методов, чтобы построить мотор, типа свечей и каталитических конверторов, а не только эти ваши термодинамические процессы», упускают ключевой уровень абстракции.

Но если вы хотите знать, можно ли считать мозг буквально байесовским, а не устройством, совершающим познавательную работу, чью природу мы можем понять при помощи байесовских методов, то я могу ответить на ваш вопрос: «Нет, конечно». В этом «двигателе» возможно и есть несколько байесовских «цилиндров», но очень многое там будет выглядеть так же странно, как ремни безопасности и кондиционер воздуха. Но эти дополнения не изменят того факта, что для правильного определения яблока на основе сенсорных доказательств нужно сделать нечто, что по сути можно интерпретировать, как результат индукции, способной понять концепцию яблока и обновляться на основе доказательств, отличающих яблоки от не-яблок.

Х: Можно ли быть слишком рациональным?

Ю: Можно попасть в т.н. «Долину плохой рациональности». Если до этого вы были нерациональны в нескольких вещах, балансировавших друг друга, тогда если вы станете рациональным, вам может стать хуже, чем было раньше. Чем больше вы становитесь рациональным, тем хуже вам может становиться, если вы неверно выберете первоначальное направление для применения ваших навыков.

Но я бы не рекомендовал слишком сильно заботиться о такой возможности. По-моему, люди, которые рассказывают о том, как можно хитроумно быть нерациональным, это придурки. Сложно придумать реалистичную, не притянутую за уши жизненную ситуацию, в которой можно решить быть иррациональным, и исход которой вам ещё неизвестен. В реальной жизни лучше говорить себе правду и не умничать.

Возможно, что идеальный представитель байесовского мышления несовместим с интересной и полной развлечений жизнью. Но это явно не такая большая проблема, как наша склонность к самоуничтожению.

Х: Как ваша точка зрения на сингулярность отличается от мнения Курцвейла?

Ю:
• Я не думаю, что к ИИ можно применять закон Мура. ИИ – проблема программная.
• Не думаю, что первый сверхчеловеческий интеллект появится от слияния машин с людьми. Уже сто лет прошло с появления автомобилей, а мы только сейчас пробуем сделать экзоскелет для лошади, и обычная машина всё равно быстрее.
• Не думаю, что первый сильный ИИ будет основан на алгоритмах из нейробиологии, так же как самолёты не были основаны на птицах.
• Не думаю, что слияние нано-, инфо- и биотехнологий возможно, неизбежно, хорошо определено или нужно.
• Думаю, что с 1930 по 1970 год изменений было больше, чем с 1970 по 2010.
• Думаю, что в развитых странах продуктивность стагнирует.
• Думаю, экстраполяция закона Мура на технологический прогресс, якобы предсказывающая всё, что будет после появления ИИ умнее человека, очень странная вещь. ИИ умнее человека рушит все ваши графики.
• Некоторые аналитики, к примеру, Иллка Туоми, считают, что закон Мура сломался в начале 2000-х. Не уверен, что могу возразить.
• Единственный технологический порог, интересующий меня, находится там, где ИИ обретает способность самоулучшаться. У нас нет графика, идущего к этому порогу, и непонятно, каков он будет (хотя он не должен сильно превышать уровень человека, поскольку человек разбирается в информатике), так что его наступление нельзя предсказать.
• Не думаю, что результат такого прогресса будет по-умолчанию хорошим. Думаю, его можно сделать хорошим, но над этим нужно будет серьёзно поработать, а ключевые фигуры в этом не заинтересованы. Говорить людям, что мы находимся на естественной траектории к великим и чудесным временам, будет ложью.
• Думаю, что «сингулярность» стало словом-чемоданом со слишком большим набором несовместимых значений и подробностей внутри, поэтому я перестал его использовать.

Х: Есть ли у вас вероятность стать сверхинтеллектуальным киборгом?

Ю: Закон конъюнкции вероятностей говорит, что P(A&B) <= P(A). Вероятность одновременного наступления событий A и В меньше, чем вероятность наступления одного события А. В экспериментах, в которых люди считают, что P(A&B) > P(A) для двух событий А и В, проявляется "ошибка конъюнкции" – к примеру, в 1982 году эксперты из Международного конгресса предсказаний назначили большую вероятность событию «Россия вторгается в Польшу и дипломатические связи с СССР распадаются», чем вероятность отдельного события «распада дипломатических связей с СССР», назначенная другой группой. Точно так же другая группа назначила большую вероятность событию «Землетрясение в Калифорнии приводит к наводнению, влекущему тысячи жертв», чем другая – вероятность событию «Где-то в Северной Америке происходит наводнение с тысячами жертв». Хотя внесение дополнительных деталей в историю однозначно делает её менее вероятной, оно делает её более правдоподобной. Для меня понимание этого факта, это как "мост ослов" для серьёзного футуризма – разница между тем, что вы тщательно взвешиваете каждое отдельное предположение, и выясняете, можете ли вы поддержать это уточнение независимо от всех остальных, и тем, что вы просто сочиняете чудесную и яркую историю.

Это всё я говорю в контексте ответа на вопрос: «Зачем вы приплетаете к этому такое уточнение, как киборг? Я не хочу быть киборгом». Нужно очень осторожно приплетать дополнительные детали к утверждениям.

Х: Есть ли у вас шанс на бессмертие?

Ю: Буквальное? Буквального бессмертия трудно достичь. Чтобы жить значительно дольше, чем несколько триллионов лет, нужно пересмотреть ожидаемую судьбу расширяющейся Вселенной. Чтобы жить дольше, чем гуголплекс, нужно, чтобы мы ошиблись по поводу основ физических законов, а не просто в деталях.

Даже если некоторые из необычных рассуждений окажутся правдой и наша Вселенная может порождать дочерние вселенные, это не даст нам бессмертия. Чтобы жить гораздо больше гуголплекса лет и не повторяться, вам нужны будут вычислительные машины с количеством элементов больше, чем гугол, а такая машина не поместится в сферу Хаббла.

И гуголплекс – это не бесконечность. Перефразируя Мартина Гарднера, число Грэма всё ещё довольно мало, поскольку большая часть конечных чисел гораздо больше его. Если хотите, чтобы вам снесло крышу, почитайте про быстрорастущие иерархии, и бесконечность всё равно будет дольше. Только очень странные и пугающие антропные теории позволят вам жить достаточно долго, чтобы наблюдать за остановкой самой долгоработающей машиной Тьюринга с сотней состояний.

Впрочем, не думаю, что с эмоциональной точки зрения мне захочется жить достаточно долго, чтобы узреть сотый номер в игре "охота на бобра-работягу". Я могу как-то сопереживать себе самому, прожившему сто лет с этого момента. Тот будущий я сможет сопереживать будущему себе ещё через сто лет. И возможно где-то в этой последовательности будет тот, кто столкнётся с перспективой прекращения своего существования, и он может сильно загрустить по этому поводу. Но я не уверен, что я могу представить себе этого человека. «Я хочу прожить ещё день. Завтра я тоже буду хотеть прожить ещё один день. Следовательно, я хочу жить вечно, доказано по индукции положительных целых чисел». Даже моё желание долгой жизни в физически возможной вселенной – это абстракция, порождённая индукцией. Не могу представить себя через триллион лет.

Х: Я описал сингулярность как эскапистскую и псевдонаучную фантазию, отвлекающую нас от изменения климата, войн, неравенства и других серьёзных проблем. Почему я неправ?

Ю: Потому, что вы пытаетесь предсказать эмпирические факты через психоанализ. Это никогда не сработает.

Допустим, мы доживём до появления ИИ, достаточно умного для того, чтобы он мог делать такую же работу по улучшению ИИ, которую делают люди. Он может подстраивать себя, программировать, придумывать новые алгоритмы. Улучшаться. Что будет дальше – он станет умнее, увидит ещё больше возможностей для улучшения, и быстро доберётся до очень высокого уровня? Или ничего особенного не случится?

Может случиться, что (А) самоулучшение на некую дельту сделает ИИ достаточно умным, чтобы он мог оглянуться назад и найти новое потенциальное улучшение размера к*дельта, где к > 1, и это будет повторяться достаточно много раз, чтобы привести к быстрому самоулучшению до уровня сверхинтеллекта. То, что Ирвинг Джон Гуд называл «взрывом интеллекта». Или же (В), к меньше единицы или все эти улучшения малы и не приводят к появлению сверхинтеллекта, или сверхинтеллект вообще невозможен, и вместо взрыва будет пшик. Что истинно, А или В? Если вы построите ИИ определённого уровня и он попытается это сделать, в эмпирическом реальном мире что-то произойдёт, и это событие будет определяться фактами, касающимися ландшафта алгоритмов и достижимых улучшений.

Нельзя получить надёжную информацию об этом событии из психоанализа людей. Это как пытаться запустить машину без горючего – то, о чём нам говорит теорема Байеса. Некоторые люди всегда будут эскапистами, вне зависимости от реальных значений скрытых переменных в информатике, так что наблюдение за некими эскапистами нельзя назвать строгим доказательством.

Это неправильное представление о природе рациональности – что рационально верить в то, что «гоблины в шкафах не существуют» потому, что вера в гоблинов из шкафа глупа, незрела, устарела, и в это верят только идиоты. Настоящий принцип рациональности – пойти и проверить в шкафу. Так что в тех вселенных, где гоблины живут в шкафах, вы будете верить в гоблинов, а во вселенных, где гоблинов в шкафах нет, вы не будете в них верить.

Сложно, но в принципе возможно попытаться заглянуть через приоткрытую дверь и спросить: «Что во Вселенной было бы другим, если бы нельзя было получать хороший доход с когнитивных инвестиций, то есть, ИИ, пытающийся улучшить себя, закончил бы не взрывом, а пшиком? Какие ещё факты были бы характерны для такой вселенной?»

Есть люди, утверждающие, что ИИ можно будет поднять только до уровня человека, поскольку мы и сами люди, а выше мы поднят него не сможем. Мне кажется, что если наша вселенная такова, то мы должны наблюдать уменьшение дохода от инвестиций в железо и ПО для компьютерных шахмат, превосходящих уровень человека – чего на самом деле не происходит. Кроме того, естественному отбору тогда не удалось бы создать человека, а мать Эйнштейна должна была быть потрясающим физиком, и т.д. и т.п.

Есть люди, утверждающие, что чем сложнее алгоритм, тем больше ему нужно подстроек, и что наш интеллект служит неким ограничением для этого процесса. Но это не сходится с антропологическими записями человеческого интеллекта; инвестиции в подстройку мозга и мутаций дают усиление когнитивных возможностей. Мы знаем, поскольку генетика говорит нам, что мутации с малым статистическим откликом не закрепляются при эволюции.

И гоминидам не потребовался экспоненциально больший мозг, чем у шимпанзе. И голова Джона фон Неймана не была экспоненциально больше, чем голова среднего человека.

С чисто практической точки зрения, аксоны человека передают информацию со скоростью в миллион раз меньшей, чем скорость света, и даже с точки зрения рассеивания тепла каждая синаптическая операция потребляет в миллион раз больше минимального теплового рассеивания необратимой бинарной операции при 300 Кельвинах, и так далее. Почему мы должны считать, что ПО мозга ближе к оптимуму, чем железо? Привилегия человеческого интеллекта состоит в том, что это наименьший уровень интеллекта, способный создать компьютер. Если бы было возможно создать компьютер с меньшим уровнем интеллекта, мы бы обсуждали это на меньшем уровне.

Но это не простой спор, и за детальным описанием я отправляю людей к одной из старых моих работ, «Микроэкономика взрыва интеллекта», которая, к сожалению, всё ещё служит лучшим источником информации. Но именно такие вопросы нужно задавать, чтобы, используя имеющиеся доказательства, рассуждать о том, увидим ли мы взрыв ИИ, при котором некое улучшение познавательных способностей, инвестированное в самооптимизацию, даст прирост, превышающий это улучшение.

Что касается по поводу возможностей и их цены:

Можно представить себе мир без взрыва интеллекта и без сверхинтеллекта. Или мир, где трюки, которые эксперты по машинному обучению будут использовать для контроля сверх-ИИ, подойдут для контроля людей и сверхчеловеческого режима. Или мир, где работает моральный интернализм, поэтому все достаточно продвинутые ИИ – добрые. В таких мирах вся работа и всё беспокойства Института исследований машинного обучения никому не нужны. И несколько москитных сеток было потрачено зря, и лучше было отдать их в фонд борьбы с малярией.

Также можно представить себе мир, в котором вы боретесь с малярией, боретесь и удерживаете выбросы углекислоты на должном уровне, или используете геоинженерные решения для нейтрализации уже сделанных ошибок. И всё это оказывается бесполезным, поскольку цивилизация оказывается неспособной решить проблему морали ИИ – и все дети, спасённые от малярии при помощи сеток, вырастают, только чтобы наномашины убили их во сне.

Я думаю, что люди, пытающиеся заниматься разумной благотворительностью, согласятся с тем, что мы не хотели бы жить ни в одном из этих миров. Вопрос лишь в том, какой из них более вероятен. Центральный принцип рациональности – не отвергать веру в гоблинов, поскольку это глупо и непрестижно, и не верить в гоблинов, потому что это здорово и красиво. Центральный принцип рациональности – какие наблюдаемые знаки и логические выводы помогут нам выбрать один из двух этих миров.

Я думаю, что первый мир маловероятен, а второй – вероятен. Я понимаю, что попытки убедить в этом других – это попытки плыть против течения веры в вечную нормальность. Веры в то, что только наша кратковременная цивилизация, существующая несколько десятилетия, и только наш вид, существующий всего мгновение по эволюционной и геологической шкалам, имеют смысл и обязаны существовать вечно. И хотя я считаю, что первый мир – это всего лишь оптимистичная мечта, я не считаю, что нужно игнорировать проблему, по поводу которой в будущем мы будем ударяться в панику. Миссия Института в том, чтобы сегодня проводить исследования, которые по мнению людей, живущих через 30 лет, должны были бы начаться 30 лет назад.

Х: Верит ли ваша жена Брийена в сингулярность?

Брийена: Если бы кто-то спросил меня, верю ли я в сингулярность, подняла бы бровь и спросила бы, верят ли они в автоматические грузовики. Это странный вопрос. Не знаю, каков будет первый флот автоматических грузовиков, или сколько им потребуется времени на замену существующей системы грузоперевозок. И я не то, чтобы верю в робогрузовики, я уверенно предсказываю, что беспилотные перевозки заменят современные перевозки с участием людей, поскольку именно в этом направлении мы идём, если не случится ничего реально странного. По той же причине я уверенно предсказываю и взрыв интеллекта. В других значениях слова «сингулярность» я не так уверена.

Ю: Брийена давала свой ответ, не видя моих ответов. Просто мы хорошо подходим друг другу.

Х: Можно ли создать сверхинтеллект, не понимая, как работает мозг?

Ю: В том же смысле, в каком вы можете делать самолёты, не понимая, как летает птица. Вам не нужно быть экспертом по птицам, но при этом для постройки самолёта нужно достаточно много знаний, получив которые, в принципе уже можно понять, как примерно птица парит или отталкивается от воздуха. Поэтому я пишу о человеческой рациональности – если достаточно далеко продвинуться в вопросе машинного интеллекта, нельзя будет не додуматься до некоторых идей о том, как думают люди.

Х: Чего может захотеть сверхинтеллект? Будет ли у них что-нибудь вроде сексуального желания?

Ю: Задумайтесь об огромном пространстве возможностей, о гигантской многомерной сфере. Это пространство видов разума, набор всех возможных когнитивных алгоритмов. Представьте, что где-то на дне сферы есть крохотная точка, обозначающая всех когда-либо живших людей. Это крохотная точка, поскольку у всех людей примерно одинаковый мозг, с корой, мозжечком, таламусом, и т.п. Некоторые люди не похожи на других, поэтому это может быть шипастая точка, но шипы будут того же масштаба, что и сама точка. Вне зависимости от вашей нейроатипичности, вы не будете работать на другом корковом алгоритме.

Спрашивать, «чего захочет сверхинтеллект» – это неправильный вопрос. Сверхинтеллекты – это не странное племя людей, живущих по ту сторону реки, и обладающих экзотическими обычаями. ИИ – это просто название всего пространства возможностей вне крохотной человеческой точки. Обладая достаточными знаниями, можно забраться в это пространство возможностей и достать оттуда ИИ, обладающий желаниями, которые можно описать человеческим языком хотелок, но не потому, что это будут естественные хотелки этих экзотических сверхлюдей, а потому, что вы выделили одну часть из пространства видов разума.

Касательно сексуальных желаний – если вы точно знаете, что делаете, вы решили основную проблему построения ИИ, стабильно хотящего определённые вещи в то время, как он улучшается, если вы решили основную проблему направления утилитарных функций ИИ на задачи, которые человеку кажутся обманчиво простыми, и ещё более сложную проблему построении ИИ при помощи определённого рода архитектуры, в которой имеют значения такие вещи, как «сексуальные желания» и «счастье от секса», тогда, возможно, вы сможете заставить ИИ смотреть на людей, моделировать их желания, извлекать ту их часть, что касается сексуального желания, и заставлять ИИ испытывать это.

Конечно, также можно, обладая хорошими познаниями в органической биологии и аэродинамике, построить самолёты, способные спариваться с птицами.

Но я не думаю, что братьям Райт стоило заниматься такими вещами на заре своей деятельности. В этом не было бы смысла.

Кажется более разумным решение проблемы проникновения в пространство разумов и извлечения оттуда ИИ, который не захочет разобрать нас на запчасти-атомы.

Х: Мне хочется думать, что сверхумные существа будут исповедовать ненасилие, поскольку они поймут, что насилие – это глупо. Наивен ли я?

Ю: Думаю, да. Дэвид Юм сказал бы вам, что вы совершаете типичную ошибку, применяя предикат «глупость» к ценностям или служебным операциям индивида. Действия, выборы, правила могут быть глупыми, если у вас есть какие-то предпочтения по поводу итоговых состояний мира. Если вы личность с мета-предпочтениями, которые вы не до конца вычислили, у вас может быть платформа, на которую можно опираться и называть определённые догадки по поводу объектных предпочтений «глупыми».

Максимизатор скрепок [мысленный эксперимент, демонстрирующий, как ИИ, изготовленный без злого умысла, может нанести вред человечеству – прим. перев.] не делает вычислительной ошибки, выбирая те случаи из возможных, в которых число скрепок получается максимальным. Он не находится внутри вашей платформы предпочтений, выбирая ошибочные действия, и он не находится внутри вашей платформы метапредпочтений, ошибочно выбирая предпочтения. Он вычисляет ответ на другой вопрос, а не на тот, который вы задаёте себе, вопрос «Что я должен сделать?». Максимизатор скрепок просто осуществляет действие, приводящее к наибольшему количеству скрепок.

Фатальный сценарий – это когда ИИ ни любит вас, ни ненавидит, поскольку вы сделаны из атомов, которые он может использовать для создания чего-либо ещё. Теория игр и проблемы кооперации в дилемме заключённых не проявляют себя во всех возможных случаях. К примеру, они не появляются, когда некий субъект настолько сильнее вас, что он может разобрать вас на атомы, когда вы хотите нажать кнопки «сотрудничать» или «изменить». А когда мы пройдём этот порог, то либо вы решили проблему создания чего-либо, что не хочет вам навредить, или вы уже проиграли.

Х: Решит ли сверхинтеллект трудную проблему сознания?

Ю: Да, и оглядываясь назад, ответ покажется нам позорно простым.

Х: Будет ли у сверхинтеллектов свобода воли?

Ю: Да, но у них не будет иллюзии свободы воли.

Х: Как выглядит ваша утопия?

Ю: Направлю ваших читателей к моей "Последовательности теории развлечений", поскольку я ещё не справился с написанием повести, действие которой происходит в развлекательно-теоретическом оптимальном мире.
Поделиться с друзьями
-->

Комментарии (21)


  1. zuborg
    26.05.2017 16:47

    Всегда интересно ознакомиться с умными нетривиальными мыслями. Спасибо за перевод!


  1. 1Tiger1
    26.05.2017 19:16
    +1

    Хороший автор, книги хорошие, а интервью плохое, ощущение что его «держали за пуговицу» пока не закончатся вопросы, и в отместку он издевался над журналистом:

    «Есть ли у вас вероятность стать сверхинтеллектуальным киборгом?» — ответа хотите, а вот фиг вам, вот вам пара умных формул которые докажут что ваш вопрос глупый, а в конце еще простым языком это скажем.

    «Есть ли у вас шанс на бессмертие?» — снова вопрос? ну вот держите вместо ответа придирку к форме вопроса, и добиваем понятием бесконечности и еще раз. Ну может будете в следующий раз точнее вопросы задавать.

    Тут репортер впадает в шок и задает вопрос ну вообще не конкретный, как будто ему мало было предыдущих ответов «Я описал сингулярность как эскапистскую и псевдонаучную фантазию, отвлекающую нас от изменения климата, войн, неравенства и других серьёзных проблем. Почему я неправ?» — ну сам виноват, крепче надо быть, четче и конкретнее. Держи ответ. Что никак не связан с вопросом? хочешь развития — ну держи, сам просил, теперь не плачь.

    Репортер еле удерживаясь в сознании пытается отдышаться и переключиться на жену:
    «Верит ли ваша жена Брийена в сингулярность?» — жена верит в автоматические грузоперевозки а значит и в сингулярность. Пожалели наверное его или жена не так жестока, отделался приемом «абсурдная аналогия».

    Ну дальше уже видя бледный вид репортера пошло попроще, и он осознал свою вину и сразу добавлял что нибудь в духе «наивен ли я, не дурак ли я» и юдковский помягче с ним стал, а в конце вообще одной фразой отвечал, видно надоело издеваться.


    1. napa3um
      27.05.2017 10:41

      Думаю, это что-то типа неустранимой «лингвистической иллюзии», рождающейся в коммуникации «умного» человека и «глупого» человека (различающихся количеством «этажей рефлексии», уровнем понимания мета-целей данной коммуникации). «Умный» человек в вопросе «глупого» видит дополнительные детали, видит мотивы, цели вопроса, которые «глупый» даже не осознаёт, хотя и следует им, и ответ «умного» часто заключается в указании некорректно «выбранных» (неявно) «глупым» человеком целей вопроса, делающим его бессмысленным (делающим «простой» ответ на него бесполезным). Потому «глупому» может показаться, что ответ «издевательский», вместо «да» или «нет» ему будто бы объясняют, что он «неправильно спрашивает». Но ответ только на простой вопрос может быть в стиле «да» или «нет», ответ же на сложный вопрос является, по-сути, формулированием новых вопросов (для фиксирования мета-целей изначального вопроса).

      Интервью показалось содержательным, понравилось, и «наивность» вопросов журналиста вряд ли указывает на его глупость, скорее, он просто формулировал вопросы в той форме, в которой они интересуют «массы».


      1. 1Tiger1
        30.05.2017 01:40
        +1

        У интернета есть 3 проблемы:
        1) текстом сложно передать эмоции, иногда пошутишь — а кто-то возьмет и серьезно воспримет.
        2) в интернете много незнакомых людей, кто-то обязательно серьезно воспримет.
        3) даже эти тезисы кто-то обязательно воспримет серьезно.

        Я всего лишь говорил о том что интервью плохое, интервью это когда один человек отвечает на вопросы другого. А если один человек отвечает на те вопросы которые он хочет отвечать, притворяясь что он отвечает на вопросы другого, то это не интервью, тогда лучше уж просто статью написать. Человеческие языки и так плохо передают информацию, искажения сильные, а тут еще оказывается что «умный» сам решает как воспринимать вопрос «глупого» и подходит к этому весьма креативно. В результате получается что один «умный» ответил, а тысячи «глупых» прочитали и не поняли. И вот сидим мы тут такие «глупые» в шоке и пытаемся осмыслить «а что это было».

        А если серьезно — все что вы описали конечно имеет место быть, в нормальной беседе, лицом к лицу, когда можно считать реакцию собеседника, дать пояснения в зависимости от реакции, выйти на общую понятийную базу и прочие вещи. В тексте это недоступно. «Умный» должен понимать что интервью будут читать другие люди, о которых он ничего не знает, и собственно интервью для этого и дается. И нужно отвечать конкретнее, или не отвечать вообще. Все же тут не книга, где он может себе позволить потратить главу на то чтобы на примерах и в ситуациях четко и полно выразить свою мысль.

        Мне «Гарри» Юдковского нравятся в первую очередь юмором, нестандартным подходом и главное балансом. Науки/логики там немного, но она изящно разбавлена экшеном и приправлена хорогим юмором. Особенно в начале, потом когда началось это коллективное творчество книгу начало колбасить. Ему не идет маска серьезного философа, футуролога, аналитика, он отличный популяризатор научного и рационального подхода. Все это имхо, само собой.



    1. Gryphon88
      27.05.2017 16:43

      Журналист во многом неправ, но Юдковский, хоть и хороший учёный, но ещё сноб с раскормленным самомнением, это и по его общению на LessWrong, и в обсуждении во время написания «Гарри Поттер и методы рационального мышления» чувствуется.

      [offtop]

      Брат Кайла вырос и получил учёную степень
      image


      1. mat300
        27.05.2017 20:07
        +2

        Вы правы. Общался я как-то с ним. Тот еще знатный пизд… бол.
        Думает, что звезда не меньше Эйнщтейна, но просто недоученная моська с почти трамповскими вселенскими амбициями.
        Времена что ли такие настали, когда «такое» вызде повылазило…


      1. mat300
        27.05.2017 20:23
        -4

        Хотел еще сказать, что слушать и читать его бред не стоит. Чувак просто зарабатывает тем, что не по делу пытается умничать, и как всегда без толку. Сам начал тут читать, прочел половину и понял, что это та же обычная его бесконечная жвачка.


        1. ZiingRR
          27.05.2017 20:52
          +2

          Если есть что по факту сказать — говорите. Не надо переходить на личности.


  1. sotnikdv
    27.05.2017 00:41
    +3

    > «Проверка на либертарианца работает так: представьте, что вы получили власть; о чём вы подумаете в первую очередь – о законах, которые примете, или о законах, которые отмените?»

    Не дай бог таких властителей. Первое о чем я думаю, получив любую власть (проект, группа, бизнес), это как разобраться в том, что происходит и способен ли управляемый обьект прожить определенное время без управляющих воздействий, пока я буду разбираться в том, что на меня свалилось. Т.е. сколько у меня времени от посадки за штурвал и до того, как мне его нужно будет крутить. Все это время я трачу на понимание обстановки и того, как это работает, трогая только критичные вещи или вещи, которые я понимаю. На понимание иерархии и ответственных (делегирование!) лиц и их компетенции и обязанностей. На общение с коллективом.

    Вещи, которые я вижу или мне сказали, что они критичны, начинают разбираться немедленно, делегируй-учавствуй-учись-проверяй или бери-на-себя-проси-научить-делай-верифицируй. Остальное — делегирование-проверка-учеба.

    Таким образом, если мы что-то делаем не так (либо я, либо ответственные лица, либо значительная часть коллектива признают неправильным) — фокус сразу на это. Оценка, приоритизация, если нужно решать — решение. Остальное — оценка-изучение-приоритезация и в очередь.

    Итого
    — изучение «ландшафта», в несколько заходов, т.к. первый раунд должен быть очень короткий, обзор вещей, требу.щих немедленного вмешательства.
    — выделение критичных вещей
    — оценка, приоритизация (срочность, импакт), беклог
    — привлечение 3-х источников знаний (я, ответственные лица, коллектив и изменение) для изучения чего либо. И только когда есть понимание, что мы меняем и как это работает. Если изменение делается без понимания — значит мы в заднице и вынуждены принимать решения наудачу.

    Как то так. Понимание, что меняем, когда и на основе каких данных и в каком приоритете. А добавлять или отменять правило — это уже в конце цепи, action item. А то «будете отменять или принимать». Детский сад, трусы на лямках.

    P.S. Автор в статье классный ученый. Вот было бы лучше, если бы он занимался своим делом, а не управлением, в котором он явно нихрена не шарит. Иначе получаются «советы космического размаха и космической же глупости». И пусть попробует хотя бы небольшой бизнес построить, прежде чем браться за государство.


    1. guai
      27.05.2017 02:07
      +1

      У вас слишком механистические представления о социуме.
      Это в компьютерной программе байтик не туда послал — всё, хана. Социум же в ручном управлении не нуждается.
      Да посмотрите на наших политиков, если бы они так сильно влияли на жизни людей, людей бы давно не осталось.
      Они далеко не команда пилотов, напряженно ведущих лайнер по приборам в шторм.
      Скорее, стая макак, тыкающих на все кнопки подряд. Благо, автопилот есть.


      1. roboq6
        27.05.2017 09:38

        Думаю как минимум для бизнесса такой подход адекватен, ведь всякая корпорация это фактически плановая экономика в миниатюре.


  1. Siroejka
    27.05.2017 05:20

    Если эта стая макак в результате такого управления случайно катапультируется, то большому счёту все от этого только выиграют.


  1. Arastas
    28.05.2017 15:03

    Хочу поинтересоваться мнением тех, кто читал фантик про Гарри Поттера. Да, вставки про рациональное мышление, про методы научного познания и так далее, — это было интересно. Но ведь в остальном это же просто графомания и Мэри Сью, разве нет? Может я не прав? Кому-то понравилось это произведение как литературное, оставив в стороне вставки про методы рационального мышления?


    1. Gryphon88
      28.05.2017 15:48
      +1

      Мне понравилось, как минимум связнее и логичнее оригинала. Написано хорошо, но на один раз, да и выкинуть можно было четверть текста без особых потерь.


      1. dimm_ddr
        29.05.2017 10:49

        У меня примерно такое же мнение, но еще, если знать оригинал, то местами очень смешно.


      1. Arastas
        29.05.2017 11:08

        Ну что логичнее это понятно, на это же и был упор. :)


        выкинуть можно было четверть текста без особых потерь

        Обычно это признак графомании, отсутствие редактуры текста. Хотя не уверен, применим ли такой признак в тех случаяз, когда фанфик пишется по главам и сразу выкладывается,


    1. Refridgerator
      29.05.2017 11:03

      Чтобы оценить это произведение исключительно как литературное, нужно его прочитать вперёд оригинала (неважно, книги или фильма).


      1. Arastas
        29.05.2017 11:12
        +1

        С чего бы это вдруг? Перед Вами есть текст, и что Вам мешает оценить богатство словарного запаса, увлекателность повествования, проработанность диалогов, раскрытие мотивации героев и развитие их характеров в ходе сюжета? В целом, что Вам мешает оценить литературное качество текста? То, что это фанфик по уже известному произведению может сказаться разве что на оценке новизны идеи, да и то не особо.


        1. Refridgerator
          29.05.2017 11:29

          С того, что без знания оригинала эта книга будет восприниматься совершенно по-другому. Это же не просто фанфик, это — та же история, но из параллельной вселенной, и во время чтения этот фактор играл лично для меня приоритетную роль.


          1. dimm_ddr
            29.05.2017 12:48
            +2

            Мне кажется по вашим же критериям оценивать данное произведение бессмысленно без оригинала, так как без оригинала оно теряет большую часть своего наполнения. То, что вы говорите — это больше не литературная оценка, а стилистическая, это немного о другом.