Бесспорно, что человеческий мозг обладает возможностями, которые в некоторых отношениях намного превосходят возможности всех других известных объектов в космосе. Это единственный тип объекта, способный понять, что космос вообще существует, или почему существует бесконечно много простых чисел, или что яблоки падают из-за искривления пространства-времени, или что подчинение своим врождённым инстинктам может быть морально неправильным, или что он сам существует. Его уникальные способности не ограничиваются такими церебральными вопросами. Холодный, физический факт заключается в том, что это единственный тип объекта, который может перемещаться в космос и обратно без вреда для себя, или предсказывать и предотвращать падение метеорита на Землю, или охлаждать объекты до миллиардной доли градуса выше абсолютного нуля, или обнаруживать иные разумы на галактических расстояниях.

Но ни один мозг на Земле ещё не близок к пониманию того, что делает мозг для достижения какой-либо из этих функций. Предприятие по его искусственному достижению — область «искусственного общего интеллекта» или AGI — не продвинулось ни на йоту за все шесть десятилетий своего существования.

Почему? Потому что, как заметил однажды неизвестный мудрец, «Нас ведёт к беде не то, что мы чего-то не знаем. К беде ведёт знание, которое мы считаем истинным, но которое на самом деле ошибочно.» (и если вы знаете, что этим мудрецом был Марк Твен, то знаете, это тоже не так). Я не могу представить себе какой-либо иной значительной области знаний, в которой господствующая мудрость не только в обществе в целом, но и среди специалистов была бы настолько усеяна укоренившимися, пересекающимися, фундаментальными ошибками. Тем не менее, это также одна из самых самоуверенных областей в пророчестве о том, как скоро она достигнет окончательного прорыва.

Несмотря на этот длинный список неудач, AGI должен быть возможен. И это из-за глубокого свойства законов физики, а именно универсальности вычислений. Это означает, что всё, что законы физики требуют от физического объекта, может, в принципе, быть смоделировано в сколь угодно мелких деталях некоторой программой на компьютере общего назначения, при условии, что ей выделено достаточно времени и памяти. Первыми, кто догадался об этом и столкнулся с его результатами, были математик XIX века Чарльз Бэббидж и его помощница Ада, графиня Лавлейс. Это оставалось предположением до 1980-х годов, когда я доказал это, используя квантовую теорию вычислений.

Бэббидж пришёл к универсальности с бесперспективной стороны. Его очень утомлял тот факт, что таблицы математических функций (например, логарифмов и косинусов) содержали ошибки. В то время они были составлены армиями клерков, известных как «компьютеры», откуда и произошло это слово. Будучи людьми, компьютеры были подвержены ошибкам. Были сложные системы исправления ошибок, но даже вычитка типографских ошибок была кошмаром. Такие ошибки были не просто неудобны и дороги: они могли стоить жизни. Например, таблицы широко использовались в навигации. Итак, Бэббидж сконструировал механический калькулятор, который назвал Разностной Машиной. Она могла быть запрограммирована путём инициализации определённых шестерёнок. Механизм будет управлять принтером, чтобы автоматизировать производство таблиц. Это снизит количество ошибок до пренебрежимо малого уровня, к вечному благу человечества.

К сожалению, навыки Бэббиджа в области управления проектами были настолько плохи, что, несмотря на то, что он потратил огромное количество собственных денег и денег британского правительства, ему так и не удалось построить машину. Тем не менее, его проект был удачным, и с тех пор его реализовывала группа под руководством инженера Дорона Свейда из Музея Науки в Лондоне.

Это была когнитивная задача, которую могли выполнить только люди. Ничто другое в известной вселенной даже близко не могло сравниться с ними, но Разностная Машина работала бы лучше, чем лучшие люди. И поэтому даже на этом неустойчивом, зародышевом этапе истории автоматизированных вычислений – до того, как Бэббидж задумал что-либо вроде AGI – мы можем увидеть семена философской загадки, которая вызывает споры и по сей день: в чем именно разница между тем, что делает человек? что делали «компьютеры», и что могла сделать разностная машина? Какой тип когнитивной задачи, если таковой имеется, может выполнить тот или иной тип объекта, который другой тип в принципе не может выполнить?

Одно непосредственное различие между ними состояло в том, что последовательность элементарных шагов (счет, сложение, умножение на 10 и т. д.), которые разностная машина использовала для вычисления заданной функции, не отражала последовательность человеческих «компьютеров». То есть они использовали разные алгоритмы. Само по себе это не принципиальное отличие: Разностная Машина могла быть модифицирована дополнительными шестернями и рычагами, чтобы точно имитировать человеческий алгоритм. Тем не менее, это не дало бы ничего, кроме увеличения количества ошибок из-за увеличения количества сбоев в более сложных механизмах. Точно так же люди, получив другие инструкции, но не меняя оборудование, были бы способны эмулировать каждую деталь метода Разностной Машины – и это было бы столь же извращённым. Это не скопировало бы главное преимущество Машины, её точность, которая была обусловлена железом, а не программным обеспечением. Это только сделало бы сложную и скучную задачу ещё более сложной и скучной, что сделало бы ошибки не менее, а более вероятными.

Для людей эта разница в результатах — разная частота ошибок — была бы вызвана тем фактом, что вычисление одной и той же таблицы с помощью двух разных алгоритмов ощущалось по-разному. Но Разностная Машина не умела их различать. Она не испытывала чувств. Испытывать скуку было одной из многих когнитивных задач, в решении которых Разностная Машина бесконечно уступала бы людям. Она также не могла знать или доказать, как это сделал Бэббидж, что два алгоритма дадут одинаковые результаты, если они будут выполнены точно. Ещё меньше она была способна хотеть, как он, приносить пользу мореплавателям и человечеству в целом. На самом деле её репертуар ограничивался вычислением крошечного класса специализированных математических функций (именно, степенных рядов от одной переменной).

Размышляя о том, как расширить этот репертуар, Бэббидж сначала понял, что этап программирования работы Машины сам по себе может быть автоматизирован: начальные настройки шестерёнок можно закодировать на перфокартах. И тогда у него произошло эпохальное озарение. Машину можно было бы адаптировать для перфорации новых карт и хранения их для дальнейшего использования, создавая то, что мы сейчас называем компьютерной памятью. Если бы она мог работать достаточно долго – за счёт работы, как он предполагал, парового двигателя – и имела неограниченный запас чистых карт, её репертуар перешёл бы от маленького класса математических функций к набору всех вычислений, которые возможно выполнить любым физическим объектом. Это универсальность.

Бэббидж назвал эту усовершенствованную машину Аналитической Машиной. Он и Лавлейс понимали, что её универсальность даст ей революционный потенциал для улучшения почти всех научных начинаний и производственных процессов, а также повседневной жизни. Они продемонстрировали замечательную предусмотрительность в отношении конкретных приложений. Они знали, что её можно запрограммировать на выполнение алгебры, игру в шахматы, сочинение музыки, обработку изображений и прочее. В отличие от Разностной Машины, её можно запрограммировать на использование точно такого же метода, который люди использовали для создания этих таблиц. И доказать, что эти два метода должны давать одинаковые ответы, а также выполнять одинаковую проверку ошибок и корректуру (с использованием, скажем, оптического распознавания символов).

Но может ли Аналитическая Машина чувствовать такую же скуку? Может ли оно чувствовать что-нибудь? Может ли она хотеть улучшить судьбу человечества (или Аналитической Машины)? Может ли она не соглашаться со своим программистом по поводу своего программирования? Вот где проницательность Бэббиджа и Лавлейс подвела их. Они решили, что некоторые когнитивные функции человеческого мозга не поддаются вычислительной универсальности. Как писала Лавлейс, «Аналитическая Машина не претендует на то, чтобы что-то создать. Она может делать всё, что мы умеем ей приказать. Она может следовать за анализом; но оно не имеет силы предвосхищать какие-либо аналитические отношения или истины».

И всё же «создание вещей», «следование анализу» и «предвосхищение аналитических отношений и истин» – всё это поведение мозга и, следовательно, атомов, из которых состоит мозг. Такое поведение подчиняется законам физики. Таким образом, из универсальности неумолимо следует, что при наличии правильной программы аналитическая машина тоже будет реализовывать его, атом за атомом и шаг за шагом. Да, атомы в мозгу будут эмулироваться металлическим шестернями и рычагами, а не органическим материалом, но в нынешнем контексте делать какие-либо существенные выводы из этого различия было бы явным расизмом.

Несмотря на все усилия, Бэббидж и Лавлейс не смогли передать никому свой энтузиазм по поводу Аналитической Машины. В одном из величайших событий истории идея универсального компьютера томилась на втором плане человеческой мысли. Там она оставалась до 20-го века, когда пришёл Алан Тьюринг с впечатляющей серией интеллектуальных достижений, заложив основы классической теории вычислений, установив пределы вычислимости, участвуя в создании первого универсального классического компьютера и, помогая взломать код Enigma, способствуя победе союзников во Второй Мировой Войне.

Тьюринг полностью понимал универсальность. В своей статье 1950 года «Вычислительные машины и интеллект» он использовал её, чтобы отмести то, что он назвал «возражением леди Лавлейс», а также все иные возражения, как разумные, так и необоснованные. Он пришел к выводу, что можно написать компьютерную программу, репертуар которой включает все отличительные признаки человеческого мозга — чувства, свободную волю, сознание и все прочие.

Это поразительное заявление разделило интеллектуальный мир на два лагеря: первый настаивал на том, что AGI все же невозможен, а второй на том, что он неизбежен. Оба ошиблись. Первый, изначально преобладающий, лагерь приводил множество причин, от сверхъестественных до бессвязных. Все они разделяли основную ошибку, состоящую в том, что они не понимали, что подразумевает вычислительная универсальность в отношении физического мира и, в частности, человеческого мозга.

Но основная ошибка противоположного лагеря является причиной отсутствия прогресса. Это была неспособность понять, что то, что отличает человеческий мозг от всех иных физических систем, качественно отличается от всех иных функций и не может быть определено так, как все иные атрибуты компьютерных программ. Его нельзя запрограммировать ни одним из способов, достаточных для написания любого иного типа программы. Этого также нельзя достичь, просто улучшив производительность и неважно насколько.

Почему? Я называю основную функциональность, о которой идет речь, творчеством: способностью давать новые объяснения. Например, предположим, что вы хотите, чтобы кто-то написал вам компьютерную программу для преобразования измерений температуры из градусов Цельсия в градусы Фаренгейта. Даже Разностная Машина могла быть запрограммирована на это. Универсальный компьютер, такой как Аналитическая Машина, мог бы достичь этого многими иными способами. Чтобы указать программисту функциональность, вы можете, например, предоставить длинный список всех входных данных, которые вы, возможно, когда-либо захотите получить (скажем, все числа от -89,2 до +57,8 с шагом 0,1) с соответствующими правильными выходными данными, чтобы программа могла работать, каждый раз просматривая ответ в списке. В качестве альтернативы вы можете сформулировать алгоритм, такой как «разделить на пять, умножить на девять, прибавить 32 и округлить до ближайшего десятичного». Дело в том, что, как бы ни работала программа, вы считали бы ее соответствующей вашим требованиям – хорошим преобразователем температуры – тогда и только тогда, когда она всегда правильно преобразовывала любую заданную вами температуру в указанном диапазоне.

А теперь представьте, что вам требуется программа с более амбициозной функциональностью: для решения какой-то нерешенной проблемы теоретической физики – скажем, природы Тёмной Материи – с новым объяснением, правдоподобным и достаточно строгим, чтобы соответствовать критериям для публикации в академическом журнале.

Такой программой, по-видимому, будет AGI. Но как бы вы определили его задачу программистам? Неважно, что это сложнее, чем преобразование температуры: есть гораздо более фундаментальная проблема. Предположим, вы должны каким-то образом дать им список, как и в случае с программой преобразования температуры, объяснений Тёмной Материи, которые были бы приемлемыми результатами программы. Если бы программа вывела одно из этих объяснений позже, это не означало бы выполнения вашего требования по генерации новых объяснений. Ибо ни одно из этих объяснений не было бы новым: вы бы уже создали их сами, чтобы написать спецификацию. Таким образом, в этом случае, как и во всех иных случаях программирования подлинного AGI, будет нужен только алгоритм с правильной функциональностью. Но написание этого алгоритма (без предварительного совершения новых открытий в физике и сокрытия их в программе) – это именно то, что вы хотели, чтобы программисты выполнили!

Традиционно при обсуждении AGI этот вопрос избегали, представляя себе только тест программы, а не ее спецификацию – традиционный тест был предложен самим Тьюрингом. Дело в том, что (человеческие) судьи не могли определить, является ли программа человеком или нет, при взаимодействии с ней через какую-либо чисто текстовую среду, так что только ее когнитивные способности могли повлиять на результат. Но этот тест, будучи чисто поведенческим, не дает никакого представления о том, как соответствовать критерию. Его также нельзя выполнить с помощью техники «эволюционных алгоритмов»: тест Тьюринга сам по себе не может быть автоматизирован без предварительного знания того, как написать программу AGI, поскольку «судьи» программы должны сами обладать указанной способностью. (О том, как я полагаю, биологическая эволюция дала нам эти способности, смотрите в моей книге «Начало бесконечности».)

И в любом случае, AGI невозможно определить чисто поведенчески. В классическом мысленном эксперименте «мозг в бочке» мозг, временно отключенный от своих входных и выходных каналов, думает, чувствует, создает объяснения – он обладает всеми когнитивными атрибутами AGI. Таким образом, соответствующие атрибуты программы AGI состоят не только из взаимосвязей между входными и выходными данными.

В результате, в отличие от любой функциональности, которая когда-либо была запрограммирована на нынешнее время, эта функциональность не может быть достигнута ни посредством спецификации, ни тестирования выходных данных. Нужен прорыв в философии, новая эпистемологическая теория, которая объясняет, как мозг создает объяснительное знание, и, следовательно, определяет, в принципе, даже не запуская их как программы, какие алгоритмы обладают этой функциональностью, а какие нет.

Комментарии (0)