Я пришел на встречу с Ильей Суцкевером, соучредителем и главным научным сотрудником OpenAI, в неприметное офисное здание компании на непримечательной улице в районе Мишн в Сан-Франциско. Мы поговорим о том, что будет дальше с перевернувшей мир технологией, к появлению которой он приложил немало усилий. Также я собираюсь расспросить Илью о его личных планах — в частности, почему создание следующего поколения флагманских генеративных моделей больше не является основным фокусом его работы.

Вместо создания следующего GPT или генератора изображений DALL-E, новая приоритетная задача Ильи — выяснить, как остановить искусственный сверхинтеллект (гипотетическую технологию будущего, которую он видит с прозорливостью истинно верующего) так, чтобы он не стал «мошенником».

Суцкевер рассказал мне и о многом другом: ChatGPT может быть сознательным (если присмотреться). Он считает, что мир должен осознать истинную силу технологии, над созданием которой работает его компания и другие технологические гиганты. А также придерживается мнения, что какая-то часть людей однажды решит слиться с машинами.

Многое из того, что говорит Суцкевер, звучит дико. Но не так дико, как могло бы показаться всего один-два года назад. Как он сам мне говорит, ChatGPT уже переписал ожидания многих людей относительно грядущих событий, превратив «никогда не произойдет» в «произойдет быстрее, чем вы думаете».

«Важно обсуждать, куда все это движется», — говорит он, а затем прогнозирует развитие ИИ (под которым он понимает машины, настолько же умные, как и люди) с такой же уверенностью, как и появление очередного iPhone: «В какой-то момент действительно появится AGI (от англ. Artificial General Intelligence — общий искусственный интеллект). Может быть, его создаст OpenAI. А может, и какая-нибудь другая компания».

С момента релиза в ноябре прошлого года ChatGPT шумиха вокруг OpenAI была поразительной. Все продолжают обсуждать этот нерд-стартап стоимостью 80 млрд. долл. Мировые лидеры ищут (и получают) частные аудиенции. В случайных разговорах то и дело всплывают названия его продуктов.

Генеральный директор OpenAI Сэм Альтман провел большую часть лета в многонедельном просветительском турне — он встречался с политиками и выступал в переполненных аудиториях по всему миру. Но Суцкевер — гораздо менее публичная фигура, и он не дает много интервью.

Он говорит взвешенно и методично. Долго думает над тем, что и как сказать, перебирает вопросы, как головоломки, которые нужно разгадать. Похоже, ему неинтересно рассказывать о себе. «У меня очень простая жизнь. Иду на работу, потом домой. Больше я ничем не занимаюсь. Есть много разных социальных мероприятий, в которых можно было бы участвовать. Но я этого не делаю».

Однако когда мы говорим об искусственном интеллекте, о тех эпохальных рисках и выгодах, которые он видит в перспективе, перед нами открываются новые горизонты: «Это будет поистине масштабно и невероятно, разделит нашу жизнь на “до" и «после»».

Все лучше, лучше и лучше


В мире, где не было бы OpenAI, Суцкевер все равно вошел бы в анналы истории ИИ. С израильскими и канадскими корнями, он родился в СССР, но с пяти лет рос в Иерусалиме (и до сих пор говорит на русском и иврите, а также на английском). Затем он переехал в Канаду и там учился в Университете Торонто у Джеффри Хинтона, пионера ИИ, который в начале этого года публично рассказал о своих опасениях по поводу технологии, которую он помог изобрести. (Суцкевер не захотел комментировать высказывания Хинтона, но его внимание к сверхинтеллекту-мошеннику позволяет предположить, что они находятся на одной волне).

Позднее Хинтон разделит премию Тьюринга с Янном Лекуном и Йошуа Бенгио за их работу над нейронными сетями. Но когда Суцкевер присоединился к нему в начале 2000-х годов, большинство исследователей ИИ считали, что нейронные сети — это тупик. Хинтон же был исключением. Он уже обучал крошечные модели, которые могли создавать короткие строки текста по одному символу за раз, — рассказывает Суцкевер: «То было начало генеративного ИИ. И это было правда здорово — просто не достаточно хорошо».

Суцкевер был увлечен изучением мозга: как он учится и как этот процесс может быть воссоздан или хотя бы имитирован в машинах. Как и Хинтон, он увидел потенциал нейронных сетей и метода проб и ошибок, который Хинтон использовал для обучения и который называется глубоким обучением. «Она становилась все лучше и лучше», — говорит Суцкевер.

В 2012 году Суцкевер, Хинтон и еще один аспирант Хинтона, Алекс Крижевский, создали нейронную сеть AlexNet, которую они обучили определять объекты на фотографиях гораздо лучше, чем любое другое программное обеспечение, существовавшее на тот момент. Это был момент «большого взрыва» глубокого обучения.

После многих лет неудачных попыток они показали, что нейронные сети все-таки удивительно эффективны в распознавании образов. Для этого требовалось лишь больше данных, чем использовалось ранее (в данном случае миллион изображений из набора данных ImageNet, который исследовательница Принстонского университета Фей-Фей Ли собирала с 2006 года), и огромная мощность компьютера.

Шаг вперед в вычислениях был сделан благодаря новому типу чипов, называемых графическими процессорами (GPU), производства компании Nvidia. GPU были разработаны для того, чтобы молниеносно выводить на экраны быстродвижущиеся изображения из видеоигр. Но вычисления, которые хорошо удаются GPU, — умножение массивных сеток чисел — оказались очень похожи на вычисления, необходимые для обучения нейронных сетей.

Сейчас Nvidia — компания с триллионным оборотом. А в те времена она отчаянно пыталась найти применение своему новому нишевому продукту. «Когда вы изобретаете новую технологию, вы должны быть восприимчивы к даже безумным идеям», — говорит CEO Nvidia Дженсен Хуанг. «Я всегда искал что-то необычное, и идея о том, что нейронные сети изменят Computer Science — это была ну очень необычная идея».

Хуанг рассказывает, что Nvidia прислала команде из Торонто несколько графических процессоров для тестирования, когда они работали над AlexNet. Но они хотели получить самую новую версию, чип под названием GTX 580, который быстро раскупался в магазинах. По словам Хуанга, Суцкевер поехал из Торонто в Нью-Йорк, чтобы купить несколько штук. Хуанг рассказывает: «Очереди были огромные. Я не знаю, как он это сделал — уверен, что разрешалось покупать только по одной штуке; у нас была очень строгая политика — один GPU на геймера, — но он, очевидно, как-то заполнил ими багажник. И этот багажник, забитый доверху GTX 580, изменил мир».

Это замечательная история, но она может оказаться неправдой. Суцкевер утверждает, что первые GPU он купил онлайн. Но такое мифотворчество — обычное дело в этом бурном бизнесе. Сам Суцкевер более скромен: «Я думал, что если мне удастся добиться хоть немного реального прогресса, я уже буду считать это успехом. Настоящее воздействие на мир казалось отдаленной от реальности идеей, ведь компьютеры в то время были слабыми».

После успеха AlexNet в компанию постучалась Google. Она приобрела дочернюю компанию Хинтона DNNresearch и наняла Суцкевера. В Google Суцкевер показал, что возможности глубокого обучения по распознаванию образов могут применяться как к последовательностям данных, например, слов и предложений, так и к изображениям. «Илья всегда интересовался языком», — говорит бывший коллега Суцкевера Джефф Дин, который сейчас является главным научным сотрудником Google: «За эти годы у нас было множество интересных бесед. Илья обладает сильным интуитивным чутьем о том, куда все может развиваться».

Но в Google Суцкевер проработал недолго. В 2014 году он стал соучредителем компании OpenAI. Новая компания, получившая 1 млрд долларов (от Альтмана, Элона Маска, Питера Тиля, Microsoft, Y Combinator и других), а также огромную дозу понтов Кремниевой долины, с самого начала взяла курс на разработку искусственного интеллекта, что в то время мало кто воспринимал всерьез.

И вот на борту появился Суцкевер. Тогда его самодовольная манера держаться была вполне объяснима — ведь он был в ударе, получая все больше и больше от нейронных сетей. По словам Далтона Колдуэлла, управляющего директора по инвестициям в Y Combinator, его репутация опережала его, делая его главной добычей.

«Я помню, как Сэм [Альтман] говорил об Илье как об одном из самых уважаемых исследователей в мире», — говорит Колдуэлл. «Он считал, что Илья сможет привлечь множество лучших специалистов в области ИИ. Он даже упомянул, что Йошуа Бенгио, один из ведущих мировых экспертов в области ИИ, считает, что вряд ли можно найти лучшего кандидата, чем Илья, на должность ведущего ученого OpenAI».

И все же поначалу OpenAI чувствовала себя неуверенно. «В начале существования OpenAI я не был уверен в том, что прогресс будет продолжаться», — говорит Суцкевер. «Но у меня было одно очень четкое убеждение: надо делать ставку на глубокое обучение. Так или иначе, каждый раз, когда мы натыкались на препятствие, в течение полугода-года исследователи находили способ его обойти».

Его вера оправдалась. Первая большая языковая модель OpenAI GPT (название расшифровывается как «generative pretrained transformer», то есть «генеративный предобученный трансформер») появилась в 2016 году. Затем появились GPT-2 и GPT-3. Затем DALL-E, поразительная модель преобразования текста в изображение. Никто не создавал ничего подобного. С каждым релизом OpenAI поднимал планку возможного.

Управление ожиданиями


В ноябре прошлого года OpenAI зарелизила бесплатный чат-бот, в котором были переработаны некоторые технологии. Это перевернуло представление обо всей отрасли.

В то время OpenAI даже не представляла, что именно она выпускает. Ожидания внутри компании были низкими, говорит Суцкевер: «К своему стыду, я признаюсь — не знаю, стоит ли, но черт возьми, это правда — когда мы делали ChatGPT, я не был уверен, будет ли он хорош. Когда мы задавали ему предметный вопрос, он давал неправильный ответ. Я думал, что он будет настолько плох, что люди скажут: «Зачем вы этим занимаетесь? Это же так скучно!».

По словам Суцкевера, привлекательным было удобство. Большая языковая модель под капотом ChatGPT существовала уже несколько месяцев. Но если облечь ее в доступный интерфейс и дать бесплатный доступ, то миллиарды людей впервые узнают о том, что создает OpenAI и другие компании.

«Именно этот первый опыт и зацепил людей», — говорит Суцкевер. «Первое взаимодействие с этой системой — это почти духовный опыт. Вы думаете: «Боже мой, кажется, компьютер меня понимает»».

Менее чем за два месяца OpenAI собрал 100 миллионов пользователей, многие из которых были поражены этой новой игрушкой. Аарон Леви, CEO компании Box, занимающейся хранением данных, отразил атмосферу, царившую в течение недели после запуска, в своем посте в Твиттере: «ChatGPT — это один из тех редких моментов в развитии технологии, когда мы видим проблеск того, как все по-другому будет в будущем».

Это чудо рушится, как только ChatGPT говорит какую-нибудь глупость. Но к тому времени это уже не имеет значения. Суцкевер считает, что достаточно просто взглянуть на то, что было возможно. ChatGPT изменил горизонты.

«AGI перестал быть ругательством в области машинного обучения», — говорит он. «Это был поворотный момент. Исторически люди относились к этому так: ИИ не работает, каждый шаг очень труден, нужно бороться за каждую крупинку прогресса. И когда появлялись громкие заявления об AGI, исследователи говорили: «О чем вы говорите? Это не работает. Здесь так много проблем». Но с ChatGPT это стало ощущаться по-другому».

И этот сдвиг стало происходить только год назад? «Это произошло благодаря ChatGPT», — говорит он. «ChatGPT позволил исследователям машинного обучения мечтать».
Будучи с самого начала евангелистами, ученые OpenAI подогревали эти мечты, публикуя посты в блогах и выступая с докладами. И это приносит свои плоды: «Люди стали рассуждать о том, как далеко зайдет ИИ, а также говорить об AGI, или сверхинтеллекте». И речь идет не только об исследователях. «Правительства обсуждают эти темы», — говорит Суцкевер. «Это безумие».

Невероятные вещи


Суцкевер считает, что все эти разговоры о технологии, которой еще не существует (и, возможно, никогда не будет существовать), — это хорошо, потому что благодаря им больше людей узнают о будущем, которое он уже считает само собой разумеющимся.

«С помощью AGI можно сделать очень много удивительных, невероятных вещей: автоматизировать здравоохранение, сделать его в тысячу раз дешевле и в тысячу раз лучше, вылечить очень много болезней, решить проблему глобального потепления», — говорит он. Но многие беспокоятся, удастся ли компаниям, занимающимся ИИ, управлять этой грандиозной технологией.

В таком виде ИИ больше похож на джинна, исполняющего желания, чем на реальную перспективу. Мало кто откажется от возможности спасать жизни и решить проблему изменения климата. Но загвоздка несуществующей технологии заключается в том, что о ней можно говорить все, что угодно.

Что же на самом деле имеет в виду Суцкевер, упоминая AGI? «AGI не является научным термином», — говорит он. «Это удобный порог, точка отсчета».
«Это идея…», — начинает он, затем останавливается. «Это момент, когда ИИ становится настолько умным, что если человек может выполнить какую-то задачу, то ИИ тоже сможет это сделать. В такой ситуации вы можете сказать, что есть AGI».

AGI остается одной из самых противоречивых идей в этой области. Мало кто воспринимает его развитие как данность. Многие исследователи считают, что должны произойти серьезные концептуальные прорывы, прежде чем мы увидим нечто подобное тому, что имеет в виду Суцкевер, а некоторые полагают, что мы никогда этого не увидим.

И все же это видение двигало им с самого начала. «Меня всегда вдохновляла и мотивировала эта идея», — говорит Суцкевер. «Тогда это еще не называлось AGI, но вы знаете, все умеющая нейронная сеть звучит захватывающе. Я не всегда верил, что это возможно. Но это была вершина, на которую стоило подняться».

Он проводит параллель между работой нейронных сетей и мозга. И те, и другие принимают данные, агрегируют сигналы из них, а затем на основе некоторых простых процессов (математических в нейронных сетях, химических и биоэлектрических в мозге) распространяют их или не распространяют. Это большое упрощение, но принцип остается неизменным.

«Если позволить себе поверить в это, то возникает множество интересных последствий», — говорит Суцкевер. «Главное следствие заключается в том, что если у вас есть очень большая искусственная нейронная сеть, то она должна делать очень многое. В частности, если человеческий мозг может что-то делать, то и большая искусственная нейронная сеть может делать что-то подобное».

«Если отнестись к этому пониманию достаточно серьезно, то из этого следует все», — говорит он. «И большую часть моей работы можно объяснить именно этим».
Раз уж мы заговорили о мозгах, мне захотелось спросить об одном из постов Суцкевера на X (ранее Twitter). Лента Суцкевера похожа на череду афоризмов: «Если вы цените интеллект выше всех других человеческих качеств, вам придется несладко»; «Роль эмпатии в жизни и бизнесе недооценена»; «Идеальное уничтожило много идеально хорошего».

В феврале 2022 года он написал: «Возможно, современные большие нейронные сети обладают небольшим сознанием». На что Мюррей Шанахан, главный научный сотрудник Google DeepMind и профессор Имперского колледжа Лондона, а также научный консультант фильма Ex Machina, ответил: «… в том же смысле, в каком может быть большое поле пшеницы немного макаронами».

Суцкевер смеется, когда я поднимаю эту тему. Троллил ли он? Нет. «Вы знакомы с концепцией больцмановского мозга?» — спрашивает он.

Он имеет в виду (не без иронии) мысленный эксперимент в квантовой механике, названный в честь физика XIX века Людвига Больцмана, в котором случайные термодинамические флуктуации во вселенной представляются как причина появления и исчезновения мозга.

«Мне кажется, что сейчас эти языковые модели похожи на мозг Больцмана», — говорит Суцкевер. «Вы начинаете говорить с ним, говорите немного, потом перестаете, и мозг как бы...» Он делает руками исчезающее движение. Пуф — и прощай, мозг.

«Вы хотите сказать, что пока нейронная сеть активна, пока она, так сказать, работает, там что-то есть?» — спрашиваю я.

«Думаю, что да», — отвечает он. «Я не знаю точно, но это возможность, против которой очень трудно возразить. Но кто знает, что происходит на самом деле, верно?»

ИИ, но не такой, каким мы его знаем


В то время как другие пытаются придумать машины, способные сравниться с человеком по интеллекту, Суцкевер готовится к появлению машин, способных превзойти нас. Он называет это искусственным сверхинтеллектом: «Они будут видеть вещи глубже. Они будут видеть то, чего мы не видим».

Опять же, мне трудно понять, что это значит на самом деле. Человеческий интеллект — это наш эталон интеллекта. Что Суцкевер подразумевает под интеллектом, превосходящим человеческий?

«Мы уже видели пример очень узкого сверхинтеллекта в AlphaGo, — говорит он. В 2016 году ИИ компании DeepMind, играющий в настольные игры, обыграл Ли Седоля, одного из лучших игроков в Го в мире, со счетом 4:1 в пяти партиях. Он понял, как играть в Го способами, отличными от тех, которые человечество вырабатывало тысячелетиями. И предложил новые идеи.

Суцкевер указывает на печально известный «ход №37» AlphaGo. Во второй игре против Седоля ИИ сделал ход, который поставил комментаторов в тупик. Они решили, что AlphaGo облажался. На самом деле это был выигрышный ход, который никто никогда не видел в истории игры. «Представьте себе такой уровень проницательности, но во всем», — добавляет Суцкевер.

Именно эта мысль привела Суцкевера к самому важному шагу в его карьере. Вместе с Яном Лейке, коллегой-ученым из OpenAI, он создал группу, которая будет заниматься так называемым суперсогласованием. Жаргонизмом «согласование» (Alignment) называется порядок вещей, при котором ИИ-модели делают только то, что вы хотите, и ничего больше. Суперсогласование (Superalignment) — это термин OpenAI, обозначающий согласование применительно к сверхинтеллекту.

Цель состоит в том, чтобы разработать набор отказоустойчивых процедур для создания и контроля этой будущей технологии. OpenAI заявляет, что выделит пятую часть своих огромных вычислительных ресурсов на решение этой проблемы и решит ее за четыре года.

«Существующие методы согласования не будут работать для моделей, более умных, чем человек, поскольку они в своей основе предполагают, что человек может достоверно оценить то, что делают системы ИИ», — говорит Лейке. «По мере роста возможностей систем ИИ они будут брать на себя более сложные задачи». А это, по идее, приведет к тому, что человеку будет сложнее их оценивать. «Создавая вместе с Ильей команду по суперсогласованию, мы поставили перед собой задачу решить эти будущие проблемы согласования», — добавляет он.

«Очень важно сосредоточиться не только на потенциальных возможностях больших языковых моделей, но и на их рисках и недостатках», — говорит Дин, главный научный сотрудник Google.

Компания громко анонсировала этот проект в июле. Но для некоторых это оказалось очередной фантазией. Пост OpenAI в Twitter вызвал пренебрежительный ответ со стороны известных критиков в бигтехе, в том числе Абебы Бирхане, работающей над вопросами ответственности ИИ в Mozilla («Так много грандиозных, но пустых слов в одном посте»); Тимниты Гебру, соучредительницы Исследовательского института распределенного искусственного интеллекта (Distributed AI Research Institute) («Представьте себе ChatGPT, еще более «суперсогласованный», с технарями из OpenAI. *брр*»); и Маргарет Митчелл, главный специалист по этике в компании Hugging Face, занимающейся разработкой ИИ («Мое соответствие больше, чем ваше»). Действительно, они не первый раз выражают несогласие. Но это серьезное напоминание о том, что там, где одни видят OpenAI лидирующим, другие видят его примыкающим с краю.

Но, по мнению Суцкевера, суперсогласование — это неизбежный следующий шаг. «Это нерешенная проблема», — говорит он. По его мнению, над этой проблемой работает недостаточно исследователей машинного обучения, таких как он сам. «Я занимаюсь этим в своих собственных интересах. Очевидно, это важно, чтобы любой созданный сверхразум не стал мошенником. Очевидно».

Работа по суперсогласованию только началась. По словам Суцкевера, это потребует больших изменений в исследовательских институтах. Но у него уже есть пример для подражания: машина, которая смотрит на людей так, как родители смотрят на своих детей. «На мой взгляд, это золотой стандарт. Как правило, люди действительно заботятся о детях». (Есть ли у него дети? «Нет, но я хочу», — говорит он).

Время, отведенное на интервью, подошло к концу. Но он в ударе и хочет подсветить еще одну мысль.

«Когда мы преодолеем проблему ИИ-мошенника, что тогда? Есть ли вообще в мире с более умными ИИ место для человека?» — говорит он.

«Вероятно — это может выглядеть безумно по сегодняшним меркам, но не будет настолько безумно по меркам будущего — многие решат стать частью искусственного интеллекта». Суцкевер говорит, что таким образом люди будут пытаться идти в ногу со временем. «Сначала только самые смелые, авантюристы будут пытаться это сделать. Возможно, за ними последуют другие. Или нет».

Я спрашиваю, сделает ли он это, будет ли он одним из первых? «Первым? Не знаю», — говорит он. «Но я думаю об этом. Может быть».

Комментарии (7)


  1. AjnaGame
    01.11.2023 11:59
    +2

    Очень, видимо, хочется ему еще протянуть хайп. Но по факту практически всем уже пофик, и вся эта тема ушла в несколько ниш и как бы всё...


    1. Peter_Severa
      01.11.2023 11:59
      +1

      Ну ну


  1. vagon333
    01.11.2023 11:59

    Наверное глупость, но с момента знакомства с компами в 80х, когда променял электронику на программирование, я впервые за 30+ лет вдохновлен настолько-же сильно новыми возможностями AI.
    Вот, правда, для меня GPT4 и GPT API - ежедневные инструменты, повышающие продуктивность и освобождающие для креатива.

    И я с нетерпением ожидаю Episodic memory, Modular AI, и толпу разных AI агентов, которые будут выполнять для общества самые разные задачи, от заботы о здоровье, с тракингом, анализом, предсказанием и предупреждением, до массы креативных задач.


  1. Miceh
    01.11.2023 11:59

    Мне не понятен смысл применения "мыслит", "осознаёт" к натренированным моделям ML. Модель поставляется либо с фиксированным набором весов, либо в pre-trained состоянии, подразумевающим fine-tuning, что опять-таки продуцирует фиксированный набор весов. Где там мысль? Ладно бы они в процессе работы научились себе топологию менять, хоть как-то имитируя постоянное создание новых связей мозга, но ведь, насколько знаю, и эта, топологическая, часть - фиксирована.


    1. MikeVentris
      01.11.2023 11:59

      Человеческий мозг мыслит? Ответ очевиден. При этом его топология и веса меняются существенно медленнее, чем скорость мышления (топология в большинстве областей мозга вообще фиксируется раз и на всегда при развитии мозга, оставляя только возможность к деградации, а меняются только веса). Отсюда вывод: процесс мышления != изменению топологии нейронной сети.

      При этом мы, как люди, наличие мышления оцениваем не по передаче нервных импульсов в мозгу, а по их импакту, то есть по "выводу" - речи, письму, мимике, действиям. У людей в коме, ведь, электрическая активность мозга сохраняется, но мыслями и сознанием мы это не называем.

      Резюмируя, применительно к цифровым нейронкам, под мышлением подразумевается не способность нейронки перестраивать топологию (хотя технически это ничем не запрещается), а способность выдавать соответствующий контексту/адекватный "вывод" - письмо, речь, изображение, видео etc.

      PS: если говорить про изменение топологии, то иногда кажется что и человеку не плохо бы иметь возможность зафиксировать топологию и веса нейронки в одном состоянии, которое наиболее эффективно решает какой-то спектр задач, дабы не терять навыки и не скатываться в переобучение, которое замыливает глаз.


      1. Miceh
        01.11.2023 11:59

        Топология мозга в постоянном изменении, уверен Вы знаете об отмирании нейронов начиная с определенного возраста и постоянном образовании новых связей на протяжении всей жизни (можно почитать\послушать Савельева на эту тему).
        Конечно, я не утверждал "мышление == морфология мозга", это было лишь как гипотеза в какую сторону могло бы пойти развитие.
        Я скорее про то, что "знания" ML модели - это фиксированные веса + алгоритм, что не кажется похожим на мышление.


        1. MikeVentris
          01.11.2023 11:59

          Поэтому я и написал не об отсутствии изменений в топологии мозга, а о несоответствии темпов мышления и этого самого изменения.

          А по поводу того, что веса + алгоритм не похожи на мышление, интересно будет услышать ваше мнение насчет того, что же похоже.