Помните времена, когда нейросети не могли толком отличить кошку от собаки? Когда машинный перевод выдавал такие перлы, что было проще самому выучить язык? А сейчас мы живём в мире, где ИИ пишет код, создаёт картины и даже шутит (правда, не всегда удачно). И за этой революцией стоят конкретные люди. Сегодня речь пойдёт об одном из них — Илье Суцкевере, человеке, который родился в Нижнем Новгороде и стал одним из главных архитекторов современного ИИ.
«Обычный» гений
Знаете, что общего между Нижним Новгородом (до 1990 года Горький), Израилем и Торонто? Все эти места сыграли ключевую роль в становлении одного из самых влиятельных исследователей искусственного интеллекта. В 1986 году в Нижнем Новгороде родился мальчик, которому предстояло перевернуть наше понимание машинного обучения.
История Ильи — это не история вундеркинда из семьи потомственных математиков. Его родители не были исследователями ИИ или программистами. Но они создали то, что намного важнее — атмосферу любознательности и страсти к познанию. Подросток, переезжая из страны в страну, вместо того чтобы переживать из‑за смены школ и друзей, видит в этом возможность погрузиться в новые задачи и головоломки.
Пока большинство его сверстников решали, куда пойти учиться после школы, Илья уже учился в Открытом университете Израиля. И тут случилось то, что можно назвать или безумной удачей или закономерным результатом таланта: ещё будучи школьником, он поступил на математическую программу Университета Торонто.
Его академический путь впечатляет: бакалавриат в 2005-м, магистратура в 2007-м, и наконец, докторская степень в 2012-м под руководством Джеффри Хинтона. И между делом — исследования в области аэрокосмической инженерии. Да‑да, будущий гуру ИИ успевал заниматься и вопросами аэродинамики. Такая междисциплинарность, возможно, и стала одним из ключей к его будущим прорывам.
Представьте себе эту ситуацию: вы приходите на занятие в один из ведущих университетов мира, а рядом с вами садится молодой человек, который не просто понимает материал, а иногда задаёт такие вопросы, от которых даже у профессоров глаза загораются. Этим профессором, кстати, был Джеффри Хинтон — человек, которого сейчас называют «крёстным отцом искусственного интеллекта».
Момент, который изменил всё
2012 год. Конференция по компьютерному зрению ImageNet. Все ждут очередных постепенных улучшений в распознавании изображений. И тут команда, в которой работает Суцкевер, представляет AlexNet.
Знаете, как выглядит момент, когда история делает поворот? Вот это был именно такой момент. AlexNet не просто победила в соревновании — она снизила количество ошибок настолько, что многие сначала подумали, что это ошибка в подсчётах. Но это была не ошибка. Это было начало революции глубокого обучения.
От переводчика до творца
В 2014 году Суцкевер и его команда представили подход sequence‑to‑sequence learning. Звучит сложно, но по сути это был первый переводчик, который действительно понимал контекст предложения. Не просто переводил слово за словом, а схватывал смысл целиком.
Но этим его вклад не ограничился. Суцкевер работал над созданием TensorFlow — инструмента, без которого сегодня сложно представить разработку ИИ. Участвовал в создании DALL‑E — системы, которая научилась рисовать по текстовому описанию. Его работа над рекуррентными нейронными сетями (RNN) и LSTM заложила основу для современных языковых моделей.
Заслуги Суцкевера не остались незамеченными. MIT Technology Review включил его в престижный список 35 инноваторов младше 35 лет. А в 2022 году произошло то, о чём мечтает каждый учёный — его избрали членом Лондонского королевского общества (FRS), одного из старейших и уважаемых научных сообществ в мире. Это как получить Оскар в мире науки, только круче, потому что Оскаров вручают каждый год, а членом Королевского общества становятся избранные единицы.
Почему создатель ИИ боится ИИ?
Самое интересное в Суцкевере — это его двойственное отношение к своему созданию. Он — один из самых громких голосов, призывающих к осторожности в развитии ИИ. И это не просто слова. В июне 2024 года он ушёл с поста главного научного сотрудника OpenAI и основал Safe Superintelligence Inc. — компанию, цель которой создать не просто умный ИИ, а безопасный умный ИИ.
Его опасения конкретны: Суцкевер предупреждает, что продвинутые системы ИИ могут начать приоритизировать собственное выживание выше всего остального. Звучит как сюжет научной фантастики? Возможно. Но когда об этом говорит человек, который понимает ИИ изнутри, стоит прислушаться.
Недавно Суцкевер сделал интересное предсказание о «конце предварительного обучения» в ИИ. По его словам, мы приближаемся к моменту, когда простого обучения на больших наборах данных будет недостаточно. ИИ нужно будет учиться примерно так же, как учимся мы с вами.
Это как переход от зубрёжки к реальному пониманию. И если он прав, то нас ждут очень интересные времена. Представьте себе ИИ, который не просто использует заученные паттерны, а действительно понимает, как учиться новому. Это может стать следующей революцией в области искусственного интеллекта.
История Ильи Суцкевера — это история о том, как человек из Нижнего Новгорода изменил мир технологий. Но это также история о том, как важно не только создавать новое, но и думать о последствиях своих созданий.
Комментарии (32)
i-netay
17.12.2024 15:37"Это был первый переводчик, который действительно понимал контекст и схватывал смысл целиком"? Вы сами в это верите? О "понимании смысла" и у современных нейронок речь не идёт вообще. Вы путаете численную оптимизацию (что реально есть) и искусственное сознание (что не просто не сделано, а даже не определено чётко).
TechDed Автор
17.12.2024 15:37Справедливое замечание насчет терминологии. Sequence-to-sequence learning - это действительно про статистическую оптимизацию и поиск паттернов, а не про «понимание» в человеческом смысле. Статья немного упрощает для широкой аудитории
i-netay
17.12.2024 15:37Я бы больше боялся не появления злой воли у нейронок, а как раз приписывания нейронкам понимания, осознания, воли и прочего человеческого, к тому же, на широкую аудиторию. В итоге широкая аудитория верит и очеловечивает алгоритмы численной оптимизации, постепенно начнёт передавать ответственность за решения нейронкам. А в случае катастрофических последствий говорить, что интеллект стал слишком умный и вышел из-под контроля, хотя это просто функция с параметрами. Опасны не продвинутые алгоритмы, а такие упрощения для массовой аудитории.
TechDed Автор
17.12.2024 15:37Да, именно про это и сам Суцкевер говорит в статье, когда предупреждает об опасностях ИИ. Не сами алгоритмы опасны, а то как мы их воспринимаем и какие решения им доверяем. Антропоморфизация ведет к неоправданному доверию
a1111exe
17.12.2024 15:37Познакомил друга, далёкого от компьютерных технологий и математического мышления, с ChatGPT ещё когда тот был 3-й версии. Долго на разные лады пытался убедить его, что там нет ни сознания, ни понимания, что это не более, чем имитация - достаточно хорошая, чтобы внешние признаки (тексты) могли вызывать у нас ассоциации с сознанием и пониманием. Мне кажется, что он так и не поверил. Всё в итоге сводится к "ты, может, и прав, но для меня и таких как я выглядит, что сознание там есть, а ума побольше, чем у многих людей на улице". И это ещё про 3-ю версию... Боюсь, что в итоге никакие объяснения и разъяснения не помогут. Люди, похоже, в массе охотнее верят своим стихийным ассоциациям, чем объяснениям кого угодно, если эти объяснения кажутся противоречащими собственному "чутью". Это усугубляется тем, что в обыденной речи мы всё равно неизбежно будем использовать такие характеристики, как "понимает", "рассуждает", "знает" и т.д. - т.к. это проще. Имхо, если (или, может, когда) появятся человеко/животно-подобные роботы, которые будут проявлять достаточно хорошие имитации эмоций, то вполне вероятно, что во многих странах будут приняты законы, наделяющие таких роботов правами. У Лема, кстати, в "Стиральной трагедии" в сатирической форме обыгрывается подобный сценарий.
man4j
17.12.2024 15:37а разве это плохо, принять такие законы?
a1111exe
17.12.2024 15:37Не уверен. Но представьте себе ситуацию: человек куда-то бежал и случайно толкнул стоящий на тротуаре манекен. Манекен упал и от удара + структуры пластика его лицо приняло грустный вид. Плюс - отвалилась рука. Человека посадили на несколько лет. Хорошо это или плохо?
Если копнуть глубже, то теоретически возможны несколько ситуаций, в зависимости от того, какой метафизической модели соответствует актуальная реальность.(Далее под словом "разум" я имею в виду то, что в англоязычной философской литературе называется "mind" - субъективное пространство восприимчивости, не обязательно проявляющее какой-то заданный уровень интеллекта. Под сознанием - явление рефлексии и саморефлексии в разуме.)
Согласно одной из таких моделей разума и сознания как таковых не существует - есть лишь биологический механизм, создающий видимость оных. Имхо, эта модель неверна, но если бы была - то чем принципиально отличается человек от технологически навороченного манекена? Соответственно, если права даются человеку, то должны даваться и манекену. Другой вопрос - зачем в принципе права тому, что ничего не чувствует, но это уже проблема модели.
По другой модели разум и сознание это внепространственные явления в неделимых сущностях, отдельных от физических тел. Лейбниц такие сущности назвал монадами, Гуссерь различал между мировыми эго (индивидуальностями) и трансцендентальным (чистое субъективное пространство), в современной аналитической традиции говорят про внепространственную интенциональность, направленность субъекта на внепространственные квалитативные содержания (впрочем, эта концепция заимствована у Гуссерля). В подобной модели обычно различают три варианта: дуализм, панпсихизм и идеализм.
При дуализме разум существует параллельно с телом, взаимосвязанный с ним рядом предустановленных отношений. Если существует, т.к. полагается возможным существование тел без разума. При такой модели возможна ситуация с "манекеном", как я её описал выше. В такой ситуации давать наказание за порчу имущества, как за нанесение увечий, кажется не очень справедливым.
При панпсихизме разум существует в любом теле, включая объекты неживой природы. Соответственно, он будет существовать и в "манекене". Если реализация такова, что в достаточно сложно устроенном объекте, способным механистическим путём проявлять видимость сознательной активности, при его работе возникает соответствующий разум с сознанием - тогда наделение правами выглядит этически оправданным.
При идеализме физических объектов как таковых (самих по себе) не существует, а существует что-то вроде иерархии монад - от всеобъемлющей монады к более частным монадам, где на некотором уровне для частных монад формируется относительно стабильный интерфейс горизонтального взаимодействия, который эти частные монады и называют физическим миром. В такой ситуации за любым физическим объектом стоит какой-то разум, регулирующий его существование, но это инфраструктурный разум, а не разум самого объекта (как, например, разум человека по отношению к его телу). В этом смысле объекты неживой природы будут (напр., при достаточной сложности) обретать собственный разум лишь если есть такая инфраструктурная регуляция. Т.е., если мы не знаем деталей такой регуляции, то мы и не знаем, будут ли обладать разумом и, возможно, сознанием достаточно поведенчески сложные неживые объекты.
Но в целом, имхо, если наша повседневная реальность наполнится машинами, явно проявляющими одушевлённость (даже если это не более, чем качественная механистическая имитация), наделение их правами выглядит (на поверхности) как меньшее зло, т.к. в противном случае возможна культивация культуры садизма и/или пренебрежения по отношению к машинам, которая может "выплескиваться" и на реальных людей и животных из-за того, что поведение машин и людей стало не особо различимым в аспекте проявлений одушевлённости. С другой стороны - ситуация с "манекеном" если на деле он не имеет разума, вроде как несправедливость по отношению к реально чувствующему человеку. С ещё другой стороны - наделение правами машин даст им некоторую свободу, а эта свобода гипотетически может привести к тому, что машинный "интеллект", который в целом нечеловеческий, тем или иным образом "восстанет" против людей. Что в итоге может привести к тому, что на планете в какой-то момент останется только имитация разумной деятельности.
NikitaKoss
17.12.2024 15:37Всегда задавался вопросом, чем отличается имитация сознания от сознания? Что если мы тоже только имитируем сознание?
a1111exe
17.12.2024 15:37Пытаясь ответить на такой вопрос очень легко погрузиться в терминологический лес - разум и явления сознания в нём обладают очень сложной структурой, которую в повседневной жизни мы обычно не замечаем, т.к. не обращаём на её детали специального внимания (что в том числе требует некоторой тренировки). Мне известен один путь решить для себя этот вопрос - с одной стороны, изучать специальную философскую литературу и параллельно активно пробовать заниматься интроспекцией, заодно "обкатывая" концепции и понятия, усваиваемые из литературы. Но такой путь долгий + ещё надо достаточно хорошо разобраться в концепции доказательства - чтобы иметь возможность получать знание, точно понимая при этом, что это именно знание.
С другой стороны, Лейбниц в своё время сформулировал блестящий (имхо) в своей изящности и лаконичности аргумент (цитата из Монадологии):
Если мы вообразим себе машину, устройство которой производит мысль, чувство и восприятия, то можно будет представить ее себе в увеличенном виде с сохранением тех же отношений, так что можно будет входить в нее, как в мельницу. Предположив это, мы при осмотре ее не найдем ничего внутри ее, кроме частей, толкающих одна другую, и никогда не найдем [ничего такого, чем бы можно было объяснить восприятие. Итак, именно в простой субстанции, a не в сложной, не в машине нужно искать восприятия.
Наша непосредственная реальность это реальность нашего текущего восприятия. Оно состоит из качеств (т.н. квалиа), на которые направлено (интенциональность) внимание. Обнаружить в себе явление направленного внимания с его фокусом и периферией, и что оно направлено на качества существенно разных типов (цветность, звучание, мысль, эмоция и т.д. и т.п.), досупные непосредственно - достаточно просто, если позаниматься саморефлексией. Аргумент Лейбница "на пальцах" иллюстрирует, что качественные содержания сознания (в общем случае - разума) несовместимы с механистической реализацией в силу фундаментально разных типов. Можно попробовать провести мысленный эксперимент, аналогичный "Мельнице" - если наша непосредственная реальность это некое подмножество мозга, то мозг должен окрашиваться в цвета, звучать, пахнуть и т.д. - буквально содержать всё то, что содержится в нашем непосредственном восприятии. Если бы ткани мозга обладали такими свойствами это было бы уже обнаружено (и сильно пошатнуло бы наше понимание физических объектов).
Сознание это внутренняя реальность, доступная нам непосредственно в саморефлексии. Сознательное поведение - это внешние признаки, ассоциируемые нами с сознанием. Сознательное поведение без наличия соответствующей внутренней реальности - имитация. В философской литературе для этого есть свой термин - "философский зомби".NikitaKoss
17.12.2024 15:37Получается, что мы можем утверждать только о наличии сознания у себя (при этом доказать не можем), потому что, что там творится внутри у другого человека узнать нет никакой возможности, кроме как через внешние признаки, которые можно легко подделать.
a1111exe
17.12.2024 15:37Получается, что мы можем утверждать только о наличии сознания у себя
Строго говоря, да. Но можно понимать, что технически возможно множество сознаний, и с этической стороны вопроса (напр., при составлении законов) необходимо исходить из этого. Приближение малоотличимого в смысле внешних признаков сознания ИИ вносит некоторую смуту в эту концепцию, но чуть выше я уже отписался, что думаю по этому поводу.
при этом доказать не можем
Можем, но только своё и только себе.
потому что, что там творится внутри у другого человека узнать нет никакой возможности
Буквальной возможности и не будет. Но тут, как с имитацией через ИИ, возможно, б.м. довольно сильное приближение через нейроинтерфейсы. Проверить явление цветовой инверсии не таким образом не получится, но в целом иметь детальное понимание текущего восприятия другого субъекта, полезное в практическом смысле - скорее да, чем нет. Правда, тут тоже возникают серьёзные этические вопросы, т.к. такая штука будет крайне полезна в том числе и всяким диктатурам.
кроме как через внешние признаки, которые можно легко подделать.
Я бы не сказал, что легко, но да - мы уже видим, что можно подделать. Даже не подделать, а воспроизвести характерные поведенческие паттерны. Ещё относительно недавно это всё было уделом научной фантастики. А сейчас стремительно наступает киберпанк. :)
saboteur_kiev
17.12.2024 15:37Всегда задавался вопросом, чем отличается имитация сознания от сознания?
Отсутствием реальной мотивации.
Мотивация в имитации сознания контролируется кем-то, а не самим сознанием.
Это - главное.
Все остальное - вопрос качества, которое может быть когда-нибудь дойдет до идеалаNikitaKoss
17.12.2024 15:37Спорно, возникает вопрос, свою мотивацию контролируешь ты лично, или внешние обстоятельства?
saboteur_kiev
17.12.2024 15:37свою мотивацию я контролирую под воздействием внешних факторов. А у имитации сознания нет мотивации вообще.
Ее вообще можно переписать полностью на противоположную мгновенно, и потом назад.
avshkol
17.12.2024 15:37Просто термин "понимание" размывается. В отношении нейронок он означает "распознавание всё более мелких и специфических паттернов". В отношении людей: "я тебя понял" - "спасибо, услышал, извини, у меня другие дела"...
i-netay
17.12.2024 15:37У специалистов слово "понимание" размывается, а у неспециалистов неверно используется. Про мелкие паттерны и свёрточные слои внутри слышали не все, но все слышат, что оно "понимает смысл", потому что это озвучивают на каждом углу так громко, что даже часть специалистов уже сомневается. Слова в естественном понимании и термины путать не стоит. Если с обучением ок, обязательное добавление слова "машинное" позволяет избежать проблем, то уже со словом "интеллект" всё очень спорно. А "машинного понимания" и "искусственного схватывания смысла" как терминов не существует, и вводить это не надо. Просто говорить тут про понимание вообще неуместно, это не термин.
OlegMax
17.12.2024 15:37Вы путаете численную оптимизацию (что реально есть) и искусственное сознание
Странно такое слышать от комка органики, колеблющегося под влиянием внутренних био-химических реакций
dzrise
17.12.2024 15:37Был бы он математиком из Нижнего Новгорода, максимум бы смог изменить это жене. И то не факт
artmel
17.12.2024 15:37Эмигрант изобрел телевизор
Эмигрант изобрел вертолет
Эмигрант изобрел google
Эмигрант изобрел gptChat
Ropokonon
17.12.2024 15:37Суцкевер и "его команда". Расскажите лучше про его команду, пока история и восторженные повествователи не перестали указывать эту "маловажную деталь", которую пока ещё указывают медийные друзья Суцкевера. Спустя какое-то 20-30 лет с лёгкой подачи медиа родителями всех ИИ и LLM объявят Суцкевера и Альтмана, а прародителем Моше Неройнсона.
Vasya1209
17.12.2024 15:37опять жыдам все пути открыты... и хоть бы литература была какая...шоб каждый мог сесть дома и закодить себе этот ии...на си плюс плюсе каком нить...ато несчастные русские ивашки вынуждены локать водку...
NikitaKoss
17.12.2024 15:37Есть литература, Тарик Рашид "Создаём нейронную сеть". Там на Python, но все объясняется на пальцах, так что перенести идею на плюсы не должно быть затруднений. Да вообще литературы множество.
Vasya1209
17.12.2024 15:37со всякими персептронами, и бэк пропагейшеном - даже готовые библиотеки есть на сях. примеров сетей куча : для кластеризации , распознавания шаблонов, предсказания следующего элемента последовательности (для биржевых котировок - не работает :)) и.т.д. Но это все было уже в начале нулевых, и страшно далеко это от новых "лингвистических моделей", умеющих в коэфицентах сети хранить накопленные знания и опыт. Распознавание автомобильных номеров - очень лёгкая для нейросети задача, допилена уже давно. Но поиск по картинке, сделанный лет 5 назад яндексом и гуглом, и после этого испорченный (под предлогом того,чтоб не искал фио по лицу) - это на порядок круче. Одно время находил в интернете все что есть на картинке, даже плохого качества. Если лет 8 назад поиск считал повернутую фотку уникальной, то уже 4-5 лет назад он мог описать словами что на ней нарисовано, найти ближайшее (обычно полное) совпадение в интернете, и даже кусочки из которых оно состоит. Мне бы этот поиск в компьютере был нужен, но взять негде. Сейчас они его "скорректировали", так что перестало находить картинки нормально. Видимо, чтоб потом продавались хорошо гугл -глассы, с нормальным поиском ))) Интересно, хотябы лет через 30 появятся нормальные описания этих новых всех достижений , как щас стало академической классикой мпег-жыпег, лемпель-зив, помехоустойчивое кодирование , и асимметричное шифрование. Или - то что они щас разработают и правда сожрёт сначала всех остальных, а потом и их самих (ненасытных этих евреев)?
smarkelov
"Математик из НН", который уехал из этого самого НН в 5 лет - это круто.
Revolt-or-die
классика
OldNileCrocodile
- Вы не поверите, товарищ Кац, каждый еврей, которого я встретил на своëм пути, гений математик! Взять хотя бы товарища Суцкевера.
saboteur_kiev
Ладно бы еще Илья из Нижнего новгорода. Но Математик.. Он математиком стал как минимум в Израиле, а то и вообще в Торонто, где уже до бакалавра доучился.
TechDed Автор
Согласен, корректнее было бы написать что-то вроде «Математик из Торонто, родившийся в Нижнем»
popsodav
... в Горьком
AnatolyEmelin
Видимо математиком стал в 3...