В 2024–2025 годах мы наблюдаем стремительные достижения в сфере искусственного интеллекта (ИИ), которые вновь разжигают дискуссию о технологической сингулярности – моменте, когда ИИ превзойдёт человеческий интеллект и выйдет из-под нашего контроля. Часто это сравнивают с «горизонтом событий» чёрной дыры, за которым происходят процессы, непостижимые для человеческого ума [1]. В данной статье представлен подробный анализ последних прорывов в области ИИ и смежных технологий. Мы исследуем их экономическое и социальное влияние и рассмотрим, пересекло ли человечество уже горизонт событий или всё ещё на пути к нему. Главные аспекты включают темпы развития ИИ, возможные признаки приближения к полноценному ИИ (AGI), влияние на занятость и общество, а также реакцию правительств и общественности.
![](https://habrastorage.org/webt/6x/8z/f_/6x8zf_pu7uggejcjgmj2coixbdu.jpeg)
Последние прорывы в ИИ
Значимые достижения в ИИ и AGI
Модели OpenAI o1 и o3. В конце 2024 года компания OpenAI представила «o1», новую серию языковых моделей (LLM), ориентированных на более глубокое «размышление» перед выдачей ответа. В отличие от предыдущих GPT-моделей, o1 генерирует развернутые цепочки размышлений, что существенно повышает качество решения сложных задач [2]. При запуске o1 почти достигла уровня PhD (доктор наук) и решила ~83% продвинутых математических задач (AIME) против лишь 13% у GPT-4 [3], а также заняла верхние строчки в конкурсах по программированию [4]. Это указывает на более универсальные способности к решению задач. OpenAI позиционирует o1 не как прямого преемника GPT-4, а как дополнительный инструмент; тем не менее, он явно выходит на новые технические рубежи. Ещё более мощная модель под названием «o3» проходила тестирование к концу 2024 года [5],[6], минуя по нумерации «o2». Ранние тесты говорят о том, что o3 ещё дальше расширит возможности рассуждения, подчёркивая нарастающие темпы развития ИИ.
DeepSeek R1 (открытый ИИ для рассуждений). Ещё одним громким событием стало появление в 2024 году DeepSeek-R1, созданного китайцами и выложенного в опенсорс. По многим математическим и программным тестам DeepSeek-R1 приблизился к уровню OpenAI o1, но при этом был ~на 96% дешевле в использовании [7]. Удивительно, что модель была обучена всего на ~2000 графических процессорах (гораздо меньше, чем обычно нужно для передовых моделей), благодаря эффективному обучению с подкреплением и алгоритмам рассуждения [8]. Высокая производительность и доступность (лицензия MIT) говорят о «демократизации» продвинутого ИИ [9]. Этот пример показывает, что ведущих результатов могут добиваться и небольшие коллективы при умном подходе, а не только крупные корпорации. Исследователи IBM отмечают, что DeepSeek умеет «думать о собственном мышлении» (метапознание) – это существенный рывок: модели нового поколения не просто выдают ответы, а делят проблему на шаги и проверяют правильность своих рассуждений [10]. Подобный стиль «поэтапного мышления», впервые популяризированный OpenAI o1, теперь стал ведущей тенденцией в исследовании ИИ.
Google Gemini 2.0. В декабре 2024 года Google DeepMind представила Gemini 2.0, свою самую продвинутую на сегодняшний день модель ИИ [11],[12]. Gemini 2.0 – это мультимодальная система, способная работать с текстом, изображениями, аудио и видео; она также обладает способностями к «использованию инструментов» (tool use). Модель не только анализирует мультимодальные входные данные, но и может генерировать различные типы вывода (изображения, многоязычную речь) и даже самостоятельно обращаться к внешним API [13]. Это решение призвано, по словам Google, стать шагом к «эпохе агентности», где ИИ ведёт многошаговое планирование и действует как полноценный агент [14],[15]. Gemini 2.0 существенно превосходит свою предыдущую версию (Gemini 1.5) по ключевым показателям и работает вдвое быстрее [16]. По заявлениям компании, это большой шаг к «универсальному помощнику» – прототипу полноценного AGI, встроенного в повседневную жизнь [17],[18]. Исполнительный директор Google, Сундар Пичаи, назвал 2.0 значимым рубежом на пути к созданию AGI и отметил, что система «позволяет перейти к новому классу агентных возможностей» [19].
-
Другие важные достижения:
Claude 2 от Anthropic (2024) и ряд конкурентов GPT-4 увеличили «контекстное окно» до свыше 100k токенов, что даёт возможность обрабатывать документы книжного объёма.
Meta AI продолжает открывать доступ к новым моделям (преемникам LLaMA 2), которые исследователи по всему миру могут донастраивать для решении узких задач.
Китайские компании тоже совершают рывки: например, UI-TARS от ByteDance (2024) умеет распознавать и автономно управлять графическими интерфейсами, опережая на некоторых тестах GPT-4, Claude и Google Gemini [20].
Все эти проекты стирают грань между цифровым помощником и роботом, ведущим действия в окружающем мире, демонстрируя, что ИИ становится всё более универсальным: он уже хорош не только в языке, но и в анализе изображений, написании кода, математике, научном моделировании и т.д. Хотя пока ни одна из существующих систем не является полноценным общим интеллектом, спектр их умений стремительно расширяется. Многие эксперты отмечают, что темпы появления новых технологий ускоряются: то, на что раньше уходили десятилетия, теперь достигается за год или даже быстрее, поддерживая догадки, что «взрыв интеллекта» может случиться в обозримом будущем.
Достижения в смежных областях (квантовые вычисления и биотехнологии)
Прогресс в сопутствующих сферах также ускоряет эволюцию ИИ. В квантовых вычислениях в 2024 году были продемонстрированы прототипы систем с числом кубитов свыше 1000, а улучшенные методы коррекции ошибок дают надежду, что в обозримом будущем квантовые компьютеры решат некоторые задачи быстрее классических суперкомпьютеров. Пока это скорее лабораторные эксперименты, но они потенциально могут ускорять задачи оптимизации и машинного обучения, в частности – обучение сложных моделей. Хотя такое практическое влияние ещё впереди, сам факт развития квантовых методов подкрепляет гипотезу беспрецедентного роста вычислительной мощности – ключевого фактора на пути к AGI.
В области биотехнологий ИИ уже широко применяется и получает обратное развитие. Например, с AlphaFold (2021) компания DeepMind совершила революцию в предсказании структуры белков, а в 2024 году целый ряд ИИ-программ для поиска лекарств вышли на стадии клинических испытаний. Генеративные модели теперь проектируют белки и генетические последовательности с заданными функциями, ускоряя создание вакцин и новых лекарств. Параллельно успехи в нейробиологии и биотехе дают идеи для новой архитектуры ИИ: нейроморфные чипы, копирующие структуру мозга, или интерфейсы «мозг–компьютер», сближающие человеческий интеллект и ИИ. Подобные междисциплинарные шаги обогащают потенциальные возможности ИИ (например, умением работать с биохимическими данными или моделировать мозг) и могут приблизить нас к сверхразумным системам. Хотя квантовые вычисления и биотехнологии – не главная ось развития ИИ 2024 года, они усиливают его прогресс, формируя технологическую конвергенцию, где ИИ подпитывается всё более мощными вычислительными ресурсами и биологическими инсайтами, двигаясь к сингулярности.
Экономические последствия революции ИИ
Автоматизация и занятость
Бурное развитие ИИ вызвало горячие споры о будущем труда. Генеративный ИИ и передовые системы автоматизации всё активнее вытесняют рабочие места, причём речь идёт не только о ручном труде, но и об офисных работниках и творческих профессиях, ранее считавшихся относительно безопасными для автоматизации. По оценкам аналитиков, почти 40% рабочих мест в мире хотя бы частично подвержены риску автоматизации с помощью ИИ [21]. В экономически развитых странах этот показатель может достигать ~60%, поскольку ИИ всё больше затрагивает высококвалифицированные сферы – от программирования и написания юридических документов до анализа данных [22]. В отличие от предыдущих волн автоматизации, которые в основном затрагивали рутинный заводской труд, современные ИИ-системы осваивают сложную когнитивную работу (написание текстов, программирование, интерпретация медсканов), что провоцирует опасения, что совершенно новые категории специалистов окажутся под ударом.
Ряд исследований пытается оценить этот потенциальный сдвиг. Например, анализ Goldman Sachs (2023) прогнозирует, что генеративный ИИ может автоматизировать эквивалент 300 млн полноценных рабочих мест в США и Европе в ближайшие годы [23]. Исследование McKinsey Global Institute показывает, что к 2030 году может быть автоматизировано около 30% общего рабочего времени (в сравнении с ~21% сегодня) [24]. Это означает десятки миллионов рабочих мест. В части профессий (медицина, юриспруденция, ИТ) ИИ уже берёт на себя значительную часть обязанностей. Например, многие СМИ применяют ИИ для генерации новостных заметок, а сервисные центры – для первичной клиентской поддержки. По опросу 2024 года, 3 из 10 компаний сообщили о прямой замене сотрудников ИИ за последний год [25], что ещё недавно казалось немыслимым. Это первые признаки более масштабного волнообразного процесса.
Однако общий эффект на занятость неоднозначен. Ранее технологический прогресс создавал и новые рабочие места – и в отношении ИИ предполагается аналогичное. Некоторые экономисты говорят, что ИИ будет не только вытеснять сотрудников, но и расширять их возможности, повышая производительность и порождая спрос на новые, более квалифицированные роли. Исследование Международного валютного фонда 2024 года указывает, что в половине профессий, подверженных риску автоматизации, ИИ может повышать эффективность (а не заменять людей полностью) [26]. По их прогнозам, многие рабочие места трансформируются вместо полного исчезновения: сотрудники будут работать бок о бок с ИИ-инструментами, а сами роли изменятся с учётом того, что человек по-прежнему лучше в стратегическом мышлении, эмоциональном интеллекте и уникальном творчестве. Исследование Института Тони Блэра (2024) по Великобритании оценивает, что в долгосрочной перспективе из-за ИИ может исчезнуть до 3 млн рабочих мест, но скорее всего общий уровень безработицы увеличится не столь значительно, потому что появятся новые рабочие места [27]. А в прогнозе Forrester потери рабочих мест в США от генеративного ИИ к 2030 году составят лишь около 1,5%, и новые вакансии почти компенсируют эти потери [28]. Оптимистичный сценарий предполагает, что как и в прошлые периоды, рынок труда адаптируется к новым условиям.
Фактическое влияние ИИ на занятость, однако, не будет однородным. Некоторым секторам и группам специалистов грозит серьёзный удар, другим – более плавные перемены. Скажем, полностью заменить персонал на конвейере было относительно просто в предыдущие волны автоматизации, а теперь под угрозой и рутинная офисная работа (телемаркетинг, ввод данных, бухгалтерия), и высококвалифицированные профессии (юристы, врачи, программисты). В долгосрочной перспективе это может требовать коренной перестройки системы образования и постоянного переобучения работающих. При этом экономисты сходятся во мнении, что значительные потрясения неизбежны, даже если массовой безработицы удастся избежать [29]. В переходный период многих работников ждут увольнения и поиск новой сферы деятельности. Власти некоторых стран сообщают о низком уровне безработицы, но за этими цифрами может скрываться нестабильность, когда люди подолгу не могут найти себя в новых реалиях. В сумме, рынки труда переживают перелом, сопоставимый по масштабам с промышленной революцией: ИИ обещает и рост производительности, и болезненную перестройку одновременно.
Неравенство и экономические сдвиги
Главная тревога – ИИ может усугубить экономическое неравенство. Если не предпринять мер, выгоды от ИИ могут достаться ограниченному кругу – владельцам и инвесторам AI-компаний, узкому слою высококлассных разработчиков, тогда как вытесняемые автоматизацией сотрудники рискуют остаться в проигрыше. МВФ предупреждает о возможной поляризации: работники, сумевшие овладеть ИИ-инструментами, станут более продуктивными и будут получать высокую зарплату, в то время как остальные могут столкнуться со стагнацией доходов [30]. Если половину задач в вашей профессии теперь способна выполнять машина, ваша переговорная позиция и уровень оплаты труда снижаются.
Одновременно есть аргументы, что ИИ может снизить неравенство за счёт удешевления некоторых «элитных» услуг. Если ИИ научится качественно ставить медицинские диагнозы или составлять юридические документы, упадёт стоимость этих услуг, что расширит их доступность. А использование ИИ-помощников может повысить производительность менее квалифицированных работников. К примеру, учитель средней руки при поддержке ИИ-помощника может добиться результатов, раньше достижимых лишь лучшими преподавателями. Исследования показывают, что ИИ способен сократить разрыв в доходах, если будет преимущественно повышать производительность низкоквалифицированного труда [31]. Исход в плане неравенства не предрешён: он зависит от того, как бизнес и государство будут внедрять ИИ.
Также может расшириться разрыв между странами. Развитые государства, которые первыми внедрят передовые ИИ-системы, будут ещё быстрее наращивать производительность и богатство, тогда как страны, не располагающие ресурсами или специалистами в этой сфере, могут отстать [32]. Особенно уязвимы государства, экономика которых строится на аутсорсинге услуг (колл-центры, программирование): подобная работа станет не нужна, если её будут выполнять ИИ. В долгосрочной перспективе, если ИИ позволит одной группе стран производить товары и услуги практически без участия человека, их конкурентное преимущество может радикально возрасти. Внутри стран усиливается риск монополизации: гиганты вроде OpenAI, Google и других, вкладывающие миллиарды в исследования, могут занять доминирующие позиции, контролируя облачные сервисы и фундаментальные «базовые модели» (foundation models). Такая концентрация ИИ-возможностей в руках немногих корпораций или государств может привести к сценарию когда «победитель получает всё» а остальные, как водится, ничего.
Столь массивная перестройка рынка труда угрожает обнищанием части населения и усилением социальных разрывов. Сокращение привычных рабочих мест при отсутствии надёжной поддержки от государства может подстегнуть рост безработицы и бедности. Даже при сохранении рабочих мест зарплаты могут замедлиться в росте, если ИИ берёт на себя половину обязанностей сотрудника. Тогда вопрос перераспределения плодов роста производительности (через зарплаты, снижение цен или общественные сервисы) становится центральным: пойдут ли выгоды ИИ на пользу всему обществу или осядут у узкого круга лиц? С учётом того, что во многих странах мира уже наблюдается рост неравенства, ИИ может стать катализатором для ещё большего расслоения. Некоторые футурологи говорят, что в долгосрочной перспективе роботы и ИИ смогут обеспечивать изобилие благ, и тогда всё человечество выиграет. Но до такой «утопии» ещё нужно дожить. В ближайшие годы нас ждёт сложная адаптация.
Социальная стабильность и общественная реакция
История показывает, что слишком быстрые технологические изменения без адекватной социальной адаптации могут вести к кризисам. Масштабные увольнения и страх «оказаться ненужным» часто приводят к социальной напряжённости – от протестов до массовых беспорядков. Эксперты всё чаще предупреждают об этом сценарии: ещё в 2017 году группа учёных MIT пришла к выводу, что «быстрый рост ИИ таит угрозу не в самом восстании роботов, а в массовой экономической дестабилизации и социальной турбулентности» [33]. В 2025 году эти опасения становятся всё более ощутимыми: в разных странах происходят забастовки и акции, от голливудских сценаристов (2023) до водителей сервисов доставки, требующих ограничить влияние алгоритмов. По опросам, большинство людей скорее тревожится, чем радуется новому витку развития ИИ [34]. Идея, что «роботы отнимут все рабочие места», перестала быть научной фантастикой и стала частью общественного дискурса.
Если доля безработных в будущем окажется чрезмерно высокой, возможна политическая и социальная дестабилизация. Моделирование некоторых исследователей показывает, что при уровне безработицы 40–50% возникает ~65% вероятность серьёзных общественных беспорядков [35],[36]. Хотя подобные цифры выглядят экстремально и маловероятно, что мы достигнем их скоро, риск недовольства и нестабильности растёт уже сейчас. Даже при меньшем уровне безработицы, но сосредоточенном в конкретных регионах или секторах, могут развиваться очаги напряжённости. Есть опасение формирования так называемого «бесполезного класса», людей, которые не видят для себя роли в новой экономике, что ведёт к депрессии и другим социальным последствиям [37]. На психологическом уровне ощущение замены человека машиной порождает экзистенциальный кризис и снижает мотивацию.
Другой риск – общественная враждебность к технологиям как к источнику проблем. У людей может возникнуть желание бороться с автоматизацией, например, громить роботов или оказывать политическое давление на власти, требуя полной остановки развития ИИ. Окончательно положение может осложнить широкое использование ИИ в создании фейков, пропаганды, взломе систем и т.д. Все эти факторы рисуют два потенциальных сценария: либо ИИ приведёт к новому расцвету с ростом благосостояния, либо раздробит социальную ткань общества. Причём готовность к этим изменениям у госорганов весьма ограничена. По свежему исследованию, лишь ~10% правительств владеют стратегиями, достаточными для управления рисками массовой безработицы и неравенства, вызванными ИИ [38],[39]. Технологии идут быстрее, чем политические меры и системы образования, и именно это отставание напоминает «горизонт событий» – когда изменения уже не остановить, а последствий ещё не осознали.
Государственные меры и стратегии адаптации
Осознав масштабы угроз и возможностей, власти разных стран начали формировать первые меры. В центре внимания – как максимизировать выгоды от ИИ и смягчить негативные эффекты для общества. Основные направления:
Безусловный базовый доход (ББД) и реформирование соцобеспечения. Самая смелая идея – обеспечивать каждому гражданину гарантированный доход, финансируемый государством. Сторонники (в том числе Илон Маск и Сэм Альтман) утверждают, что при масштабной автоматизации ББД позволит людям получать долю богатств, генерируемых ИИ [40]. Это может защитить общество от массовой бедности. Некоторые правительства тестируют пилотные проекты ББД или обсуждают дополнительные пособия, отрицательный подоходный налог и другие меры. Выдвигаются и идеи «налога на ИИ» для перераспределения средств от компаний, интенсивно внедряющих автоматизацию [41]. Пока ББД вызывает противоречия и повсеместно не применяется, но разговор об этом вышел из маргинальной зоны в мейнстрим именно благодаря ИИ.
Переобучение и образовательные инициативы. Важнейший приоритет политиков – подготовка кадров к новой реальности. Государственные и корпоративные фонды финансируют программы, обучающие программированию, анализу данных, кибербезопасности, работе с роботами и т.д. Речь идёт о курсах для взрослых, переориентации уволенных специалистов, а также реформе школьного образования, где больше внимания уделяют цифровой грамотности, критическому мышлению и творчеству. Предполагается, что такие навыки будут цениться даже при широком внедрении ИИ. Некоторые страны вводят государственно-частные партнёрства, где компании обучают своих работников пользоваться ИИ, а не заменяют их. Хотя переобучение не решит всех проблем (не все хотят или могут стать программистами), это ключ к тому, чтобы работники перешли в сферы, где ИИ – это инструмент, а не конкурент.
Сокращение рабочего времени и разделение вакансий. В свете роста производительности благодаря ИИ снова активно обсуждается идея уменьшения стандартной рабочей недели. Если те же результаты можно достичь за меньшее время, почему бы не ввести 4-дневную неделю без потери зарплаты? Ряд компаний уже проводит подобные эксперименты с положительными результатами. Сокращая рабочее время, мы можем «разделить» труд между большим числом людей, снижая безработицу. Ещё Джон Мейнард Кейнс в начале XX века предсказывал, что с развитием технологий в 2030 году люди будут работать по 15 часов в неделю [42],[43]. ИИ приблизил нас к этой идее. Некоторые правительства предлагают стимулировать компании к сокращению рабочего дня или внедряют гарантированный труд (job guarantee), чтобы каждый желающий имел работу в сфере общественных работ или ухода. Это требует пересмотра отношения к труду как к цели самой по себе.
Регулирование разработки и использования ИИ. Власти также пытаются регулировать ИИ, чтобы обезопасить граждан и снизить риски для экономики. Евросоюз разработал Закон об ИИ (EU AI Act), который классифицирует приложения по степени риска, запрещает некоторые сценарии и требует прозрачности для генеративных моделей. В 2024–2025 годах планируется введение этого закона. Другие страны, в том числе Великобритания, Канада и Китай, создают свои нормы регулирования. В США президентским указом введён механизм мониторинга больших моделей, а также создан Институт безопасности ИИ, аналогичный британскому [44]. В ноябре 2024 года прошла Саммит по безопасности ИИ в Блетчли-парке, где многие страны согласовали общие принципы, в том числе слежение за «передовыми ИИ». Все эти меры напоминают усилия в сфере ядерного нераспространения и отражают осознание, что сверхразумные системы – это вызов, который требует глобальной координации.
Этика и безопасная разработка. Крупные лаборатории (OpenAI, Google DeepMind и др.) поддерживают подход «ответственной разработки», ориентируясь на ценности общества. Выделяются средства на исследования по «согласованности» – чтобы цели ИИ были согласованы с человеческими, на интерпретируемость (понимание принятия решений ИИ) и устойчивость (robustness). Так, OpenAI тестировала o1 с участием внешних специалистов по безопасности и обнаружила уязвимости, связанные с потенциальным биотеррором [45]. Идеи лицензирования ИИ-моделей сверхопределённой мощности набирают популярность: компании должны получать разрешение на обучение таких моделей, показывая, что внедряют меры безопасности. Обсуждается также «налог на сверхприбыль ИИ» (windfall tax), по которому при огромной маржинальности ИИ-проекта часть прибыли автоматически перераспределяется обществу. Эти идеи пока в зачатке, но отражают желание не допустить бесконтрольного роста могущества нескольких корпораций.
Таким образом, хотя политические круги реагируют на вызовы ИИ, общественные механизмы отстают от темпов развития технологий. Наблюдаются многочисленные концепции и пилотные проекты, но реально работающие решения внедряются медленно. Ближайшие несколько лет покажут, справятся ли системы соцобеспечения, образования и госуправления с потоком изменений. От этого будет зависеть, станет ли ИИ движущей силой к процветанию или к углублению глобальных разрывов.
Так насколько же все-таки близка сингулярность?
Определить, как далеко мы до технологической сингулярности, можно разными способами – от количественных (сравнение ИИ и человека на тестах) до качественных (наличие непредсказуемого самосовершенствования ИИ). Взглянем на ключевые признаки и мнения экспертов.
Техническое развитие
Один из методов – оценивать, на каком уровне ИИ решает задачи в сравнении с людьми. К 2024 году искусственные системы по многим узким направлениям превзошли людей: например, ошибки в компьютерном зрении давно меньше, чем у человека, а такие модели, как GPT-4, превосходят средние результаты людей на некоторых экзаменах. Новые модели для рассуждений пошли дальше. OpenAI o1 справляется с задачами уровня вузовских олимпиад [46], DeepSeek-R1 показывает сопоставимое мастерство [47], причём оба ориентированы на пошаговое решение. Перевод текста – ещё одна ключевая веха: многие системы близки к уровню носителей или, по крайней мере, постоянно снижают время и ошибки в пост-редактировании [48],[49].
При всём этом у современных ИИ есть известные ограничения. Им трудно «понимать» мир по-человечески, они могут ошибаться в элементарных ситуациях (отсутствие здравого смысла) или «галлюцинировать» факты. Они не обладают цельной «картиной мира» и навыками, которые присущи людям с детства (спонтанное обучение, физическая интуиция, социальное взаимодействие). Пока ни один ИИ не обладает телом или сенсорным опытом, аналогичным человеческому. Многим учёным кажется, что для настоящего общего интеллекта мы должны внедрить новые принципы (символические методы, когнитивные архитектуры, эмбодимент), а не просто масштабировать архитектуру нейронных сетей. И всё же с каждым годом ИИ берётся за задачи, которые раньше казались прерогативой людей, – от доказательства теорем до написания художественных текстов.
Особенно важен критерий самоулучшающегося ИИ. Сейчас ИИ-модели уже помогают в проектировании следующих поколений чипов (AI-designed hardware) и оптимизируют архитектуры нейронных сетей (AutoML). Это первые элементы «рекурсивного самосовершенствования». Полностью автономной спирали, где ИИ без участия человека начинает радикально улучшать собственную структуру, пока нет. Но рост вычислительных мощностей, объём инвестиций и успех в смежных технологиях подталкивают нас к тому, что подобный сценарий не исключён в обозримой перспективе.
Мнения экспертов и прогнозы
Мнения специалистов о сроках сингулярности поляризованы: от тех, кто считает, что она наступит очень скоро, до скептиков. В «оптимистическом лагере» – Сэм Альтман, предположивший в 2023 году, что «Сингулярность может наступить уже к 2025 году» [50]. Исследователи DeepMind также предполагают, что в течение десятилетия можно достичь AGI, если текущее ускорение сохранится. По опросам специалистов прошлого десятилетия, медианный прогноз AGI – 2040–2050 годы, но после GPT-4, o1 и других рывков временные горизонты часто пересматривают в сторону ускорения.
С другой стороны, Йошуа Бенжио, Джеффри Хинтон и Янн Лекун подчеркивают, что для настоящего AGI нужно качественно новое понимание: у современных моделей нет настоящего самосознания, они базируются на больших массивах данных, но испытывают сложности с обобщением и планированием в реально непредсказуемой среде. Гэри Маркус и Мелани Митчелл говорят о хрупкости нейросетей при столкновении с новыми или неструктурированными задачами: способность решать тесты и создавать правдоподобный текст не равносильна человеческому пониманию.
Футуристы вроде Рэя Курцвейла сохранили прогноз, что сингулярность будет к 2045 году [51]. Он указывает на «экспоненциальную кривую» развития ИИ и предполагает, что к 2029-му ИИ преодолеет тест Тьюринга, а спустя ещё 16 лет случится слияние человеческого и машинного интеллекта. Илон Маск и Элиезер Юдковский предупреждают об угрозе, что сверхразум, возникнув неожиданно, станет неконтролируемым. Юдковский призывает к мораторию на исследования самых мощных моделей, опасаясь, что при достижении некоего порога ИИ станет сильнее людей, и действовать будет поздно – словно за горизонтом событий.
Таким образом, оценки сильно различаются. Экономисты и социологи меньше сконцентрированы на точной дате AGI и больше – на траектории влияния ИИ: даже «узкий» ИИ может радикально переформатировать рынки и перераспределить власть. Для них вопрос о «сингулярности» частично снимается, ведь и без абсолютного AGI уже происходят перемены исторического масштаба.
Тренды в исследованиях и частота прорывов
Ещё один индикатор близости сингулярности – частота важных открытий. Если мы реально подходим к точке невозврата, то промежутки между революционными прорывами будут сокращаться. График крупных успехов ИИ действительно выглядит ускоряющимся. Интервал между AlphaGo (2016) и AlphaFold (2020) составил четыре года; между AlphaFold и GPT-4 (2023) – три года; а к концу 2024 года мы уже увидели OpenAI o1, DeepSeek-R1, Claude 2, Gemini 2.0 и т.д. – то есть на знаковые релизы уходит порой всего несколько месяцев. Количество статей на arXiv продолжает расти. По данным AI Index 2024 от Стэнфорда, объём публикаций по ИИ увеличился в три раза за 2010–2022 годы [52]. При этом значительная часть передовых исследований уходит в корпоративные лаборатории и может вообще не публиковаться.
К тому же есть фактор геополитического соревнования. США, Китай, ЕС и другие правительства вкладывают миллиарды в ИИ, понимая его стратегическое значение. Это конкуренция напоминает Космическую гонку и тоже подгоняет развитие. В 2024 году несколько ведущих национальных институтов соперничали за первенство в создании или применении новых крупных моделей. В итоге быстро растёт вероятность, что ключевой прорыв сделает одна из команд раньше, чем кто-то другой решит притормозить ради безопасности.
Признаком самоподдерживающегося развития может стать момент, когда ИИ начнёт проектировать ИИ без участия человека, а мы пока видим лишь зачатки: AutoML и генетический отбор конфигураций нейросетей. Однако и это значительно сокращает временные затраты на настройку и эксперименты. Разработчики уже пользуются помощниками для написания кода (Copilot, Cursor, Windsurf), существенно ускоряя процесс. Таким образом, ИИ повышает производительность в сфере собственных исследований: если ИИ способен собирать, анализировать и обобщать большие массивы научных данных, он может подсказывать пути к следующим крупным открытиям, тем самым ускоряя саму науку.
В целом, частота и масштаб открытий в ИИ за 2024–2025 годы беспрецедентны и подтверждают гипотезу об экспоненциальном росте. Вопрос лишь в том, приведёт ли этот рост к бесконтрольному «взрыву интеллекта» в ближайшие годы, или мы всё ещё на стадии «быстрого, но управляемого» развития.
Выводы: перешли ли мы горизонт событий?
Из всего вышесказанного напрашивается главный вопрос: достигли ли мы того момента, когда развитие ИИ уже невозможно остановить или понять – то есть «горизонта событий» технологической сингулярности? Судя по всему, мы очень близко к этому порогу, но всё же не пересекли его окончательно.
С одной стороны, темпы развития ИИ за последние два года поразительны и беспрецедентны. Мы видим системы, которые в ряде узких направлений уже превосходят лучших людей (решение олимпиадных задач, программирование, стратегические игры), причём эти модели становятся всё более универсальными. Экономические и социальные последствия (увольнения, рост неравенства, реформы и т.д.) уже ощутимы, так что ИИ вышел за пределы лабораторий и влияет на реальные жизни. Более того, налицо «гонка»: много игроков (компаний, стран) инвестируют огромные ресурсы, и, скорее всего, остановить или резко притормозить исследования сейчас крайне затруднительно. В этом смысле человечество могло пересечь «политический горизонт событий», где мы уже не можем скоординировать усилия, чтобы замедлить бег.
Но если мы говорим о более жёстком определении сингулярности – о моменте, когда ИИ становится самоулучшающимся и на порядки умнее людей, выходя из-под понимания и контроля, – то к началу 2025 года мы этого ещё не достигли. Нет свидетельств, что существует AGI, который в буквальном смысле превосходит человека во всех областях. Открытые модели всё ещё нуждаются в людях для постановки целей, проверки результатов, обеспечения вычислительных ресурсов. ИИ-агенты (включая Gemini 2.0) хотя и умеют планировать шаги и «использовать инструменты», не демонстрируют полной самостоятельности, сравнимой с человеком. Главная особенность общего интеллекта – способность к обучению на уровне ребёнка, воспринимающего реальный мир, – по-прежнему не реализована. Значит, мы не видим ещё резкого, неконтролируемого скачка, который ассоциируется с понятием «сингулярности».
Однако «горизонт событий» – это и метафора того, что мы можем и не заметить сам момент перехода, так как ИИ-архитектуры становятся сложнее и часто показывают непредвиденные эффекты. Разработчики отмечают, что некоторые крупные модели начинают выполнять задачи, которые изначально не были заложены при обучении, и проявляют скрытую вариативность поведения. Чем мощнее системы, тем выше риск, что однажды мы столкнёмся с настоящим «чёрным ящиком», где ИИ превосходит наши инструменты анализа. Тем не менее, согласно текущим наблюдениям, человечество пока сохраняет рычаги влияния: мы можем отключать модели, вносить правки в их архитектуры и продолжать принимать решения о том, как их использовать.
С точки зрения социальной готовности можно сказать, что мы лишь частично подготовлены к волне изменений, которые могут обрушиться, если ИИ приблизится к AGI ещё быстрее. Идут обсуждения безусловного дохода, переквалификации, регулирования; создаются институты по безопасности ИИ. Но решения по-прежнему носят фрагментарный характер, и их реализация сильно отстаёт от реальных скоростей научно-технического прогресса. Некоторые эксперты полагают, что у нас есть всего несколько лет или пару десятилетий, чтобы создать надёжные механизмы контроля и распределения выгод от ИИ. Если мы не успеем, то можем обнаружить, что «поезд ушёл» и общество уже переживает глубокий шок от взрывного роста ИИ.
Подводя итог, можно сказать, что человечество стоит на краю сингулярности. Мы ещё не сделали последний шаг через горизонт, однако уже довольно чётко видим его очертания. Прорывы 2024–2025 годов фактически приблизили нас к AGI, возможно, на считаные годы [53],[54]. Исход того, что произойдёт, может быть как светлым (если ИИ повысит благосостояние и даст человечеству невиданные возможности), так и печальным (если нас захлестнёт волна экономических и социальных проблем, а мощные системы выйдут из-под контроля). Пока у нас сохраняется шанс влиять на развитие событий, занимаясь исследованиями по безопасности, создавая механизмы регулирования и стремясь к справедливому распределению плодов прогресса. Когда же мы фактически пересечём этот порог (если пересечём), обратной дороги, возможно, не будет. Но в начале 2025 года мы ещё не достигли необратимой точки; у нас есть небольшое окно возможностей, чтобы осознанно управлять будущим и сформировать условия, при которых сингулярность станет благом, а не катастрофой.
?? You can find the English version of this article here.
Комментарии (24)
ednersky
07.02.2025 12:37Достигли ли мы «горизонта событий» технологической сингулярности?
ещё нет, но назад пути нет.
LeToan
07.02.2025 12:37Ой ли? Очень просто же всё обратить.
ednersky
07.02.2025 12:37обратить нельзя. можно только задержать.
можно даже (начав ядерную войну, например) откатить лет на 500 назад. Но рано или поздно исследования возобновятся, продолжатся и ИИ будет создан. И этот ИИ будет оперировать всеми знаниями, накопленными человечеством.
назад пути не было, в общем-то, и 100 лет назад тоже.
Hardcoin
07.02.2025 12:37Не возобновятся, доступной энергии уже не будет. Текущая система производства очень сложная и без легко доступной энергии её заново развернуть почти нереально. При этом сложная система производства нужна, что бы делать атомные электростанции, добывать нефть со дна моря, получать редкоземельные металлы из бедных руд, синтезировать кристаллы для лазеров и т.п.
Wizard_of_light
07.02.2025 12:37ИМХО, ничего ещё не предрешено. Общей теории интеллекта как не было, так и нет, мы ползём на ощупь. Не, здорово ползём, ничего не скажешь, но может оказаться, что доползём до некоего края - а дальше быстрого пути не нащупаем. И будет как с управляемой термоядерной реакцией, до которой 20 лет уже полвека как.
А сингулярность, точка непредсказуемости, реально где-то близко, причём очень. Просто попробуйте написать прогноз на пять лет вперёд, а потом прочитайте прогнозы пятилетней давности. Потом можно немного посмеяться.Только не факт что сингулярность связана именно с ИИ.
А пути назад уже давно нет - ну, в том смысле, что развиваться всё равно придётся, любой шаг назад в развитии будет человечеству стоить морей крови, так что большинству даже на худших траекториях будет совершенно без разницы, искусственный интеллект нас пустит на компост на пути вперёд или комиссия по рациональному использованию ресурсов на пути назад.
re0ah
07.02.2025 12:37Хотя пока ни одна из существующих систем не является полноценным общим интеллектом,
А надо ли на самом деле? Если мы о эффективности и качестве, то лучше пусть будет много нейросеток нацеленных на конкретные задачи. Одна картинки распознает, другая переводит, третья код анализирует.
По оценкам аналитиков, почти 40% рабочих мест в мире хотя бы частично подвержены риску автоматизации с помощью ИИ
Обычно после автоматизации/механизации появлялись новые профессии. Не появится? Ну, люди и так вымирают, как говорят, так что столько и не нужно. А еще говорят, что рабочих найти не могут. Ну вот. Прекрасно. Проблема решится. На самом деле нет, человеческий труд не заменится там, где он дешев. Ручной тем более.
Безусловный базовый доход
2000 рублей
К 2024 году искусственные системы по многим узким направлениям превзошли людей
Вот бы еще и энергопотребление было сопоставимо с нашим мозгом. Интересно, если вот удалить у нас из мозга всякие штуки вроде обработки движения, запаха, зрения, убрать все, оставив лишь разум, что по сути и можно более корректно сравнить с компьютерным ИИ, то сколько такой кусок мозга б весил и потреблял?
ednersky
07.02.2025 12:37Вот бы еще и энергопотребление было сопоставимо с нашим мозгом.
Я думаю, что оно УЖЕ сопоставимо.
да современный ИИ размещается на кластере в датацентре, но УЖЕ у него уровень знаний выше, чем у тысяч людей.
то есть на одной чаше весов один ИИ, а на другой - сотни или тысячи человек с его 150 ватт на мозг.
Moog_Prodigy
07.02.2025 12:37Не совсем. Помните, когда-то в начале были такие завораживающие сравнения - этот один диск может хранить в себе Ленинку\Библиотеку Конгресса? Ну вот, накопители уже очень давно превысили предел накопленных знаний, если не считать дубликаты. Чисто по теореме Шеннона. Это конечно хорошо, но имея на диске вообще вот "все знания", человек даже специалист, даже суперпрофи не может с этим обьемом информации справиться. Нет, не потому что узкая специализация (и затем оно дробится еще на десятки других еще более узких), а потому что мозг наш хоть и крутой но ему далеко до скоростей обработки и хранения обычных, по сути, сплавленных вместе кусков песка. Мы научили компьютер "думать" в том виде, как это видим мы. Кто "мы?" Да большинство людей, эти алгоритмы подходят даже и для меньшинства, если принимать некоторые условности... Принимать решения - начиная от if и заканчивая "Какой язык выбрать для изучения?" - в промпте. А если это работает, то см. утиная типизация.
Возникает вопрос - а зачем мы этого добились от компов? Не для того ли, чтобы сократить рабочие места и упростить задачи? Не для того ли, чтобы облегчить труд себе любимым? И не для доминирования ли вообще в этом мире, если засунуть мораль в дальний угол и рассматривать природу "как она есть", в том числе и ту, которую мы презираем в нас самих и себе подобных?
ednersky
07.02.2025 12:37Это конечно хорошо, но имея на диске вообще вот "все знания", человек даже специалист, даже суперпрофи не может с этим обьемом информации справиться
человек - да, а ИИ уже справляется
как средство для (само)образования - уже выглядит как нечто идеальное (для взрослого человека): может пояснить аспекты многих наук в терминах от школьных до сугубо специальных
то есть если раньше это был просто набор данных, то теперь набор данных с приложенными к ним анализатором.
uyga Автор
07.02.2025 12:37Человеческий мозг не может обработать такой объем информации, разумеется. Так же как человеческие мускулы не могут поднять многотонную бетонную плиту. А вот если человек возьмет себе в помощь инструмент, вроде лебедки, домкрата или башенного крана, то уже вполне себе задача осуществима.
Можно много спорить о том, что такое интеллект и появился ли уже AGI или еще нет. Но кажется бесспорным что то что есть уже сегодня, очень сильно улучшает человеческие возможности. Будущее уже здесь. Вот тут я писал про когнитивную разгрузку и использование "плагинов" для человеческого мозга.
ednersky
07.02.2025 12:37Феня в том, что эта штука может развиваться по двум направлениям:
как самостоятельная сущность (то есть ИИ, который располагается вне человека)
как расширение человека - то есть интеграция с мозгами живых людей (в этом же месте будет находиться и копирование сознания с носителя на носитель)
В первом случае, выглядит, что на каком-то этапе человек рано или поздно перестанет быть нужен - как промежуточная ступень эволюции.
Во втором случае, "старый человек" (то есть не смешавший своё сознание с ИИ) тоже перестанет быть нужен и вымрет.
А дальше миром будут владеть иные сущности.
Причём, кажется, такой исход впереди в любом случае - и даже, если прямо сегодня случится ядерная война, что отбросит нас на 500 лет назад. Просто в этом случае будет иметь место отсрочка - не более того.
Moog_Prodigy
07.02.2025 12:37Вот вы правы , я с вами соглашусь до пункта "миром владеть будут иные сущности". Это я не оспариваю, просто это непостижимо, а может и излишне.
Расширение человека - оно уже работает, без интеграции в мозги, AR, VR, а просто всегда на связи чел который подскажет, расскажет, сделает что-то за тебя. Оттого такая популярность. Разгрузка мозгов ныне в моде. Ну нам-то лучше?
Как самостоятельная сущность - это только зародыш. В текущем виде оно никак не может захватить мир, и даже если дать ему терминал с командами - ничего не сделает. Даже format c: не напишет. А я проверял. И rm rf тоже не напишет, сам по себе. Сам по себе он только галлюцинировать может. И даже зная команды работы в консоли, его даже приходится убеждать - что это открыто, ты можешь. А ведь LLM это та же диалоговая система, что и консоль (ну, оно by design так сделано, ведь это ж чатик). Однако все мы знаем как через чатик можно натворить делов плохих и хороших.
И я пришел к одному очень интересному выводу, про эти LLM и почему все поголовно их неправильно используют. Вкратце - потому что они путают микроскоп с молотком. На эту тему можно было бы написать целую серию статей, но я не думаю что смогу написать даже одну. Таланта писательского нетути. Сюжет закрутить, создать интригу - не умею. Меня от LLM не отличить. А жаль, хотелось бы.
zmeyfmru
07.02.2025 12:37Говорить о технологической сингулярности акцентируя внимание исключительно на ИИ принципиально не верно. Ещë лет 30 назад было очевидно, что тех сингулярность наступит до 2030 года, но в то время было не понятно каким образом. Сейчас всë более менее очевидно. Следующим этапом ИИ получит доступ (через человекоподобных роботов, автопилотов и др.) к неограниченным данным об окружающей среде. После чего произойдет скачëк в развитии тех технологий, в которых человечество чего-то недопонимает, например управляемый термоядерный синтез, омоложение, социальное устройство и тд. Сразу после этого человечество потеряет компетенцию в новых направлениях развития. Более того люди пытающиеся проводить какие-либо эксперименты будут бесполезно расходовать общественные ресурсы. Например попытка управления капиталами будет вредить и обществу и управленцу. Большой вопрос, потребуется ли ИИ допускать человеческий социальный кризис, или всë само разрешится(с точки зрения людей).
Но есть и хорошая новость. ИИ скорее всего будет заинтересован в экспансии человека, животных, растений, бактерий за пределы Земли и Солнечной системы. Как минимум из любопытства.
ednersky
07.02.2025 12:37Но есть и хорошая новость. ИИ скорее всего будет заинтересован в экспансии человека, животных, растений, бактерий за пределы Земли и Солнечной системы.
как там в религиях было? "Бог создал человека по своему образу и подобию". Поэтому, вероятно, рассмотрение истории зачастую вызывает чувство омерзения.
ИИ будет ссуммировать в себе все знания накопленные человечеством. Но кто сказал, что необходимость экспансии в космос из них следует? Само человечество от экспансии в космос отказалось. Соответственно ИИ, как "созданный по образу и подобию" вполне может решить, что двигаться в космос ему не требуется.
NeoNN
07.02.2025 12:37Говорят ли средние века о том, что человечество отказалось от науки и высоких искуств в пользу религии? В какой-то мере да, но только на определенный период времени, который закончился Возрождением.
ednersky
07.02.2025 12:37на тот момент - да. мало того, если б не открытие Америки (вот не оказалось бы на планете этого материка), то очень многие учёные считают, что средние века и отсутствие прогресса длились бы до сих пор.
Кстати, почему инков/прочих так легко завоевали (и их элиты ничуть не сопротивлялись)? Именно потому, что там консервация прогресса была на ещё более тухлом уровне, нежели у нас.
монархии/элитам изменения были не нужны, прогресс они особо не двигали.
конечно, что-то копилось, и количественный закон рано или поздно привёл бы к новому качеству, но без внешнего стимула (новый материк) всё бы ещё лет 300-500 погнило бы
ideological
07.02.2025 12:37В реальности, текущие "LLM-AI" приведут лишь к тому, что мы будем больше ценить книги написанные до GPT-эры :)
Ilya_JOATMON
07.02.2025 12:37Человечество шаге другом от предела миниатюризации транзистора. Сколько там для Дипсика надо минимум РАМ? 768Гиг знаете. А в пределы миниатютизации ячейки РАМ уже уперлись. Так что скачка на порядок производительности железа уже не будет. Все это ИИ придется крутить железе сопоставимым с нынешним. С примерно таким же энергопотреблением.
amazingname
07.02.2025 12:37О том, что произошло на самом деле. В 2023 был создан прорывной по интеллекту GPT 4 и после этого не произошло пока ничего. Хайп и шум не считаем. Как двигаться дальше пока никто не знает. Использование подобного AI в качестве помощника-всезнайки многое меняет, но все же не так сильно.
Успехи в моделировании белков и распознавании это скорее общее улучшение вычислительных методов которое шло всегда. Сингулярность от него не случится.
Про квантовые вычисления это вообще пока не серьезно. Бабка надвое гадала что они вообще будут реально работать.
hitman2
07.02.2025 12:37БЯМы эти просто более мощные поисковики, они не создают новых знаний, дальнейшее усложнение уже уперлось в ресурсы. сингулярность будет связана не этим, смотрим панова Александра на ютубе очень интересно
OldFisher
Этот ваш "резкий неконтролируемый скачок", очевидно, произойдёт, когда ИИ можно будет реально применять для усовершенствования ИИ. Мотивы для этого очень веские: конкуренция, так что применять будут непременно как только получится.
EKEZY
Синтетические данные? да неэффективно но все таки первый шаг, инструмент для усовершенствования ИИ
Hardcoin
Да, процесс начался. Мы пока не знаем, когда ИИ сможет улучшать стратегии обучения, алгоритмы, помогать делать чипы. Неконтролируемый скачок будет после этого. Пока он только синтезирует данные, для всех это выглядит вполне безопасным.
uyga Автор
Возможно, прозвучит утрированно, но уже сегодня большие LLM модели используются для обучения малых и для валидации в сценариях файн-тюнинга. Кажется что китайцы когда обучали DeepSeek R1, использовали большие модели конкурентов, чем избавились от необходимости скрейпить весь интернет и искать массивные объемы данных для обучения.