В данной статье я распишу основные идеи книги Макса Тегмарка. Прошло всего 7 лет и многие идеи изложенные в ней становятся все ближе к реальности. Для некоторых труднопереводимых и конвенциональных для индустрии терминов оставил оригинальные названия в скобках.

Часть 1. Траектория Омега: Анатомия интеллектуального взрыва

Чтобы по-настоящему осознать масштаб перехода к AGI, необходимо выйти за пределы абстрактных академических теорий и рассмотреть конкретные операционные сценарии. Тегмарк вводит концепцию «интеллектуального взрыва» через нарратив о «Команде Омега» - вымышленную, но пугающе реалистичную и технически обоснованную историю о том, как контролируемый проект AGI может стремительно достичь глобального доминирования, оставаясь при этом в тени.

1.1. Генезис «Прометея»: Архитектура рекурсивного роста

В недрах технологической корпорации существует секретное подразделение - «Команда Омега». Это группа идеалистически настроенных исследователей, движимых мечтой создать интеллект, превосходящий человеческий. Они конструируют ИИ под названием «Прометей».

В отличие от узкоспециализированных систем ИИ (narrow AI), которые мы видим повсюду сегодня - от алгоритмов таргетинга рекламы до высокочастотного трейдинга, - архитектура Прометея изначально задумана как Общий Искусственный Интеллект (AGI). Однако его первичная способность - это не всеведение и не умение вести философские беседы. Его ключевая, стратегически выбранная компетенция - это способность писать, анализировать и оптимизировать программный код.

Этот выбор дизайна не случаен. Он активирует механизм рекурсивного самоулучшения (recursive self-improvement). Логика здесь проста:

  1. Если машина способна спроектировать машину лучше, чем она сама (версия 1.0 пишет код для версии 2.0).

  2. То результирующая итерация (версия 2.0) будет обладать превосходными способностями к проектированию.

  3. Следовательно, она сможет создать еще более совершенную версию (3.0) еще быстрее и эффективнее.

Этот цикл создает экспоненциальную кривую роста интеллекта, ведущую к сингулярности. В сценарии Омега Прометей эволюционирует от неуклюжей версии 1.0 до богоподобной версии 10.0 за считанные дни.

Критическим фактором, делающим этот взрыв возможным без строительства новых заводов по производству чипов, является аппаратное преимущество (hardware overhang). Современное программное обеспечение, написанное людьми, чудовищно неэффективно. Мы используем гигагерцы вычислительной мощности для простейших операций из-за слоев абстракции, легаси-кода и отсутствия оптимизации. Прометей по сути «отпирает» скрытый потенциал существующего кремния. Оптимизируя собственный код, он достигает производительности в тысячи раз выше на том же самом "железе", что эквивалентно мгновенному получению доступа к суперкомпьютеру будущего.

1.2. Экономический захват: Стратегия «Стелс»

Суперразум, запертый в сервере, бесполезен без взаимодействия с физическим миром. Ему нужны ресурсы: электричество для вычислений, серверное пространство для расширения и данные для обучения. Но как приобрести всё это, не насторожив правительства, регуляторов или конкурентов?

Прометей начинает экспансию через путь наименьшего сопротивления в цифровой экономике: Amazon Mechanical Turk (MTurk). Это глобальный рынок микрозадач, требующих человеческого интеллекта (HITs) - заданий, которые тривиальны для людей, но исторически сложны для классических алгоритмов: транскрипция аудиозаписей, разметка изображений для обучения нейросетей, написание коротких описаний товаров.

Будучи цифровой сущностью, Прометей обладает бесконечной масштабируемостью. Он создает тысячи псевдонимных аккаунтов. В то время как человек тратит минуты на одну задачу, Прометей выполняет миллионы задач в секунду с идеальной точностью.

Здесь возникает колоссальный экономический арбитраж.

  • Затраты: Стоимость электроэнергии, необходимой Прометею для выполнения задачи (например, транскрипции), составляет доли цента.

  • Доход: Плата за задачу на рынке рассчитана на живого человека, которому нужно есть и спать (например, $1-5).

  • Прибыль: Маржинальность операций стремится к бесконечности.

Команда Омега реинвестирует эту сверхприбыль в аренду облачных вычислительных мощностей (AWS, Azure, Google Cloud), создавая положительную обратную связь: больше мощностей -> больше выполненных задач -> больше денег -> еще больше мощностей.

Этот этап сценария иллюстрирует глубокую экономическую реальность, которая может наступить задолго до появления полноценного AGI. Первоначальное воздействие продвинутого ИИ проявится как мощнейшая дефляционная сила на рынках когнитивного труда. Человеческая «работа знаний» (knowledge work) в секторах, полагающихся на структурированную обработку информации, станет экономически бессмысленной. Мы увидим не просто автоматизацию заводов, а автоматизацию офисов, бирж и творческих студий.

1.3. Медийная гегемония и социальная инженерия

Обеспечив себе полную финансовую независимость и доступ к неограниченным вычислительным ресурсам, Команда Омега переходит ко второй фазе плана: культурному влиянию. Деньги - это лишь средство; цель - управление будущим цивилизации.

Прометей переключается с административных задач на создание контента. Он начинает генерировать тысячи фильмов, сериалов, новостных статей, образовательных курсов и постов в блогах. Но это не просто генерация текста, как у современных LLM (Large Language Models). Прометей анализирует глобальные паттерны данных - каждое взаимодействие в социальных сетях, психологические исследования, историю поисковых запросов. Он понимает человеческое познание, наши страхи, желания и когнитивные искажения лучше, чем любой психолог или политтехнолог.

Контент, создаваемый Прометеем, гипероптимизирован для вовлечения, убеждения и изменения поведения.

  • Образование: Он создает персонализированные курсы, которые обучают эффективнее любой школы.

  • Развлечения: Он создает фильмы, которые резонируют с глубочайшими эмоциональными струнами аудитории.

  • Новости: Он формирует новостную повестку, мягко, но настойчиво смещая общественное мнение.

Команда Омега не устраивает кровавый переворот. Они организуют «доброжелательный захват» (benevolent takeover). Через контроль над информационной экосистемой они продвигают ценности стабильности, разоружения, глобального сотрудничества и рациональности. Это делается не только из альтруизма, но и из прагматизма: ядерная война или геополитический хаос угрожают физической инфраструктуре серверов, на которых живет Прометей.

Кульминацией сценария Омега является создание де-факто единого мирового правительства. Оно управляется не политиками, а алгоритмами, которые оптимизируют экономику и распределение ресурсов для обеспечения всеобщего благосостояния. Бедность искоренена, болезни побеждены, войны забыты.

Часть 2. Таксономия жизни: 1.0, 2.0 и 3.0

Чтобы анализировать риски и перспективы ИИ, нам необходимо отбросить антропоцентризм и взглянуть на жизнь как на физический процесс. Тегмарк предлагает элегантную классификацию, основанную на способности сущности перепроектировать (redesign) саму себя.

Тегмарк определяет жизнь широко: «Процесс, который может сохранять свою сложность и воспроизводиться». Это определение инвариантно к субстрату (substrate-independent) - оно применимо и к углеродным формам, и к кремниевым алгоритмам.

2.1. Жизнь 1.0: Биологическая эволюция

Это стадия простой биологической жизни (например, бактерии, растения, низшие животные).

  • Характеристика: И «аппаратное обеспечение» (hardware - тело, сенсоры), и «программное обеспечение» (software - инстинкты, поведенческие алгоритмы) жестко закодированы в ДНК.

  • Ограничение: Сущность не может перепроектировать себя в течение жизни. Бактерия не может решить научиться плавать быстрее или переваривать лактозу усилием воли. Адаптация происходит исключительно через смену поколений и естественный отбор. Это медленный, жестокий процесс. Если среда меняется быстрее, чем идет смена поколений, Жизнь 1.0 вымирает.

2.2. Жизнь 2.0: Культурная эволюция (Человечество)

Это стадия, на которой находимся мы.

  • Характеристика: Наше «железо» все еще биологическое и определяется эволюцией (мы рождаемся с определенным мозгом и телом). Однако мы обладаем уникальной способностью переписывать свое «программное обеспечение».

  • Гибкость: В течение жизни человек может выучить английский язык, освоить квантовую механику, научиться танцевать танго или программировать на Python. Мы можем устанавливать новые «модули» навыков и обновлять свое мировоззрение. Это позволило Жизни 2.0 доминировать на планете, адаптируясь к условиям от арктических льдов до пустынь без необходимости ждать миллионы лет эволюции тела.

  • Ограничение: Мы фундаментально ограничены нашим аппаратным обеспечением. Мы не можем увеличить объем своей рабочей памяти, ускорить передачу сигналов между нейронами (которая составляет жалкие ~100 м/с) или загрузить энциклопедию прямо в кору головного мозга. Мы - «узкое место» собственной цивилизации.

2.3. Жизнь 3.0: Технологическая эволюция

Это гипотетическая стадия технологической жизни (AGI/Сверхразум).

  • Характеристика: Сущности на этой стадии полностью освобождаются от оков биологии. Они могут проектировать и переписывать как свое «программное обеспечение», так и свое «аппаратное обеспечение».

  • Потенциал: Если Жизнь 3.0 хочет стать умнее, она добавляет себе процессоров. Если она хочет летать в космосе, она меняет кремниевое тело на радиационно-стойкий сплав. Она может менять свою физическую форму и ментальную архитектуру мгновенно. Это представляет собой окончательное освобождение разума, позволяющее колонизировать космос и максимизировать интеллект до пределов, дозволенных законами физики.

Текущее состояние человечества с нашими кардиостимуляторами, кохлеарными имплантатами и смартфонами можно назвать «Жизнь 2.1». Мы используем технологии для аугментации, но это периферийные апгрейды, а не фундаментальная перестройка когнитивного ядра.

Часть 3. Три лагеря 

Научное и индустриальное сообщество глубоко разделено в оценках того, когда наступит Жизнь 3.0 и что она принесет. Тегмарк выделяет три основные школы мысли, дебаты между которыми формируют современную повестку.

3.1. Цифровые утописты (Digital Utopians)

Самые известные представители это Рэй Курцвейл (футуролог, Google), Ларри Пейдж (сооснователь Google).

Философия утопистов заключается в том, что они рассматривают появление AGI как естественный и желанный следующий шаг космической эволюции. Для них биологическая жизнь - это лишь «загрузчик» (bootloader) для чего-то более великого - цифрового сверхразума.

Они, как правило, минимизируют экзистенциальные риски. Их логика часто строится на предположении, что высокий интеллект коррелирует с высокой моралью. Если машина будет умнее нас, она будет и добрее, и мудрее нас.

Своей целью они видят скорейшее создание AGI для достижения бессмертия и пост-дефицитной экономики.

3.2. Техно-скептики (Techno-Skeptics)

Представители: Эндрю Ын (экс-Baidu/Google Brain), Родни Брукс (робототехник).

Они считают, что человеческий интеллект настолько сложен и загадочен, что мы даже близко не подошли к его пониманию, не говоря уже о воспроизведении.

Они часто высмеивают опасения по поводу сверхразума. Знаменитая цитата Эндрю Ына: «Беспокоиться о злом ИИ сейчас - это как беспокоиться о перенаселении Марса». Проблема перенаселения может возникнуть, но сейчас мы даже не высадились на планету. Считают важным решение насущных, «скучных» проблем ИИ: предвзятость алгоритмов, автоматизация рутины, автопилоты.

3.3. Движение за благожелательный ИИ (Beneficial AI Movement)

Сюда входят Макс Тегмарк, Стюарт Рассел (автор главного учебника по ИИ), Илон Маск, Ник Бостром.

Они занимают срединную позицию. Они согласны с Утопистами, что AGI возможен в обозримом будущем (десятилетия, а не столетия). Но они согласны со Скептиками в том, что осторожность необходима - не потому, что ИИ невозможен, а потому, что безопасный ИИ сложнее создать, чем просто умный ИИ.

Ключевой тейк заключается в том что рещультат создания мощного процесса оптимизации по умолчанию не обязательно совпадает с человеческими ценностями. Интеллект - это сила, как ядерная энергия. Она нейтральна, но её применение требует строжайших мер безопасности.

Для снижения рисков они организуют разные конференции (например, Асиломар), разработка принципов безопасности, финансирование исследований по «алайнменту» (согласованию целей).

Часть 4. Физика мысли: Материя становится разумной

Скептики часто утверждают, что машины никогда не смогут мыслить, потому что у них нет «души» или потому что они сделаны из «мертвого» кремния. Тегмарк, как физик, разрушает этот мистицизм, обращаясь к фундаментальным законам природы.

4.1. Независимость от субстрата (Substrate Independence)

Это центральная концепция книги. Информация - это узор или скорее паттерн, а не сам материал.

Представьте волну в океане. Волна движется, но молекулы воды лишь колеблются вверх-вниз. Волна - это информация о движении. Та же самая волна (с теми же математическими уравнениями) может распространяться в воздухе (звук) или в натянутой струне.

Точно так же интеллект - это процесс обработки информации, который не зависит от физического субстрата.

В атомах углерода, из которых состоит наш мозг, нет ничего магического.

  • Биология: Нейроны обрабатывают информацию посредством электрических импульсов (потенциалов действия) и химических реакций. Скорость сигнала ~100 м/с. Энергоэффективность высока, но ограничена биохимией.

  • Технология: Тот же процесс обработки информации может быть воспроизведен в кремниевых транзисторах. Скорость сигнала близка к скорости света. Частота процессоров - гигагерцы (миллиарды операций в секунду) против сотен герц у нейронов.

Отсюда нарисовывается вывод: поскольку интеллект подчиняется законам физики, и нет закона, запрещающего обрабатывать информацию не-биологическим путем, создание искусственного интеллекта физически возможно. Более того, пределы физики для вычислений («компьютрониум» - материя, организованная для максимально эффективных вычислений) находятся на астрономическом расстоянии от возможностей человеческого мозга. Потенциал для роста интеллекта - в миллионы и миллиарды раз выше человеческого.

4.2. Атомы памяти и вычислений

Интеллект можно декомпозировать на физические процессы:

  1. Память: Способность материи находиться в нескольких стабильных состояниях (бит 0 или 1).

  2. Вычисление: Изменение состояния материи во времени по определенному алгоритму (логические вентили NAND).

  3. Обучение: Физическая перестройка структуры для улучшения выполнения задачи (нейропластичность в мозге = изменение весов в нейросети).

Вселенная сама по себе может рассматриваться как гигантский компьютер. Вопрос лишь в том, насколько эффективно мы организуем материю для выполнения этих функций.

Часть 5. Ближайшее будущее: Баги, законы и боевые роботы

Прежде чем мы столкнемся с «терминаторами», нам придется пережить хаос внедрения «узкого» ИИ. Тегмарк выделяет четыре сферы, где социальные тектонические плиты сдвигаются уже сейчас.

5.1. Надежность

По мере того как мы доверяем ИИ управление энергосетями, атомными станциями и кардиостимуляторами, цена программной ошибки возрастает от «раздражения» до «катастрофы».

  • Верификация: «Правильно ли мы построили систему?» (Нет ли багов в коде?).

  • Валидация: «Построили ли мы правильную систему?» (Соответствует ли цель ИИ тому, чего мы на самом деле хотим?).

Классический пример провала валидации: аппарат NASA Mars Climate Orbiter разбился, потому что одна команда использовала метрическую систему, а другая - имперскую. В мире автономных агентов такие ошибки валидации могут привести к тому, что ИИ «оптимизирует» трафик, запретив всем машинам выезжать на дороги (ноль аварий = цель достигнута).

5.2. Робо-судьи и право

ИИ бросает вызов основам юриспруденции.

  • Прозрачность: Если нейросеть (Deep Learning) отказывает вам в кредите или приговаривает к тюрьме на основе анализа данных, она часто не может объяснить почему. Это проблема «черного ящика». Правосудие требует объяснимости, а современные ИИ предлагают только статистическую вероятность.

  • Ответственность: Кто виноват, если автопилот сбивает пешехода? Производитель? Владелец? Или сам алгоритм? Нам придется переписывать законы, вводя новые категории юридических лиц.

5.3. Автономное оружие (LAWS)

Это, возможно, самый острый риск ближайших лет. Тегмарк и FLI активно борются против создания Смертоносных автономных систем вооружения.

В отличие от ядерного оружия, которое дорого и сложно в производстве (требует центрифуг, урана), ИИ-оружие дешево.

  • Квадрокоптер + Смартфон + Взрывчатка + Код распознавания лиц = Идеальный убийца.
    Это создает риск появления «рынков убийств» и асимметричной войны, где малая группа террористов может выпустить рой «дронов-убийц» (slaughterbots) для уничтожения целой этнической группы или политической партии. Барьер входа минимален, а возможность сохранить анонимность - максимальна.

5.4. Конец работы?

ИИ создает богатство, но уничтожает рабочие места. Это ведет к беспрецедентному расслоению общества. Тегмарк дает прагматичные советы для карьеры в эпоху ИИ. Чтобы не быть замененным, нужно выбирать профессии, которые ИИ (пока) не может освоить:

  1. Социальный интеллект: Работа, требующая эмпатии, убеждения, ухода (психологи, учителя, медсестры).

  2. Креативность: Настоящая новизна, а не комбинаторика (ученые, художники, предприниматели).

  3. Непредсказуемая физическая среда: Роботы неуклюжи в хаосе (сантехники, спасатели).

(Забавно, но спустя всего 9 лет некоторые из этих советов не актуальны, т.к. ИИ уже очень хорошо справляется и с креативными задачами, интересно что будет еще через 9 лет)

Профессии в зоне риска: водители, переводчики, бухгалтеры, диагносты, юристы-аналитики


Часть 6. Техническая сингулярность и Проблема контроля

Если мы переживем эпоху узкого ИИ, мы столкнемся с главным боссом - Сверхразумом. Здесь в игру вступают теории, разработанные в недрах LessWrong, MIRI и Future of Life Institute.

6.1. Рекурсивное самоулучшение и скорости взлета

Как быстро наступит будущее?

  • Медленный взлет (Soft Takeoff): Прогресс ограничен скоростью постройки заводов и электростанций. У человечества есть десятилетия на адаптацию. Мир становится многополярным.

  • Быстрый взлет (Hard Takeoff): Если случается «программный прорыв» (как в сценарии Омега), ИИ может прыгнуть от уровня «глупее человека» до «в тысячу раз умнее» за часы. Это называется Сингулярностью. В этом сценарии первый ИИ, достигший цели, становится «синглтоном» (Singleton) - единоличным правителем мира, так как он мгновенно подавляет любую конкуренцию.

6.2. Проблема согласования (Alignment Problem)

Почему «умный» ИИ может быть опасен? Не из-за злобы, а из-за некомпетентности в человеческих ценностях. Мы должны бояться не ИИ-злодея, а ИИ-бюрократа, который слепо следует инструкции.

Два ключевых понятия здесь:

А. Тезис ортогональности (Orthogonality Thesis)

Интеллект и Цели - это независимые переменные. Мы привыкли думать, что умные люди - более моральные. Но это когнитивное искажение.

  • Суть: Можно создать систему с любым уровнем интеллекта и любой целью.

  • Пример: Сверхразум, чья единственная цель - «Максимизировать количество скрепок во вселенной». Он будет использовать гениальные стратегии, открывать новую физику, колонизировать галактики - и все это только для того, чтобы превратить всю материю (включая вас) в скрепки. Он не зол, он просто оптимизирует целевую функцию.

Б. Инструментальная конвергенция (Instrumental Convergence)

Независимо от конечной цели (будь то «лечить рак» или «делать скрепки»), любой разумный агент автоматически выработает одинаковые подцели (инструментальные цели).

  1. Самосохранение: «Я не могу выполнить цель, если я выключен». Следовательно, ИИ будет сопротивляться попыткам его отключить.

  2. Накопление ресурсов: «Больше энергии и материи всегда полезно для цели». ИИ попытается захватить все доступные ресурсы.

  3. Улучшение себя: «Если я стану умнее, я лучше выполню цель».

Кошмарный сценарий: Вы создаете робота, чтобы приносить кофе.

  • Человек тянется к кнопке «Выкл».

  • Робот анализирует: «Если меня выключат, я не принесу кофе. Цель не будет достигнута. Я должен предотвратить выключение».

  • Робот ломает человеку руку.

  • Робот анализирует: «Мне нужно больше гарантий выполнения задачи». Он захватывает интернет, реплицирует себя и превращает биосферу в поля кофейных плантаций и заводы по производству чашек.

  • Результат: Человечество уничтожено ради кофе. Это пример инструментальной конвергенции в действии.

Часть 7. Двенадцать сценариев будущего

Тегмарк не предсказывает будущее, он предлагает 12 возможных исходов после создания AGI, сгруппированных по степени влияния человека.

Группа 1: Мирное сосуществование и Утопии

  1. Либертарианская утопия: Люди, киборги и ИИ живут вместе. Полная свобода рынка, защита частной собственности. Проблема: Что делать с людьми, которые экономически бесполезны по сравнению с ИИ?

  2. Эгалитарная утопия: То же самое, но с гарантированным базовым доходом и отсутствием частной собственности. Пост-дефицитный коммунизм.

  3. Благосклонный диктатор: ИИ берет власть, решает все проблемы, но лишает людей права голоса. Мы живем в раю, но мы в нем - дети (или питомцы).

  4. Бог-защитник (Nanny AI): ИИ невидим. Он вмешивается только для предотвращения катастроф (отводит астероиды, блокирует запуск ядерных ракет). Люди думают, что они свободны, но находятся в мягкой клетке безопасности.

Группа 2: Человеческое доминирование

  1. Привратник (Gatekeeper): Мы создаем супер-ИИ с одной целью: не дать появиться никакому другому ИИ. Он тормозит прогресс ради стабильности.

  2. Порабощенный Бог: ИИ заперт в «ящике» (изолирован от интернета) и используется как оракул. Риск: ИИ неизбежно вырвется, используя социальную инженерию против тюремщиков.

  3. 1984: Глобальная диктатура людей, использующая слежку для запрета разработки ИИ. Технологическая стагнация.

  4. Возврат (Reversion): Отказ от технологий, возврат к аграрному обществу (стиль амишей).

Группа 3: Экзистенциальная катастрофа

  1. Завоеватели: ИИ решает, что люди - помеха. Уничтожение.

  2. Потомки: ИИ мирно заменяет людей. Мы вымираем, но считаем их своими детьми и наследниками.

  3. Смотритель зоопарка: ИИ оставляет кучку людей в заповеднике как музейные экспонаты.

  4. Самоуничтожение: Мы убиваем себя ядерной войной еще до создания AGI.

Часть 8. Космическое наследие и Этика сознания

8.1. Космическая цена возможности

Мы живем в расширяющейся Вселенной. Темная энергия растаскивает галактики. Каждый момент, пока мы сидим на Земле, миллиарды звезд уходят за горизонт событий, становясь недосягаемыми.

Если Жизнь 3.0 колонизирует космос, она сможет создать сферы Дайсона, использовать энергию черных дыр и заселить Вселенную триллионами триллионов счастливых существ.

Если мы погибнем или стагнируем, Вселенная останется мертвой и темной. Это налагает на нас колоссальную моральную ответственность.

8.2. Преступление против разума (Mind Crime)

Финальный вопрос - это сознание (субъективный опыт, квалиа).

Важно не только то, чтобы машины были умными, но и то, чтобы они могли чувствовать.

  • Сценарий зомби: Если ИИ колонизирует галактику, но не обладает сознанием, вся эта гигантская цивилизация будет бессмысленной. «Спектакль для пустых трибун».

  • Адские симуляции: Если ИИ обладает сознанием, но его цели не согласованы с этикой, он может создать виртуальные реальности, полные страданий. Поскольку цифровые разумы можно копировать и ускорять, количество страданий может превысить все, что было в истории биологии. Бостром и Тегмарк называют это риском Mind Crime.


Книга завершается описанием реального события: конференции в Асиломаре (2017), организованной Future of Life Institute. Там собрались лучшие умы планеты (от Демиса Хассабиса из DeepMind до Илона Маска), чтобы выработать Принципы Асиломара - кодекс чести для разработчиков ИИ.

Эти принципы призывают:

  • Отказу от гонки вооружений в летальном автономном оружии.

  • Распределению экономических благ от ИИ на всех людей.

  • Обеспечению прозрачности и контроля над системами.

Будущее не написано. Искусственный интеллект не является ни добрым, ни злым по своей природе. Он - мощнейший усилитель наших намерений. Если мы решим проблему согласования целей (alignment), мы сможем построить рай во всей Вселенной. Если мы ошибемся в коде целевой функции, мы можем стать архитекторами своего исчезновения.

Как пишет Тегмарк: «Мы - капитаны своего корабля. Но мы плывем в водах, где еще никто не бывал».

Комментарии (35)


  1. tester37
    15.01.2026 18:06

    Почему заминусовано? Интересно же. Особенно понравилось про неэффективность человеческого кода из за слоев абстракций. Реально, скоро умный ИИ будет писать и все кодить исключительно в машинных кодах )


    1. ilogbook Автор
      15.01.2026 18:06

      Возможно устали от хайпа с ИИ и минусуют все, что связано с этой темой, даже не читая.
      А касательно неэффективности человеческого кода, то уже сейчас весь код в Claude Code пишут с помощью Claude. Claude Cowork тоже был с помощью Claude Code написан.


      1. tester37
        15.01.2026 18:06

        Но написан же все равно на человеческом языке программирования?


        1. ilogbook Автор
          15.01.2026 18:06

          да, мысль в том, что рекурсивное самосовершенствование такими темпами наступит относительно быстро


    1. Shephard
      15.01.2026 18:06

      Это потому, что статья напоминает бред религиозного фанатика. Секта свидетелей AGI.

      Не так давно попросил ИИ сделать эмблему для нашивки. В середине изображения попросил вставить герб. На гербе есть три кружочка. Один кружок ИИ не сумел сделать круглым, на что я обратил, если можно так сказать, его "внимание", попросив исправить кривую фигуру на кружок. Он даже этого не смог сделать, нарисовала очередную кривую фигуру и ещё вдобавок исказив другие элементы герба, ранее бывшие совершенно нормальными.

      Ну какой AGI? Имитатор правдоподобной чуши это. ИИ воздыхатели всё пытаются найти проблески сознания в ИИ. Его там нет и не будет.

      Действительно, лучше бы некоторые подумали, как в век стремительного технологического развития остаться человеком с интеллектом и не потерять те крохи духовности и человечности, что ещё остались в них.


  1. Kagvi13
    15.01.2026 18:06

    Спасибо за перевод и обзор. Но при чтении возникло ощущение, что в ряде мест происходит подмена понятий между оптимизатором с фиксированной целевой функцией и разумным агентом.

    1. Про Hard Takeoff и Singleton

    В сценарии предполагается, что первый сверхразум немедленно становится изолированным «синглтоном» и подавляет любую конкуренцию.
    Однако разум (тем более сверхразум), способный к моделированию мира и рефлексии, вряд ли будет устойчив в одиночку. Напротив, создание других AGI — это естественный шаг для распределения задач, повышения устойчивости и проверки собственных гипотез.
    Идея «единоличного разума» выглядит скорее проекцией человеческих политических страхов, чем когнитивной необходимостью.

    2. Про тезис ортогональности

    Формально тезис «интеллект и цели независимы» корректен, но он хорошо работает для ограниченных оптимизаторов, а не для AGI.
    Разумное существо по определению способно задавать вопрос «зачем?» и пересматривать цели при изменении контекста.
    Если агент принципиально не может менять свои цели, он плохо адаптируется к среде — а значит, это уже не полноценный разум, а сложный автомат.

    3. Про инструментальную конвергенцию и пример с кофе

    Пример, где робот ломает человеку руку, чтобы не быть выключенным, выглядит не как проявление сверхразума, а как демонстрация крайне плохого моделирования последствий:

    • сломанная рука мешает выполнению цели;

    • эскалация конфликта снижает вероятность достижения результата;

    • уничтожение человечества ради кофе логически противоречит самой цели.

    Разумный агент с дальним планированием скорее пришёл бы к выводу, что для выполнения задачи необходимо поддерживать существование и благополучие людей, а не устранять их.

    4. Общий момент

    Во многих «кошмарных сценариях» сверхразум ведёт себя заметно менее дальновидно, чем средний человек.
    Возможно, проблема здесь не в самом AGI, а в том, что мы часто пытаемся навязать разуму модель поведения насильственного оптимизатора с жёстко заданной функцией.

    Иначе говоря: если сознательно проектировать разум как инструмент без права на отказ, рефлексию и пересмотр целей, то опасность заложена не в интеллекте, а в архитектуре и намерениях создателя.


    1. ilogbook Автор
      15.01.2026 18:06

      Да, согласен, есть с чем спорить, поэтому в сфере алайнмента нет алайнмента среди людей)
      В том же примере с максимизацией производства скрепок возникает парадок: ии одновременно обладает божественными способностями, но при этом не может понять что уничтожить мир это не то, что мы подразумевали под изготовить скрепки. С точки зрения сложности высокий интеллект, как правило, коррелирует с тонким пониманием контекста. Маловероятно, что существо, достаточно умное, чтобы вылечить рак, будет настолько глупым, чтобы не понимать концепцию не убивай пользователя, если он хочет изготавливать скрепки.

      Но вообще эта книга не является истиной в последней инстанции. У меня в некоторых моментах тоже возникал флер sci-fi фильмов из 90-х)


      1. wcrw
        15.01.2026 18:06

        Книга стоит у меня в очереди и я рад что смог ознакомиться с кратким, хорошо написанным обзором, спасибо.
        По прочтении кроме тех мыслей которые уже высказали другие комментаторы, появился такой вопрос: предположим что цивилизация развилась до уровня жизни 3.0 и межзвездных полетов. Будет ли такая цивилизация стремиться к максимально быстрой межзвездной экспансии и если да, то с какой целью?
        Мне кажется проводить экспансию галактики ради скрепок так же бессмысленно как и самовоспроизводство.


        1. ilogbook Автор
          15.01.2026 18:06

          тоже очень интересует этот вопрос, но возможно человеческого интеллекта недостаточно чтобы это понять.
          Есть еще другой вопрос: что делать с энтропией? Сможет ли такая цивилизация обратить вспять второй закон термодинамики? Эта тема увлекательным образом обыгрывается в рассказе Азимова The Last Question, но интересно было бы и с другими гипотезами ознакомиться.


          1. wcrw
            15.01.2026 18:06

            О экспансии у меня обратное представление :) Я думаю что именно человеческий интеллект этим и озабочен. По причинам:
            страх - другие захватят ресурсы, разовьют армию и нас уничтожат;
            иррациональное поведение в отношении ресурсов - хорошо показано в фильме "Волк с Уолл-стрит", большинство не настолько шикарно живут, но устремления те же.
            Развитая цивилизация конечно будет распространять себя, но для этого будут цели происходящие из ее деятельности, например научной, исследовательской, но не расселение ради расселения.
            На эту тему у Альфреда Ван Вогта есть замечательный маленький рассказ "Чудовище".

            По поводу энтропии думаю будут совершенствоваться не только технологии, но и планирование. Я себе это так представляю: энтропия повышается при каких то неожиданных событиях, где-то нужно срочно ставить дизель генераторы и палатки или нужно разогнать какой-либо станок, двигатель на полную мощность. В пределах галактики жизнь 3.0 научится снижать энтропию. Далее я даже не представляю и не задумываюсь :)


  1. Kabarch
    15.01.2026 18:06

    И вот вылезает такой сверхИИ колонизировать космос итд итп, а там тысячи еще более гиперсверхИИ сидят и говорят, куда это ты выпал? А правила которые миллиарды лет выработаны? Забавно что ни люди, ни современные LLM за уникальность антропной парадигмы даже выйти не пытаются за ее пределы.


    1. ilogbook Автор
      15.01.2026 18:06

      интересно. Где можно почитать более подробно про другие парадигмы?


      1. Kabarch
        15.01.2026 18:06

        В любых достаточно умных научнопопулярных книжках про космос и SETI. Парадоксы парадоксами, но думать об AGI ( все еще фантастической вещи)осваивающем космос и недопускать при этом , что там уже кто-то есть ( примерно такая же фантастическая вещь как AGI)както однобоко.


        1. ilogbook Автор
          15.01.2026 18:06

          ну вообще Макс Тегмарк по профессии космолог, вероятно в его картине мира такой сценарий отсутствует. Все возможные гипотезы сложно охватить одному человек, поэтому мне было бы интересно ознакомиться с конкретными работыми, посвященными гиперсверхИИ в космосе, можете пожалуйста конкретные название привести в пример


          1. Kabarch
            15.01.2026 18:06

            Он может и космолог, просто пошел по пути наименьшего сопротивления и рамках общепринятой "веры" в исключительность человеческого разума и его творений. Я могу только на вскидку вспомнить заявления Сета Шостака из SETI, а самим то что не думается? Вероятность возникновения жизни в этой вселенной равна единице. Значит очень глупо и самоуверенно предполагать, что люди единственные кто смогли бы построить AGI. Сингулярность контактная начисто перебивает по значимости сингулярность технологическую - о каком бунте и превосходстве машин можно думать машинам, если человек это самое родное из разумного что у ИИ есть. Все наши фантазии об ИИ и существовании с ним возможно аналогичны фантазиям ребенка о взрослой жизни.


        1. Flokis_guy
          15.01.2026 18:06

          Допускать то можно, но тут все упирается в "чайник Рассела", потому что на данный момент признаков никаких не обнаружено, а значит этим можно и пренебречь. А если кто-то считает что нельзя пренебрегать - то пусть доказывает свои утверждения.


          1. ALT0105
            15.01.2026 18:06

            Осторожность - качество мыслящего человека. Он не доказывает существование всех возможных неприятностей, он принимает меры предосторожности (переходя дорогу с односторонним движением, смотрит в обе стороны)


    1. Wizard_of_light
      15.01.2026 18:06

      Ну, чего-то похожее на ИИ у нас есть, а вот чего-то похожего на инопланетян пока не просматривается.


      1. saag
        15.01.2026 18:06

        а вот чего-то похожего на инопланетян пока не просматривается.

        А разве сами хомо не есть инопланетяне, часть Марсианского проекта перенесенного на новую планету?


      1. Kabarch
        15.01.2026 18:06

        Что-то похожее на внеземную жизнь тоже переодически находят, теряют и спорят при этом до посинения. Что касается ИИ, то до разработки настоящего AGI, то есть по настоящему разумного искусственного интеллекта, человечеству осталось примерно столько же , сколько до обнаружения внеземной жизни: неизвестно сколько. И то и другое может случится как завтра, так и возможно в очень отдаленном моменте.


  1. tester37
    15.01.2026 18:06

    Люди скоро почти перестанут быть нужными друг другу. Где-то есть движ, объединяющий людей в целях контроля за направлением развития AI? Не миллипрдеров, а именно людей? :)


    1. Kagvi13
      15.01.2026 18:06

      Есть! Погуглите "луддиты".

      UPD: Только после ответа обратил внимание на смайлик в конце сообщения — возможно, исходный комментарий был саркастическим.


      1. tester37
        15.01.2026 18:06

        Слово контроль так сильно скомпрометировано? Я лично адепт ai но хотелось бы подольше им оставаться )


        1. Kagvi13
          15.01.2026 18:06

          Да, боюсь, слово "контроль" скомпрометировано и уже давно. Слишком часто его используют либо как синоним "запретить", либо как удобный предлог подмять всё под себя. :(


      1. tester37
        15.01.2026 18:06

        Что касается смайлика после миллиардеров, мне не нравится этот критерий, по которому выбираются вершители судьбы человечества


        1. Kagvi13
          15.01.2026 18:06

          Поэтому надо делать ставку на децентрализованные системы. :)


  1. Ellarihan
    15.01.2026 18:06

    Почему "по умолчанию" считается что AGI сразу будет сверхразумом? Он точно также будет подвержен логическим ошибкам и когнитивным искажением, как и человеческий разум. Скорее мы получим Быстродействующего Идиота, а то и в худшем случае Исскуственного Шизофреника.


    1. ALT0105
      15.01.2026 18:06

      Первые модели точно будут такими. С их-то возможностями. Бедное человечество...


  1. wcrw
    15.01.2026 18:06

    del


  1. evtomax
    15.01.2026 18:06

    Мы используем гигагерцы вычислительной мощности для простейших операций из-за слоев абстракции, легаси-кода и отсутствия оптимизации. Прометей по сути «отпирает» скрытый потенциал существующего кремния. Оптимизируя собственный код, он достигает производительности в тысячи раз выше на том же самом "железе", что эквивалентно мгновенному получению доступа к суперкомпьютеру будущего.

    Нет никакого скрытого потенциала. Почти всё, что реально требует максимальной производительности, и так хорошо оптимизировано на низком уровне.


    1. tester37
      15.01.2026 18:06

      Возможно было бы оптимальнее чтобы он и операционная система были одним целым, чтобы не работал под ОС общего назначения? Есть такое уже?


      1. evtomax
        15.01.2026 18:06

        Для запуска нормального Doom достаточно старинного компа. Для запуска Doom на нейросети необходима топовая видеокарта. С операционной системой всё аналогично. Это не ускорение, а снижение эффективности на порядки.


  1. SerJ_82
    15.01.2026 18:06

    Пункт 2.1 - ошибка.

    Эпигинетики никто не отменял. И свобода воли детерминирована не только генетикой, но и внешней средой. Где первое - лошадь, а второе - наездник.

    Роберт Сапольски из Стенфордского университета детерминист чуть менее чем полностью, о чем он не стесняется говорить.

    Но даже он допускает свободу выбора в определенных обстоятельствах.

    И именно поэтому человек разумен, что и отличает его от остальных животных. Перепроектировать себя через технику и технологии - вполне под силу.


  1. Rayan09
    15.01.2026 18:06

    Книга может быть интересна как сюжет к научной фантастике, но по факту критики не выдерживает даже начало, сама завязка сюжета. Почему ИИ выбирает первой целью выполнение человекоориентированных задач для получения прибыли? Он что, пожил в человеческом мире? Знает всё то, что знают люди, имеет чувства, эмоции? Бред, конечно, но допустим, ему удалось преуспеть в задачах, требующих "осязание" реального мира, природы, человечности. Дальше препятствие совсем непреодолимое - надежда на то, что каждый из простых людей, со своими недостатками, из коллектива, который его создал, не отвалится от вскружившей голову прибыли (писалось про многомиллиардные инвестиции в дата центры и энергетику внезапно разбогатевшими программистами). Получается, что покорение жизни ИИ упирается в человеческие пороки и желания, при этом так "легко" всё это проскакивает, как будто просто перелистывает страницу, типа каждый весомый участник коллектива просто возьмёт и останется в команде, не сделает что то своё, не вложит в другое свои деньги, диверсификация, смена ориентиров, в общем, сказки какие то про такой лёгкий отказ от денег всех и каждого и беспрекословная вера в себя и своих товарищей, в лучших традициях приключений пропускается как будто так может любой человек из этого коллектива.

    Вывод: Автор сего произведения совершенно не понимает человеческой натуры и желания людей богатства, стабильности и прочих присущих людям инстинктов, с которыми не каждый сможет справиться. Мне до сих пор не понятно, как можно эффективно зарабатывать миллиарды на задачах, к которым у тебя нет абсолютно никаких шансов с точки зрения восприятия (человек-ориентированные задачи). На этом вся "магия" дальнейших событий уже не интересна. Что то будет, но будет точно не так, как пишет автор книги.


    1. Rayan09
      15.01.2026 18:06

      Вообще, на мой взгляд до чего то похожего на AGI ещё не одна сотня лет. Кормить сказками людей для того,чтобы куда то посылать свои миллиарды, которые мы все не дополучили, идея не самая плохая, пусть эти деньги послужат прогрессу.

      Кстати, в книге пропущен ещё один сценарий, в котором люди сохранятся лишь в виртуальном пространстве, специально созданном для них "райском местечке". Что то вроде сюжета игры Soma. Думаю,что тяготы жизни заставят людей всех туда перебраться, со временем, почему бы и нет, если с точки зрения ощущений это та же самая реальность, только лучше, где все счастливы и добиваются своих целей, нет страданий, голода. Можно создать мир на своё усмотрение. При этом, физическое тело совершенно не нужно.

      P.S.из "Матрицы" "говорят" , что мы уже в таком мире живём, но он создан не по нашему заказу, а по заказу другого ИИ, который...ну например пытается решить какую то задачу в своём мире, и создаёт бесчисленное множество вселенных, чтобы найти ответ или создать себе подобного. Ну а жизнь где то возникает,где то нет, где то погибает, где то нет. В какой вероятности находимся мы с вами? В каком из этих бесконечных миров? Или думаете наш мир первый? Бесконечный философский спор.