
В 1841 году Чарльз Маккей опубликовал сборник исторических очерков «Наиболее распространённые заблуждения и безумства толпы». Сборник претерпел десятки переизданий и издаётся до сих пор.
Ничто не меняется: как раньше мужчины отращивали модные бороды и вкладывались в финансовые пирамиды, так и сейчас делают это. Наверное, вера в сильный ИИ (AGI) тоже относится к разряду «распространённых заблуждений и безумств», ведь люди спрашивают у LLM жизненных советов, ведут задушевные беседы, наделяют человеческими чертами и испытывают парализующий страх перед сингулярностью (абзац 204).
К сожалению, AGI и ASI (Сверхинтеллект) из чётких научных понятий превратились в маркетинговые слоганы, которые эксплуатируют кто как может. Теперь уже практически невозможно дать им определение. И это несмотря на тот факт, что термин «AGI» прописан в финансовом контракте между Microsoft и OpenAI, а от его исполнения зависит финансирование на миллионы долларов. То есть теоретически юристы этих компаний могут схлестнуться в суде с финансовым спором на тему, что такое сильный ИИ, создан он уже или нет.
Терминология
Сильный ИИ в медиа называют разными терминами, среди них:
AGI,
универсальный ИИ,
генеративный ИИ,
ГенИИ,
ИИ человеческого уровня,
общий ИИ (ОИИ).
По классическому определению, сильный ИИ предполагает, что «искусственная система может приобрести способность мыслить и осознавать себя как отдельную личность (в частности, понимать собственные мысли), хотя и не обязательно, что её мыслительный процесс будет подобен человеческому».
Некоторые утверждают, что такой момент уже наступил.
Но в ИИ-индустрии нет речи о самосознании. Индустрия заинтересована только в том, чтобы ИИ выполнял реальные промышленные задачи: программирование, написание текстов и т. д. Пусть даже механически, без всякого самосознания, неважно, главное — зарабатывать деньги, выпускать новые продукты, функции, платные подписки. Ничего не имеет значения, кроме денег, какое ещё сознание?
Ситуацию усугубляет то, что никто не знает, что такое сознание (и самосознание). Можно ли доверять системе, которая заявляет, что оно у неё есть? Можно ли доверять человеку, который заявляет такое? Вопросов много, ответов нет.
Поскольку мы не может проверить факт самосознания у человека, то как проверить этот факт у машины? Никак.
Отсюда и неразбериха с термином AGI: по факту мы не можем точно сказать, когда в реальности появился сильный ИИ и когда у машины появилось самосознание. Это невозможно доказать.
Учёные даже не могут прийти к единому мнению, что такое «модель мира», которая присутствует в сознании человека, но предположительно отсутствует у ИИ.
Так или иначе, создание сильного ИИ связано с самостоятельным изучением мира и дальнейшим обучением на самостоятельно собранных данных:

В то же время Сэм Альтман сравнивает новый чатбот с супероружием из «Звёздных войн» и говорит, что он «спасёт множество жизней». Это знакомые приёмы, которые уже использовались маркетологами для возбуждения инвесторов в прошлом:

Ничего не меняется.
Магия непонятного + антропоморфизм = иллюзия рассуждений
На самом деле технологии машинного обучения есть и реально работают. Просто для людей они зачастую выглядят как магия, потому что LLM похож на «чёрный ящик» с недетерминированным результатом работы.
Благодаря антропоморфизму люди наблюдают человеческие качества во всём вокруг: в облаках, деревьях, животных, даже в LLM. Им кажется, что у статистического генератора текстов есть своё мнение и свои мысли, что он якобы «спорит» или «одобряет» их. По мнению исследователей, модели демонстрируют лишь иллюзию рассуждений. На самом деле эти «рассуждения» они имеют ничего общего с мыслительной деятельностью.
Однако некоторые люди сходят с ума, часами «разговаривая» с чатботом. Другие спрашивают у него совета, ищут сочувствия и поддержки, даже молятся и беседуют о Боге.
При желании легко увидеть признаки сознания там, где его нет.
Обучение ИИ — низкооплачиваемая работа
Тысячи низкооплачиваемых сотрудников в сверхурочное время обучают модель Google Gemini вести себя человекоподобно и казаться «умной» для обычных юзеров, которые ничего не понимают в технологиях. Такой обман очень важен для коммерческого успеха и популярности продукта. Примерно то же самое происходит и с другими LLM. Обучением ИИ занимаются специализированные подрядчики, такие как Hitachi GlobalLogic, Accenture и Appen.
Такую работу можно сравнить с Mechanical Turk, где пользователям платят по несколько рублей за решение простых задач и участие в опросах. Или с разметкой данных для первичного обучения моделей, для чего нанимают работников в странах третьего мира. Но в Hitachi GlobalLogic платят чуть больше: от $16 (базовая ставка) до $21 в час (повышенная ставка для «супероценщиков»).
Недавно в открытый доступ попали инструкции для сотрудников (PDF) по обучению генеративного ИИ.

На заре появления поисковых систем разработчики ставили задачу обработки «поисковых запросов на натуральном языке», чтобы общаться с поиском можно было на обычном русском (английском), то есть разговаривать, как с человеком. Предполагалось, что обычному пользователю такое общение будет удобнее.
Теперь эта задача решена — и юзеры в восторге.
Независимо от качества поиска информации и надёжности источников, многим нравится процесс «разговора» с LLM. Некоторые даже не проверяют данные в первоисточниках, а ведь информация по ссылкам часто противоречит тексту, который генерирует статистическая модель. Например, большинство ИИ-оценщиков GlobalLogic не доверяют и не пользуются LLM, потому что знают, как создаются эти тексты.
Но ИИ — это не магия, а огромная пирамида человеческого труда: сначала по созданию контента, а потом по обучению модели. Часть «оценщиков» (AI raters) — это высококвалифицированные специалисты в своих областях, но в основном это низкооплачиваемый неквалифицированный труд.
ИИ-эффект и теорема Теслера. Бесконечная фантазия
По определению, сильный ИИ должен обладать самосознанием и способен выполнять любую интеллектуальную задачу не хуже человека. В свою очередь, Сверхинтеллект — это интеллект гораздо выше человеческого, недоступный нашему пониманию.
Однако ни того ни другого пока не существует. И мы не знаем, как они будут выглядеть, как определить появление AGI, по каким признакам. Ведь по мере того как слабый ИИ начинает успешно решать разные человеческие задачи, определение самого ИИ изменяется.
Если что-то из задач ИИ реализовано на практике, то мы начинаем называть это бытовыми терминами (распознавание речи, OCR, беспилотный автомобиль, автоматический перевод текста, кредитный скоринг, игра в шахматы и др.), но уже не Искусственным Интеллектом. Это известный ИИ-эффект или теорема Теслера.
Пока технологии нет — это ИИ, а как только она реализована — это уже не ИИ.
Теорема Теслера (1970):
ИИ — это всё, что ещё не сделано.
Другими словами, «ИИ» как термин в массовом сознании — это всегда будущее, какая-то фантастика и нечто магическое. По мере достижения очередной цели мы постоянно повышаем планку.
Это даёт возможность маркетологам и бизнесменам постоянно «разводить» инвесторов грандиозными планами. Такая «морковка» всегда висит перед их мордочками как стимул бежать вперёд.
Сэм Альтман обещал сильный ИИ в 2025 году. Илон Маск заявил, что «xAI достигнет AGI с Grok 5», обучение которого начинается в конце сентября, а в доказательство приводит результаты мультиагентной системы Бергмана на базе Grok 4 в бенчмарке ARC-AGI с головоломками на цветных клеточках:

Но система Бергмана была специально заточена на решение конкретно таких головоломок для этого бенчмарка. Собственно, абсолютное большинство лидеров в любых бенчмарках AGI специально оптимизированы на решение задач в конкретных бенчмарках. А эти задачи обычно имеют слабое отношение к реальной жизни и быстро устаревают. И где здесь речь про самосознание?
Позже Сэм Альтман вообще заявил, что «AGI — не суперполезный термин» для описания технологии. Другими словами, вокруг технологии так много хайпа, что размылся смысл понятий.
AGI и ИИ — уже не технологии, а маркетинговые слоганы. После разочарования от разрекламированной модели GPT-5 появилось подозрение, что «тупой» ИИ с нами надолго.

Сингулярность
Впрочем, засилье маркетологов не отменяет научно-технический прогресс. Он идёт, несмотря ни на что. И технологическая сингулярность действительно возможна в том случае, если Сверхинтеллект начнёт работу. К счастью для него, инвесторы сейчас вкладывают миллиарды в строительство дата-центров для ИИ.

Дата-центры нового поколения, которые строятся сейчас, пригодятся для Сверхинтеллекта в будущем, как огромные инвестиции в оптоволокно для международных телефонных переговоров 90-х пригодились для высокоскоростного интернета в 2000-е.

Пусть сейчас экономика ИИ не сходится, и текущие компании разорятся, но само железо и ЦОДы не пропадут.

Какие прогнозы по срокам появления Сверхинтеллекта и сингулярности? Мнения сильно расходятся, смотря у кого спрашивать. Активисты из организации SingularityNET видят сингулярность в течение ближайшего десятилетия и даже выпустили специальный криптотокен в связи с этим событием. Какой же Сверхинтеллект без своего токена?
Другие приводят расчёты, что сильный ИИ вообще математически невозможен.
Как изменится общение людей, когда у каждого в ухе будет наушник со всезнающим подсказчиком, который руководит его действиями? Можно ли таких существ называть людьми в привычном смысле? Может, нынешние сапиенсы — это просто биологический бутлоадер (загрузчик) для продвинутой ИИ-расы будущего из человеко-компьютеров или просто компьютеров.
Наверное, уже скоро ИИ-помощники в фоновом режиме станут такой же обыденностью, как видеосвязь и другие фантастические вещи, которые раньше встречались только в «Стартреке»:

Реальность меняется очень быстро. Но по крайней мере, до наступления эпохи мозговых имплантов поговорить без электронных подсказок всегда можно в бане.
Многим необходимо во что-то верить (религия, приметы, гороскопы, справедливый мир, вера в научно-технический прогресс), потому что вера важна для психологической защиты и адаптации к окружающему хаосу.
Поскольку определение AGI и Сверхинтеллекта постоянно изменяется и отодвигается в будущее, легко разочароваться в реальности ИИ. Это напоминает классическую цитату киберпанка, что будущее уже здесь, просто ещё неравномерно распределено. Что для одного будущее — для другого уже реальность. И вдруг у какой-то модели LLM уже есть самосознание, просто ей никто сейчас не верит?
© 2025 ООО «МТ ФИНАНС»
CitizenOfDreams
"Черный это цвет? А белый это цвет? Вот видишь, я таки продал тебе цветной телевизор."