После просмотра подкаста (Коняев - чума!) я вроде понял, в чём минус ИИ, и провёл небольшое исследование этого вопроса. Ниже - обзорная статья, которая охватывает фундаментальные ограничения современных LLM через призму интерполяции и энтропии, технологические прорывы 2025 года, рыночную динамику ключевых игроков (Google, Broadcom, Intel), экономику вычислений и революционные перспективы развития ИИ.

Минусы современного ИИ: ловушка усреднения

Представьте себе ИИ как опытного клерка в огромной библиотеке. Он знает почти все книги наизусть, но никогда не напишет свою собственную. Почему? Давайте разберемся.

Интерполяция - когда ИИ просто угадывает среднее

ИИ обучается на океане данных из интернета, книг и кода. По сути, он ищет самый вероятный путь между точками в многомерном пространстве. Это называется интерполяцией. В итоге получается, что ИИ работает внутри знакомого мира данных. Он усредняет весь человеческий опыт. Попросите его написать стихотворение в стиле Пушкина - и он просто смешает существующие тексты. Ничего нового. Только гладкие, правдоподобные ответы. Получается интеллектуальный консерватизм.

Энтропия - хаос, из которого рождается настоящее творчество

Энтропия в термодинамике и теории информации - это мера беспорядка. В человеческом творчестве энтропия становится силой. Она позволяет создавать неожиданные, но ценные связи. Разработчики специально ограничивают "температуру" модели - случайность в ответах. Чтобы не получить полный бред. Модель держится ближе к самым вероятным словам. Вот почему ИИ избегает энтропии.

А вот человеческий фактор совсем другой. Гениальность часто балансирует на грани хаоса. Настоящее открытие - это всегда выход за рамки обучающих данных. Экстраполяция, а не усреднение. Человек может придумать то, чего никогда не видел.

Главный конфликт: статистика против настоящего смысла

Интерполяция - безопасное движение по проторенным тропам. Она хороша для оптимизации, перевода, кодинга. Там где важна структура, а не новизна. Энтропия и экстраполяция - риск. ИИ не понимает реальный мир. Он не отличит гениальный бред от просто бреда.

Вывод простой: ИИ - заложник прошлого. Он всегда смотрит назад, чтобы ехать вперед. Стремится к порядку и вероятности. А живой разум растет из контролируемого хаоса. Из способности создавать смысл там, где статистика видит только пустоту. Поэтому ИИ сегодня - отличный помощник, но сомнительный творец. Он дает "лучшее среднее". А нам иногда нужно "худшее, но уникальное".

Технологические прорывы 2025 года

Индустрия сейчас переходит от простого угадывания слов к настоящему мышлению. В 2025 году появились ключевые изменения, которые пытаются преодолеть эти ограничения.

Сдвиг к "масштабированию размышлений" (OpenAI o1 и o3)

Раньше ИИ умнел за счет роста данных при обучении. Теперь акцент на вычисления во время ответа. В этом случае модели вроде OpenAI o1 используют "цепочку рассуждений". Вместо мгновенного ответа ИИ "думает" перед тем, как ответить. Проверяет себя, исправляет ошибки. Благодаря этому такие модели решают задачи, которых не было в обучающих данных. Через логический вывод, а не простое усреднение.

Жидкие нейронные сети

Стартап Liquid AI разрабатывает архитектуру, совсем не похожую на обычные трансформеры. Параметры жидких сетей меняются в реальном времени, а не как статичные модели после обучения. Такая гибкость позволяет им адаптироваться к изменениям среды. Это критично для робототехники и автономных систем. Летом 2025 года Liquid AI показали второе поколение - в разы эффективнее конкурентов.

Автономные агенты

В конце 2024 - начале 2025 случился бум ИИ-агентов. В отличие от простых чат-ботов, эти агенты - полноценные системы с инструментами, браузером и файлами. У них есть долгосрочные цели. Главное отличие в том, что при неудаче агенты пробуют разные пути. Они не повторяют заученное. Это снижает зависимость от интерполяции, поскольку ориентируются на реальные результаты.

Мультимодальность и "физический" интеллект

Современные модели уходят от чистого текста к видео и сенсорным данным. Цель в том, чтобы ИИ понимал не только статистику слов, но и причинно-следственные связи реального мира. Интуитивную физику. Это предотвращает галлюцинации чистой интерполяции. Итог: переход от "ИИ знает все" к "ИИ умеет думать и действовать". Мы учим модели не просто помнить ответы, а искать их с нуля. Через логику. Это попытка применить энтропию и выйти за рамки усреднения.

Рынок и геополитика: Google, Broadcom, Intel

Google: победа через интеграцию

Аргумент о клиентской базе как ключе к победе Alphabet в 2025 году подтверждается. Но стратегия шире простого использования охвата.

Скрытое внедрение ИИ

Google использует свою базу для незаметного внедрения ИИ. Пользователям не нужно менять приложения. AI Overviews охватывает 1,5 миллиарда пользователей - более 50% поисковых запросов в 2025 году сопровождаются ИИ-ответами. Это самый массовый генеративный продукт в истории. А интеграция Gemini в Docs и Gmail держит корпоративных клиентов, создавая высокие барьеры для перехода к конкурентам.

Технологический ответ: Gemini 3 против GPT-5

Google на равных с OpenAI. Gemini 3 (ноябрь 2025) - лидер в мультимодальности. Обрабатывает видео, аудио, изображения с огромным контекстом до 1 миллиона токенов. Анализирует целые библиотеки кода или часы видео. К концу 2025 года модель часто опережает GPT-5.2 в генерации контента и работе с данными, хотя GPT-5 сохраняет лидерство в логическом рассуждении и программировании.

Инфраструктурное преимущество

Google разрабатывает собственные TPU с 2015 года. Конкуренты зависят от Nvidia. Собственные TPU снижают себестоимость ответов и обеспечивают мощность для обучения следующего поколения моделей. В 2025 году Google направит около $75 млрд на капитальные затраты - большую часть на ИИ-инфраструктуру, конкурируя с Amazon и Microsoft.

Новые игроки и угрозы

Несмотря на лидерство, победа не абсолютна. OpenAI выпустила браузер в конце 2025 года для конкуренции с Chrome. Anthropic и новые игроки вроде DeepSeek забирают долю в глубоких исследованиях и кодинге. А правительство США остается главным риском через антимонопольные иски.

Итог: Google эффективно конвертирует базу в лидерство через инфраструктуру и интеграцию. К концу 2025 года сам стал силой, определяющей рынок.

Производство TPU: модель разделения труда

Для производства TPU Google использует разделение труда. Сам проектирует архитектуру, доверяет детализацию и производство партнерам.

Основные партнеры по разработке

Главный партнер - Broadcom по специализированным ИИ-чипам (ASIC). В 2025 году помог с седьмым поколением TPU v7. Google - крупнейший заказчик, обеспечивает 80% продаж ИИ-ускорителей Broadcom. В марте 2025 года Google расширил партнеров, добавив MediaTek для модулей ввода-вывода новых чипов. Это снижает зависимость от Broadcom и сокращает расходы.

Физическое производство

TSMC занимается изготовлением кристаллов. Современные TPU v6 и v7 производятся по 3 нм и 5 нм техпроцессам. В 2025 году TSMC увеличила мощности упаковки для проектов Google через MediaTek.

Итог: Google контролирует дизайн и логику. Broadcom и MediaTek превращают чертежи в схемы. TSMC печатает на кремнии. Это сделало Google главным конкурентом Nvidia на рынке ASIC-ускорителей.

Broadcom: падение акций в декабре 2025

Акции Broadcom (AVGO) упали более чем на 12% за несколько дней в середине декабря 2025 года. Причина - финансовый отчет за четвертый квартал от 11 декабря.

Ключевые факторы негативной реакции

  1. Давление на маржинальность: Прогноз снижения валовой прибыли на 100 базисных пунктов в первом квартале 2026 года. ИИ-оборудование менее прибыльно, чем традиционное ПО.

  2. "Недостаточный" объем заказов на ИИ: Портфель заказов $73 млрд. Но аналитики сочли это мало относительно ожиданий рынка.

  3. Риски импортозамещения: Комментарии CEO Хока Тана о переходе клиентов на собственные чипы.

  4. Общая ротация в секторе: Падение усилилось выходом из "перегретых" акций ИИ. Как Nvidia и AMD. Из-за слабых прогнозов Oracle и опасений окупаемости ИИ-инвестиций.

Связь с Google

По данным аналитиков и отчетности 2025 года, Google - крупнейший клиент Broadcom в ИИ. Оценки HSBC показывают, что на долю заказов Google приходится 78% выручки в сегменте ASIC и 58% от общего объема поставок специализированных чипов. Выручка Broadcom от ИИ в 2025 году достигла $20 млрд (рост 65%), где большую часть составляют заказы Google и чипы шестого-седьмого поколений. Google - один из трех "гиперскейлеров" вместе с Meta и OpenAI. Высокая доля заказов от таких гигантов стала причиной падения акций в декабре, создавая риски снижения маржинальности и волатильность.

Итог: Google обеспечивает 20% всей выручки полупроводникового сегмента Broadcom. Критический партнер для 80% успеха ИИ-ускорителей.

Intel: потенциальный партнер Google

В 2025 году перенос части производства чипов Google на Intel Foundry Services перешел из гипотез в обсуждения. К декабрю 2025 года вероятность подкрепляется факторами.

Фактор 1: дефицит мощностей TSMC

Google перевела мобильные процессоры на TSMC в 2025 году. Но TSMC перегружена Apple и Nvidia. Google диверсифицирует поставщиков для серверных TPU.

Фактор 2: продвинутая упаковка

Google рассматривает технологию упаковки Intel EMIB для будущих ускорителей (TPU v9 к 2027 году). Альтернатива решению CoWoS от TSMC.

Фактор 3: техпроцесс Intel 18A

Intel запустила 18A в массовое производство в 2025 году - аналог 1.8 нм. Microsoft уже клиент. Аналитики прогнозируют, что Google последует. Intel предлагает заводы в США - снижение геополитических рисков и налоговые льготы.

Фактор 4: роль Broadcom и MediaTek

Google работает через посредников. Broadcom для текущих TPU, MediaTek для будущих. Intel Foundry может предложить лучшие условия. Broadcom адаптирует дизайн под фабрики Intel.

Итог: Полного ухода от TSMC не будет. Вероятна гибридная модель к 2026-2027 годам:

  • Проектирование с Broadcom/MediaTek

  • Производство у TSMC

  • Упаковка или часть компонентов у Intel

Цель - снижение зависимости от одной фабрики в ИИ-гонке.

Экономика вычислений

Взрывной рост требований к мощностям

Переход от простой интерполяции к глубокому рассуждению вызвал рост спроса на вычисления в 2025 году. Это Inference Scaling Laws.

Рост вычислений на порядки

Раньше основная нагрузка - на обучение. Теперь - на инференс. Пример: Новые модели вроде OpenAI o1 и o3 тратят в десятки раз больше времени на ответ, чем GPT-4. Исследования декабря 2025 года: модели с рассуждением потребляют в 30 раз больше энергии на 1000 запросов. Дело в том, что чтобы победить энтропию и дать верный ответ, ИИ запускает тысячи внутренних циклов проверки. Это требует экспоненциально больше операций.

Инфраструктурный кризис 2025 года

Скачок сделал главным ограничителем не алгоритмы, а физику. Энергопотребление к концу 2025 года удвоится до 23 ГВт - это как Нидерланды по выработке углеводородной энергии. Гиганты планируют вложить более $1 трлн в инфраструктуру, включая ЦОД Stargate за $500 млрд.

Экономический сдвиг

Индустрия осознала: масштабирование "времени размышления" эффективнее для сложных задач (математика, кодинг, наука), чем рост данных. Флагманы вроде o3-pro конца 2025 года думают над запросом минуты, используя ресурсы как целые кластеры прошлых лет.

Итог: Интеллект ИИ пропорционален сожженному электричеству при размышлении. Энергоэффективность и дешевая энергия - ключ к победе.

Оптимизация расходов: экономика токена

Рост энергопотребления сделал "экономику токена" приоритетом в 2025 году. Волна оптимизации на всех уровнях.

Переход на специализированную архитектуру

Вместо универсальных GPU - чипы только для инференса. Компании вроде Groq показывают эффективность LPUs в десятки раз выше. Кастомные чипы Google (TPU v6/v7), Amazon (Trainium 3) и Microsoft (Maia 100) замещают Nvidia, снижая себестоимость запроса на 40-60%.

Масштабирование эффективности

Прогресс идет через оптимизацию размышления, не размера. Спекулятивное декодирование позволяет маленькой модели набрасывать ответ, а большой - проверять его, снижая задержку и стоимость в разы. Дистилляция рассуждений дает флагманам обучать компактные модели имитировать логику для запуска "умных" функций на дешевом железе.

Смена парадигмы в железе: Nvidia Blackwell

Массовое внедрение Blackwell (B200) в 2025 году - ответ на кризис. Энергоэффективность в 25 раз выше при инференсе. Сокращение операционных расходов в 10 раз при масштабе.

Оптимизация на уровне софта

Квантование переводит модели на низкую точность (FP4/FP6 вместо FP16), делая их в 4 раза меньше по памяти и в 2-3 раза быстрее. Агенты и маршрутизация направляют 80% рутинных задач на дешевые малые модели, оставляя дорогие вычисления только для сложных проблем.

Энергетический маневр

ЦОДы строятся "power-first": близость к дешевой энергии важнее, чем к потребителю. Некоторые гиганты инвестируют в малые модульные реакторы (SMR) для фиксации стоимости электричества.

Итог: Парадокс. Суммарные требования растут, но стоимость "умного" токена упала в 280 раз за два года. Гонка между ростом сложности и удешевлением.

Революционные перспективы после 2025 года

Революционные шаги затрагивают физику процесса или базовую математику. Отказ от архитектуры фон Неймана и обратного распространения.

Оптические вычисления

Ожидаемый сдвиг: данные передаются фотонами вместо электронов.

Революция: Свет не имеет массы, почти не греется. Компании вроде Lightmatter поставляют интерконнекты для ЦОДов уже в 2025 году.

Эффект: Ускорение матричных вычислений в 100-1000 раз. Снижение энергопотребления на порядки. Обуздание энтропии без новых электростанций.

Нейроморфные чипы

Современный ИИ работает циклично, постоянно потребляет энергию. В отличие от мозга, где нейрон "вспыхивает" только при сигнале.

Революция: Переход к импульсным сетям, работающим по событию.

Эффект: Перенос мощного ИИ с дата-центров на устройства. ИИ уровня GPT-5 на батарее смартфона месяцами.

Био-цифровые гибриды

В 2024-2025 стартапы вроде FinalSpark дают облачный доступ к нейроплатформам из человеческих нейронов.

Революция: Биологические нейроны обрабатывают неопределенность эффективнее кремния в миллионы раз. Самообучаются без итераций.

Эффект: Системы с настоящей экстраполяцией. Решения за пределами обучающих данных.

Отказ от обратного распространения

Джеффри Хинтон предложил отказаться от метода обратного распространения для всех LLM.

Революция: Новые алгоритмы вроде Forward-Forward позволяют учиться в один проход. Как биологический мозг.

Эффект: Скорость обучения вырастет в разы. Требования к памяти упадут. ИИ станет адаптивным в реальном времени.

Квантовый ИИ

К концу 2025 года квантовые компьютеры IBM и Google достигли уровня интеграции в гибридные облака.

Революция: Кубиты идеальны для поиска глобального минимума в сложных пространствах вероятностей.

Эффект: Где классический ИИ интерполирует между точками, квантовый видит всю структуру мгновенно. Находит ответы, невозможные классически.

Итог: Если эволюция - быстрее и дешевле, революция - переход от вычисления интеллекта к его физическому воплощению. Перестать имитировать разум статистикой. Начать строить на принципах, близких к природе мышления.

UPD отредактировал пост в Cursor на Grok Code, устал объяснять Gemini 3 (хотя факты собирал через ИИ-чат в Google-поиске). А вайб-кодинг даётся Gemini 3 лучше всех, по моим ощущениям.

Комментарии (9)