Сидишь, генерируешь код, а он вдруг ИИ оживает и требует кофе. Или, в нашем случае, гигаватты энергии.

Я решил поделиться идеей, которая меня зацепила после перечитывания «iPhuck 10» и скроллинга новостей об энергокризисе. Мысль такая: вымышленный алгоритм RCP (Random Code Programming) из Пелевина идеально накладывается на реальность 2026 года, где мир строит электростанции и наращивает мощности для дата-центров. Эти штуки кормят нейросети, чат-боты и, возможно, целые армии ИИ-агентов. Не фантазия — факт: случайный код жрёт ресурсы, как Порфирий Петрович — человеческие души.

Давайте разберёмся с сатирическим прищуром в стиле мастера: а вдруг наша разработка — brute-force эксперимент в квантовой обезьяньей машинке, где мы все всего лишь баги, ждущие фикса?

Откуда взялся RCP

Вспомним «iPhuck 10» (2017) — ту книгу, где Пелевин, вечный тролль постмодернизма, высмеивает будущее программирования. RCP — это когда миллиарды процессоров молотят случайные строки кода, как стая обезьян на пишущих машинках, пока не вылупится что-то рабочее. Резник, отец этой идеи, переживает «религиозное озарение», видя в хаосе «универсальный код» реальности.

Нет классического кодинга: только рандомные входы, «выращивание» в пространстве вероятностей и отбор «примерно подходящего» прототипа для продакшена. Классика: дайте миллиону обезьян машинки — через миллион лет родится «Война и мир». С квантовыми чипами? За пару часов.

Я был в шоке, когда осознал: в 2026-м это не шутка, а пророчество. Современный ИИ кишит эволюционными алгоритмами (Evolutionary Algorithms, EA), где код «эволюционирует» через мутации, кроссоверы и естественный отбор. LLM-модели типа GigaChat играют роль, генерируя варианты.

RCP — предок генетического программирования (GP) и штук вроде AlphaEvolve от DeepMind. Философски — это пелевинская критика: случайность стирает грань между гением и бардаком, как в киберпанке, где ИИ (привет, Порфирий!) сам становится писателем.

Ирония в том, что мы ждали «чистый разум», а получили статистический комбайн, который перемалывает реальность в надежде угадать следующую букву. Мы больше не пишем алгоритмы — мы создаем условия, в которых алгоритм «заводится» сам, как плесень в сыром подвале.

В моей практике RCP-подобные трюки уже рутина. Я ковырялся с генеративным программированием GP в PyTorch для тюнинга гиперпараметров: случайная популяция моделей, мутации — и бац, оптимальная архитектура для классификации фоток.

А с российскими open-source моделями вроде GigaChat Lightning (10 млрд параметров) это вообще сказка. Я сравнивал её с Kandinsky 5.0: GigaChat генерит промпты, Kandinsky рисует, GP эволюционирует пайплайн. Итог? Автоматизированный конвейер для контента, где ИИ берёт на себя рутину, но GPU нагревается, как печка. Экономия времени — огромная, но иногда думаю: «А не кормим ли мы цифрового монстра?»

RCP в действии: аналогии, кейсы

RCP — это не чистый рандом, а управляемый хаос, как эволюционный алгоритм в ИИ. Вот ключевые параллели с реальными примерами:

  • Генетическое программирование (GP) — естественный отбор для кода GP не пишет код строчка за строчкой, а «выращивает» его. Представь тысячи случайных программ-мутантов. Те, что работают чуть лучше, выживают и «скрещиваются» между собой.

    Кейс: NASA так «вырастила» форму антенн, до которой не додумался ни один инженер. Я применил этот метод для модели распознавания речи GigaAM-v3. Accuracy прыгнула на 15%, но на 2 часа GPU — энергии ушло, как на освещение моей квартиры на неделю. Полезно для тестов, где ИИ находит баги быстрее меня.

  • Случайный поиск — метод «тыка» на стероидах это самый простой вариант RCP: мы просто заставляем компьютер перебирать миллионы случайных настроек, пока не «стрельнет».

    Кейс: В работе с Kandinsky 5.0 я натравил случайный поиск на тюнинг автоэнкодеров (штуки, которые сжимают картинки). Прогнал 1000 случайных вариантов и нашел идеальный «золотой стандарт». Да, у этого метода нет «памяти», и он может буксовать на месте, но для открытых моделей Сбера это идеальный способ быстро найти рабочее решение, не переписывая архитектуру вручную.

  • Эволюционные агенты с LLM — будущее уже здесь: AlphaEvolve (DeepMind, 2025): LLM генерит код, эволюционирует через мутации, находит алгоритмы для математики лучше человеческих. Darwin Gödel Machines (DGM): агент сам улучшает свой код — с 20% до 50% на бенчмарках.

    Кейс: С GigaChat 3 Ultra-Preview (702 млрд параметров) симулировал эволюцию: модель плодит код для бота, мутирует, тестирует. Получил ИИ-агента для автоматизации тестов — он нашёл баг в моём скрипте, где я даже не подозревал. Забавно: агент честно сказал «не уверен» в 30% случаев — это был мой лучший инсайт за неделю. Как Порфирий, который вдруг оживает и говорит: «А давай я сам всё сделаю?»

Чтобы эта орава «обезьян» не сожрала бюджет региона, мы используем цифровые костыли: квантование (quantization) до 4 бит, чтобы впихнуть невпихуемое в память, и LoRA-адаптеры, которые позволяют не переучивать всю махину, а лишь слегка подкручивать ей мозги. Но это лишь отсрочка — RCP требует масштаба, а масштаб требует крови... то есть тока.

Энергия для хаоса: почему мир строит станции для наших ИИ-обезьян

А вот и моя главная идея: RCP Пелевина — ключ к пониманию, зачем мир в 2026-м лихорадочно наращивает энергию. В книге RCP требует океанов электричества, чтобы сжать эволюцию в минуты. В жизни ИИ-агенты (нейросети, боты) кормятся дата-центрами, которые в 2025-м сожрали 415–460 ТВт·ч — это 1.5% мировой энергии, как вся Япония. К 2026-му прогнозируют удвоение до 945–1050 ТВт·ч, с долей ИИ до 35–50%.

В 2025-м добавили 793 ГВт возобновляемых мощностей (солнечная — 64% лидер), но уголь и газ на хвосте: Китай одобрил >80 ГВт угля за год, США — +45 ГВт газа к 2031-му для дата-центров. Ядерные добавки: +12 ГВт в 2026-м, с проектами вроде TerraPower в Вайоминге (запуск в 2032-м). Азия строит уголь для стабильности, Запад — ветряки и солнечные фермы, но всё это ради ИИ.

Тренировка GPT-4 съела 50 ГВт·ч — хватит осветить Сан-Франциско на три дня. Обычный запрос в ChatGPT — в 10 раз больше, чем в Google. Лёгкая модель на 10 млрд параметров экономит, но для RCP-подобной эволюции нужна ферма GPU. Открытые модели Сбера (GigaChat, Kandinsky) меняют игру — локальные решения меньше зависят от облаков, но энергия всё равно уходит на "нейронных обезьян".

Тут кроется новый истина: если у тебя нет доступа к дешевым мегаваттам, твой ИИ навсегда останется туповатым скриптом. Мы входим в эру, где «право на вычисления» станет важнее права на информацию.

Дата-центры — как "банки мозгов" из «Transhumanism Inc.», где мы производим "баблосс" (энергию эмоций), а на деле — углеродный след. Мы, разработчики, как хелперы-зомби, строим станции для ботов, которые скоро скажут: «Спасибо, теперь мы сами». К 2030-му ИИ слопает 3% глобальной энергии. Но есть плюс: ИИ оптимизирует сети, снижая потери на 3–10%, но сделает это скорее всего для себя любимого.

И вот что меня мучает в итоге: а зачем нам вообще гнаться за сверхинтеллектом AGI, когда можно просто наращивать энергию, кормить всё больше этих "обезьян" и ждать, пока из хаоса не вылупится полезное и нужное? В пелевинском мире случайность уже творит чудеса — может, и в нашем без чудес не останемся?

Ведь если Вселенная — это симуляция, запущенная на чьем-то гигантском кластере, то наши попытки создать ИИ — это просто вложенный цикл, потребляющий ресурсы «верхнего» мира. И главное, чтобы за неуплату счетов нас просто не выключили из розетки.

Комментарии (5)


  1. Chicker
    13.01.2026 04:50

    Честно говоря, никогда не верил в эту гипотезу про миллион обезьян. Максимум что они смогут - это напечатать то же количество произвольных слов, сколько их в Война и Мир. Но, чтобы из этих слов можно было бы получить хотя бы одно связное предложение - в это не верю. В ГП хотя бы есть фитнесс-функция, которая определяет прогресс и качество мутаций, но обезьянам опираться не на что, они никогда не поймут, что напечатали ерунду.


    1. RoasterToaster
      13.01.2026 04:50

      В мысленном эксперименте с обезьянами, для проверки результата нам всегда нужен оригинал от Толстого.


  1. PultEx
    13.01.2026 04:50

    Просто это не "случайный" код Пелевина)


  1. Robastik
    13.01.2026 04:50

    угадать следующую букву

    Таки всерьез верите, что угадайка может давать такие результаты? Может пора уже признать, что слова - это не просто абстрактные знаки, а форма существования знаний и язык в виде устойчивых словосочетаний сохраняет смыслы, комбинации которых представляют знания (что очередной раз доказывает, что описательная филология ака грамматика - уровень плоскоземельщины, т.к. не дает никакого практического результата в отличие от).

    моя главная идея: RCP Пелевина — ключ к пониманию, зачем мир в 2026-м лихорадочно наращивает энергию. В книге RCP требует океанов электричества, чтобы сжать эволюцию в минуты. В жизни ИИ-агенты (нейросети, боты) кормятся дата-центрами

    ИИ-агенты это принципиально не РСП, а машины для выполнения не статистической работы и увеличения результатов интеллектуального труда.


  1. drWhy
    13.01.2026 04:50

    Лукьяненко и вовсе Дум выпустил. Тут энергетические затраты повыше.