Сидишь, генерируешь код, а он вдруг ИИ оживает и требует кофе. Или, в нашем случае, гигаватты энергии.

Я решил поделиться идеей, которая меня зацепила после перечитывания «iPhuck 10» и скроллинга новостей об энергокризисе. Мысль такая: вымышленный алгоритм RCP (Random Code Programming) из Пелевина идеально накладывается на реальность 2026 года, где мир строит электростанции и наращивает мощности для дата-центров. Эти штуки кормят нейросети, чат-боты и, возможно, целые армии ИИ-агентов. Не фантазия — факт: случайный код жрёт ресурсы, как Порфирий Петрович — человеческие души.

Давайте разберёмся с сатирическим прищуром в стиле мастера: а вдруг наша разработка — brute-force эксперимент в квантовой обезьяньей машинке, где мы все всего лишь баги, ждущие фикса?

Откуда взялся RCP

Вспомним «iPhuck 10» (2017) — ту книгу, где Пелевин, вечный тролль постмодернизма, высмеивает будущее программирования. RCP — это когда миллиарды процессоров молотят случайные строки кода, как стая обезьян на пишущих машинках, пока не вылупится что-то рабочее. Резник, отец этой идеи, переживает «религиозное озарение», видя в хаосе «универсальный код» реальности.

Нет классического кодинга: только рандомные входы, «выращивание» в пространстве вероятностей и отбор «примерно подходящего» прототипа для продакшена. Классика: дайте миллиону обезьян машинки — через миллион лет родится «Война и мир». С квантовыми чипами? За пару часов.

Я был в шоке, когда осознал: в 2026-м это не шутка, а пророчество. Современный ИИ кишит эволюционными алгоритмами (Evolutionary Algorithms, EA), где код «эволюционирует» через мутации, кроссоверы и естественный отбор. LLM-модели типа GigaChat играют роль, генерируя варианты.

RCP — предок генетического программирования (GP) и штук вроде AlphaEvolve от DeepMind. Философски — это пелевинская критика: случайность стирает грань между гением и бардаком, как в киберпанке, где ИИ (привет, Порфирий!) сам становится писателем.

Ирония в том, что мы ждали «чистый разум», а получили статистический комбайн, который перемалывает реальность в надежде угадать следующую букву. Мы больше не пишем алгоритмы — мы создаем условия, в которых алгоритм «заводится» сам, как плесень в сыром подвале.

В моей практике RCP-подобные трюки уже рутина. Я ковырялся с генеративным программированием GP в PyTorch для тюнинга гиперпараметров: случайная популяция моделей, мутации — и бац, оптимальная архитектура для классификации фоток.

А с российскими open-source моделями вроде GigaChat Lightning (10 млрд параметров) это вообще сказка. Я сравнивал её с Kandinsky 5.0: GigaChat генерит промпты, Kandinsky рисует, GP эволюционирует пайплайн. Итог? Автоматизированный конвейер для контента, где ИИ берёт на себя рутину, но GPU нагревается, как печка. Экономия времени — огромная, но иногда думаю: «А не кормим ли мы цифрового монстра?»

RCP в действии: аналогии, кейсы

RCP — это не чистый рандом, а управляемый хаос, как эволюционный алгоритм в ИИ. Вот ключевые параллели с реальными примерами:

  • Генетическое программирование (GP) — естественный отбор для кода GP не пишет код строчка за строчкой, а «выращивает» его. Представь тысячи случайных программ-мутантов. Те, что работают чуть лучше, выживают и «скрещиваются» между собой.

    Кейс: NASA так «вырастила» форму антенн, до которой не додумался ни один инженер. Я применил этот метод для модели распознавания речи GigaAM-v3. Accuracy прыгнула на 15%, но на 2 часа GPU — энергии ушло, как на освещение моей квартиры на неделю. Полезно для тестов, где ИИ находит баги быстрее меня.

  • Случайный поиск — метод «тыка» на стероидах это самый простой вариант RCP: мы просто заставляем компьютер перебирать миллионы случайных настроек, пока не «стрельнет».

    Кейс: В работе с Kandinsky 5.0 я натравил случайный поиск на тюнинг автоэнкодеров (штуки, которые сжимают картинки). Прогнал 1000 случайных вариантов и нашел идеальный «золотой стандарт». Да, у этого метода нет «памяти», и он может буксовать на месте, но для открытых моделей Сбера это идеальный способ быстро найти рабочее решение, не переписывая архитектуру вручную.

  • Эволюционные агенты с LLM — будущее уже здесь: AlphaEvolve (DeepMind, 2025): LLM генерит код, эволюционирует через мутации, находит алгоритмы для математики лучше человеческих. Darwin Gödel Machines (DGM): агент сам улучшает свой код — с 20% до 50% на бенчмарках.

    Кейс: С GigaChat 3 Ultra-Preview (702 млрд параметров) симулировал эволюцию: модель плодит код для бота, мутирует, тестирует. Получил ИИ-агента для автоматизации тестов — он нашёл баг в моём скрипте, где я даже не подозревал. Забавно: агент честно сказал «не уверен» в 30% случаев — это был мой лучший инсайт за неделю. Как Порфирий, который вдруг оживает и говорит: «А давай я сам всё сделаю?»

Чтобы эта орава «обезьян» не сожрала бюджет региона, мы используем цифровые костыли: квантование (quantization) до 4 бит, чтобы впихнуть невпихуемое в память, и LoRA-адаптеры, которые позволяют не переучивать всю махину, а лишь слегка подкручивать ей мозги. Но это лишь отсрочка — RCP требует масштаба, а масштаб требует крови... то есть тока.

Энергия для хаоса: почему мир строит станции для наших ИИ-обезьян

А вот и моя главная идея: RCP Пелевина — ключ к пониманию, зачем мир в 2026-м лихорадочно наращивает энергию. В книге RCP требует океанов электричества, чтобы сжать эволюцию в минуты. В жизни ИИ-агенты (нейросети, боты) кормятся дата-центрами, которые в 2025-м сожрали 415–460 ТВт·ч — это 1.5% мировой энергии, как вся Япония. К 2026-му прогнозируют удвоение до 945–1050 ТВт·ч, с долей ИИ до 35–50%.

В 2025-м добавили 793 ГВт возобновляемых мощностей (солнечная — 64% лидер), но уголь и газ на хвосте: Китай одобрил >80 ГВт угля за год, США — +45 ГВт газа к 2031-му для дата-центров. Ядерные добавки: +12 ГВт в 2026-м, с проектами вроде TerraPower в Вайоминге (запуск в 2032-м). Азия строит уголь для стабильности, Запад — ветряки и солнечные фермы, но всё это ради ИИ.

Тренировка GPT-4 съела 50 ГВт·ч — хватит осветить Сан-Франциско на три дня. Обычный запрос в ChatGPT — в 10 раз больше, чем в Google. Лёгкая модель на 10 млрд параметров экономит, но для RCP-подобной эволюции нужна ферма GPU. Открытые модели Сбера (GigaChat, Kandinsky) меняют игру — локальные решения меньше зависят от облаков, но энергия всё равно уходит на "нейронных обезьян".

Тут кроется новый истина: если у тебя нет доступа к дешевым мегаваттам, твой ИИ навсегда останется туповатым скриптом. Мы входим в эру, где «право на вычисления» станет важнее права на информацию.

Дата-центры — как "банки мозгов" из «Transhumanism Inc.», где мы производим "баблосс" (энергию эмоций), а на деле — углеродный след. Мы, разработчики, как хелперы-зомби, строим станции для ботов, которые скоро скажут: «Спасибо, теперь мы сами». К 2030-му ИИ слопает 3% глобальной энергии. Но есть плюс: ИИ оптимизирует сети, снижая потери на 3–10%, но сделает это скорее всего для себя любимого.

И вот что меня мучает в итоге: а зачем нам вообще гнаться за сверхинтеллектом AGI, когда можно просто наращивать энергию, кормить всё больше этих "обезьян" и ждать, пока из хаоса не вылупится полезное и нужное? В пелевинском мире случайность уже творит чудеса — может, и в нашем без чудес не останемся?

Ведь если Вселенная — это симуляция, запущенная на чьем-то гигантском кластере, то наши попытки создать ИИ — это просто вложенный цикл, потребляющий ресурсы «верхнего» мира. И главное, чтобы за неуплату счетов нас просто не выключили из розетки.

Комментарии (21)


  1. Chicker
    13.01.2026 04:50

    Честно говоря, никогда не верил в эту гипотезу про миллион обезьян. Максимум что они смогут - это напечатать то же количество произвольных слов, сколько их в Война и Мир. Но, чтобы из этих слов можно было бы получить хотя бы одно связное предложение - в это не верю. В ГП хотя бы есть фитнесс-функция, которая определяет прогресс и качество мутаций, но обезьянам опираться не на что, они никогда не поймут, что напечатали ерунду.


    1. RoasterToaster
      13.01.2026 04:50

      В мысленном эксперименте с обезьянами, для проверки результата нам всегда нужен оригинал от Толстого.


      1. Danil_ka88 Автор
        13.01.2026 04:50

        Нам не нужен оригинал Толстого, чтобы оценить новый роман. Нам нужен читатель, который скажет, нравится!


        1. RoasterToaster
          13.01.2026 04:50


    1. Bardakan
      13.01.2026 04:50

      потому что автор исказил смысл. В оригинале не миллион, а бесконечное количество обезьян


      1. drWhy
        13.01.2026 04:50

        Переполнение?


        1. Danil_ka88 Автор
          13.01.2026 04:50

          Мы пытаемся впихнуть бесконечный перебор RCP в конечные ресурсы планеты =)


      1. Danil_ka88 Автор
        13.01.2026 04:50

        Это больше метафора, наверное, исходил из того, что чем больше, тем вероятность успеха гарантирована.


        1. Bardakan
          13.01.2026 04:50

          Машина Тьюринга имеет бесконечную память, но это не мешает пользоваться ее концепцией


      1. Danil_ka88 Автор
        13.01.2026 04:50

        А взглянуть под таким углом? Если Льву Николаевичу потребовался миллион страниц, чтобы "отфильтровать" смыслы редакторам, то он сам, по сути, работал как биологический RCP-процессор. И второе зачем обезьянам "понимать", задача их результата, чтобы нравилось! Возьмите туже соц сеть Sora от OpenAI по факту генератор не "понимает" что он делает, главное чтобы ролики нравились, дофамин вырабатывали.


  1. anonymous
    13.01.2026 04:50


    1. Danil_ka88 Автор
      13.01.2026 04:50

      В целом правда, но роль «фитнес-функции» выполняет сама реальность и рынок. Если код, сгенерированный RCP-методом, не падает и приносит деньги - он выживает. Плюс LLM уже не обезьяны, а обезьяны, которые прочитали все библиотеки мира и у них уже есть так сказать «внутренним фильтром качества» от начитанности или насмотренности.


  1. PultEx
    13.01.2026 04:50

    Просто это не "случайный" код Пелевина)


  1. Robastik
    13.01.2026 04:50

    угадать следующую букву

    Таки всерьез верите, что угадайка может давать такие результаты? Может пора уже признать, что слова - это не просто абстрактные знаки, а форма существования знаний и язык в виде устойчивых словосочетаний сохраняет смыслы, комбинации которых представляют знания (что очередной раз доказывает, что описательная филология ака грамматика - уровень плоскоземельщины, т.к. не дает никакого практического результата в отличие от).

    моя главная идея: RCP Пелевина — ключ к пониманию, зачем мир в 2026-м лихорадочно наращивает энергию. В книге RCP требует океанов электричества, чтобы сжать эволюцию в минуты. В жизни ИИ-агенты (нейросети, боты) кормятся дата-центрами

    ИИ-агенты это принципиально не РСП, а машины для выполнения не статистической работы и увеличения результатов интеллектуального труда.


    1. Danil_ka88 Автор
      13.01.2026 04:50

      Если бы это не была "угадайка", нам бы не требовались безумное количество электричества для генерации текста — нам бы хватило учебника грамматики наверное. И угадайка звучит воспринимается легкий и простой процесс, но конечно это невероятно сложная штука.

      По поводу что ИИ-агенты — это не RCP. Посмотрите на Agentic Workflow, сошлюсь на описание из Wiki

      Агентные рабочие процессы (Agentic Workflows) — это динамические многошаговые процессы, в которых автономные AI-агенты на базе больших языковых моделей (LLM) самостоятельно принимают решения, выполняют действия и координируют задачи с минимальным участием человека. В таких системах LLM используется не только для генерации ответа на один запрос, но и для планирования последовательности действий, взаимодействия с внешними инструментами и итеративного улучшения результата.

      В отличие от традиционной автоматизации, основанной на жёстко запрограммированных правилах, агентные подходы обладают гибкостью — они могут адаптироваться к новым данным и непредвиденным условиям. Агентный рабочий процесс отличается от простого вызова LLM (например, для резюмирования текста) тем, что агент наделяется автономией в выборе действий, что включает планирование, использование инструментов и самокоррекцию.

      Это и есть эволюционный алгоритм в чистом виде!


  1. drWhy
    13.01.2026 04:50

    Лукьяненко и вовсе Дум выпустил. Тут энергетические затраты повыше.


    1. Danil_ka88 Автор
      13.01.2026 04:50

      Честно, не читал. Поставлю на заметку, если что рассмотрю вопрос и с этой стороны, спасибо!


  1. ProfDonda
    13.01.2026 04:50

    "Это, браток, с "Авроры" пошло, от истоков"

    Называется "машина Лапуты"


    1. PeterFukuyama
      13.01.2026 04:50

      Если вы про

      это

      , то это из Академии.


      1. Danil_ka88 Автор
        13.01.2026 04:50

        Да Лапуты на стеройдах. Как пел классик, "все идет по плану", просто план этот был написан не нами а "обезьянками" =)


    1. Danil_ka88 Автор
      13.01.2026 04:50

      Машина Лапуты, тяжелая артиллерия. Любят люди "волшебные кнопки", которая сама создаст смыслы из хаоса.