Поклонники вайбкодинга и агентных инструментов говорят, что стали продуктивнее в 2, в 10, а то и в 100 раз. Кто-то собрал целый браузер с нуля. Впечатляет!

Тогда скептики резонно спрашивают: где все приложения? Если разработчики стали (возьмём консервативную оценку) хотя бы вдвое продуктивнее, где искать вдвое больше произведённого ПО? Такие вопросы исходят из допущения, что мир хочет больше программ, а значит, если их дешевле делать, их будут делать больше. Если вы с этим согласны — где тогда этот избыток, который можно назвать «AI-эффектом»?

Посмотрим на PyPI — центральный репозиторий Python-пакетов. Он большой, публичный и стабильно измеримый, так что AI-эффект должен быть хорошо заметен.

Считаем пакеты

Видите? Вот момент выхода ChatGPT. Похоже ли это на эпохальную революцию производительности на верхнем графике? Нет.

На нижнем графике — несколько всплесков новых пакетов в месяц в так называемую «AI-эру» с 2020 года. Но они отражают волны спама и вредоносного ПО, а не реальное создание пакетов.

График из двух панелей: общее число пакетов PyPI растёт экспоненциально до 800 тысяч, новые пакеты в месяц колеблются в районе 5–15 тысяч. Момент выхода ChatGPT отмечен, но никакого перелома в кривой не видно.
График из двух панелей: общее число пакетов PyPI растёт экспоненциально до 800 тысяч, новые пакеты в месяц колеблются в районе 5–15 тысяч. Момент выхода ChatGPT отмечен, но никакого перелома в кривой не видно.

Странно. Если AI делает разработчиков продуктивнее, почему они не производят больше ПО?

Считаем обновления

Можно возразить: создание пакетов — не тот показатель. Любой может загрузить «пакет», внутри которого лишь hello world. Это всегда проще, чем создать что-то устойчивое, чем люди реально пользуются. Нужно смотреть на «настоящие» пакеты — те, которые скачивают, используют и поддерживают.

Тогда другой график. Берём 15 000 самых скачиваемых Python-пакетов на PyPI за декабрь 2025 года, делим их на когорты по году создания и для каждой смотрим медианную частоту релизов во времени. Это разумный показатель производства реального, активно используемого ПО.

Что видим? Пакеты обновляются чаще после появления ChatGPT?

Отчасти.

Пакеты, "рождённые" после ChatGPT, обновлялись чаще в первый год жизни (13 релизов/год), чем пакеты 2014 года (6 релизов/год). Но это продолжение тренда, который начался слишком рано, чтобы его объяснить AI. Частота релизов в первый год начала расти с 2019-го (10 релизов/год) — задолго до появления современных AI-инструментов для разработки. Скорее всего, дело в росте популярности инструментов непрерывной интеграции вроде GitHub Actions.

Ещё один аргумент против AI-объяснения: пакеты по-прежнему обновляются реже по мере старения. Это не изменилось. То есть люди не используют AI так, чтобы обновлять старые пакеты активнее.

Дело в AI

Но часть роста начальной частоты релизов всё же связана с AI? Посмотрим глубже.

Разделим пакеты на те, что связаны с AI, и остальные — по описанию пакета. Виден ли AI-эффект?

Кое-что есть!

Пакеты не про AI ведут себя почти так же, как их предшественники до ChatGPT: тот же скромный, постепенный рост релизов в год.

А вот пакеты про AI показывают резкий скачок частоты обновлений. Например, пакеты про AI, впервые выпущенные в 2023 году, достигли медианы в 20 релизов за первые 12 месяцев — почти вдвое больше, чем их не-AI аналоги того же года.

Иными словами, новые пакеты про AI обновляются значительно чаще. Вопрос — почему.

Или дело в популярности?

AI сейчас очень популярен. Может быть, мы просто наблюдаем, что популярные пакеты обновляются чаще?

Проверим. Разобьём 15 000 пакетов на две группы: 7 500 более популярных и 7 500 менее популярных.

Нет. Верхний правый квадрант выбивается: популярные AI-пакеты после ChatGPT достигли 21–26 медианных релизов в год — более чем вдвое больше примерно 10 у популярных не-AI-пакетов (и заметно больше менее популярных AI-пакетов).

Так что эффект >2x в частоте релизов существует, и он сосредоточен именно в самых популярных AI-пакетах.

И что с того?

Резюмируем данные:

  1. Никакого очевидного роста скорости создания пакетов в целом после ChatGPT нет — и лишь минимальный рост частоты обновлений в целом.

  2. Небольшой, устойчивый рост частоты обновлений по годам существует, но этот тренд предшествует ChatGPT.

  3. Крупный рост (>2x) частоты обновлений — только у популярных AI-пакетов, со скромным эффектом у менее популярных.

Делает ли AI разработчиков в целом радикально продуктивнее?

Нет. Признаков того, что разработчики в среднем стали в 100 или даже в 10 раз продуктивнее, нет. Волны новых пакетов или обновлений просто не существует.

Создают ли некоторые разработчики приложения значительно быстрее благодаря AI?

Возможно. Но видимый совокупный эффект настолько скромен, что если кто-то и получает большой прирост, таких людей немного. Или же реальный прирост не такой большой. На графиках мы не увидели заметного роста частоты обновлений.

Создаётся ли огромное количество ПО для работы с AI?

Да. Скачок частоты обновлений у свежих AI-пакетов — это главный заметный эффект. И именно его узость требует объяснения.

Почему этот скачок сосредоточен в ПО про AI? Две гипотезы:

  1. Проблема навыков. Люди, создающие AI-инструменты, вероятно, лучше умеют использовать AI для разработки. Это даёт им больший прирост продуктивности. Но если бы дело было только в навыках, эффект распределился бы по всем AI-пакетам — а не только по самым популярным, как показывает матрица 2×2.

  2. Деньги и хайп. В AI влиты огромные средства и энтузиазм, которые конвертируются в том числе в PyPI-пакеты. Возможно, дело не в том, что разработчики стали продуктивнее, — просто они работают больше, потому что на это есть финансирование. Когорты на третьем графике иллюстрируют это: в 2021 году соотношение не-AI к AI-пакетам — больше 6:1 (1211 к 185). В 2024 году — меньше 2:1 (727 к 423). Получается, не AI делает разработчиков сверхлюдьми, а гиперинтерес к AI оплачивает более высокий темп создания и итерации пакетов про него.

Данные не позволяют определить, какой из эффектов больше.

Главный измеримый итог революции генеративного AI — пока не кембрийский взрыв (когда за короткое время расцветает всё и сразу), а резкий и узкий всплеск обновлений именно в пакетах про AI.

Русскоязычное сообщество про AI в разработке

Друзья! Перевод этой статьи подготовила команда ТГК «AI for Devs» — канала, где мы рассказываем про AI-агентов, плагины для IDE, делимся практическими кейсами и свежими новостями из мира ИИ. Подписывайтесь, чтобы быть в курсе и ничего не упустить!

Комментарии (30)


  1. alcotel
    25.03.2026 12:42

    Ещё одно наблюдение: вроде как раз для нейросети чисто писательская задача - ускорить работу приложений, написанных на Electron, переведя в нативный код.

    Тесты есть, нейроны есть, а что-то я ни разу результата не видел - формошлёпные приложения продолжают брать рубеж в 1 ГБ.


  1. kuza2000
    25.03.2026 12:42

    Могу про себя сказать. Один пакет не обновлял много лет, просто потому что некогда. Хотя и сам пользовался, и загрузки есть. Просто потому что некогда, надо не один вечер убить - собрать изменения, переделать инсталлятор, сделать тесты, протестировать под всеми версиями питона, и под двумя ОС. Создан он давно, еще до ИИ. И без ИИ я черт знает сколько бы еще тянул, но с ИИшкой сделал все за вечер. Ну долгий вечер был, конечно, но один. Плюс он еще умудрился там баги найти, сам))
    Речь про этот пакет https://pypi.org/project/live-trading-indicators/

    Второй пакет сделал с помощью ИИ на 100%, но он очень простой, я на него времени в сумме потратил, наверное, пару дней. И он для ИИ, да. Собственно, и выкладывать не собирался. Но он, не смотря на свою сверхпростоту оказался очень полезным, поэтому тоже сделал пакет.
    Вот он https://pypi.org/project/mcp-memory-bank/


  1. kuza2000
    25.03.2026 12:42

    Да и никто не будет делать пакеты, что бы делать пакеты. Пакет закрывает какую-то задачу. Задач больше не стало. Разве что в области ИИ появились новые - вот для них и делают пакеты. Вообще, насколько знаю, много стали вайбкодить не специалисты. Он делают для себя полезные примочки, пакеты они не выпускают. А для серьезного софта все-таки времени прошло мало. ИМХО.


  1. WannaCode
    25.03.2026 12:42

    Вот я накодил st10 дизассемблер за 1 день и все отлично. А без ИИ я так бы не сделал. Только я его никуда не выкладывал, поэтому он в статистику не идет.


    1. notlimitedwolf
      25.03.2026 12:42

      Пример плохой. В статье речь не про "не используйте ии это вред он ничего не может", а про продуктивность. Тут продуктивность нельзя измерить, ведь без ии её не было - да и проект сугубо любительский


  1. Visualynx
    25.03.2026 12:42

    А я сделал за два дня себе Генератор галереи рамок на стене, Генератор с чертежами подстолья для столов, Генератор раскладки пола из разноширинных досок и Виджет для презентации различных типов сценариев освещения домов/квартир. Раньше все это заняло бы у меня месяца два общения с кодером и, соотвтетсвенно, кучу денег. Я сам не кодер, просто немного понимаю, что такое код.


    1. DamirMur
      25.03.2026 12:42

      Сделать контуру для собаки, и начать производить на продажу это изделие - это несколько разные вещи, разные требования.

      Если получилось сделать контуру, то это не значит, что коттедж для людей, будет сделать также легко, там совсем другой уровень сложности.


    1. Zukomux
      25.03.2026 12:42

      Ну вы решили вполне себе частную задачу на один раз и это нормально. А вот с написанием кода так чтобы его можно было потом поддерживать и отлаживать возникают проблемы. И возникают они именно из-за вот таких, без обид, как вы, которые “немного понимаю код” Такой подход напрочь убивает какую-либо оптимизацию и архитектурные походы, что в свою очередь ведёт к тому что общий проект становится фрагментирован на различные участки кода написанные разными ИИ разными людьми в разном стиле


      1. Jubilus
        25.03.2026 12:42

        Оптимизация и архитектура для старперов. Настоящие вайб-кодеры клеят скрипты синей изолентой и деплоят в прод, пока оно не развалилось!)


    1. ulisma
      25.03.2026 12:42

      Я сам не кодер, просто немного понимаю, что такое код

      Так это основная ценность нейронки - дать возможность что-то сделать в области, которую ты не понимаешь вообще.

      Хорошему специалисту она в принципе не особо нужна. Ну или даст небольшой эффект в некоторых задач рутинных (которые и так уже автоматизированы должны быть). А в целом может не дать ничего или минимум.

      Но вот неспецу нейронка даст именно тот вау-эффект. Хотя по качеству решение может быть полной фигней. Это как на WP Elementor и т. п. раньше делали простую HTML-страницу. Тоже было круто, хотя в коде был полный мусор и проще было руками сверстать быстро.


  1. DarthVictor
    25.03.2026 12:42

    Устами LLM-ки, как говориться
    Устами LLM-ки, как говориться


    1. pavlushk0
      25.03.2026 12:42

      Хоспаде, покажите это корпатому...


      1. 40kTons
        25.03.2026 12:42

        Да кто такой этот ваш картавый?


        1. kukovik
          25.03.2026 12:42

          Человек со славянской фамилией, которую как только не изголяются "переводить" с английского. Как-то связан с ИИ.


  1. dibu28
    25.03.2026 12:42

    Нужно по другому показателю смотреть, что программисы стали больше спать и отдыхать, ну или "залипать" в тиктоках)))


  1. GerrAlt
    25.03.2026 12:42

    Хотел спросить, а почему вы уверены, что вайбокодеры умеют работать с пакетами?


    1. jlllk
      25.03.2026 12:42

      Поделки в стол никак не влияют на индустрию.

      Даже по тем примерам, что накидали в комментариях к этой статье, складывается ощущение, что это основное применение. Написать какую-то простую штуку, чтобы решить повседневную задачу. Это хорошо, даже отлично! Но стоит ли это тех ресурсов, которые были потрачены на бям?

      Я все жду, когда крупный бизнес начнет рассказывать, как им хорошо стало после внедрения ИИ. Но нужно еще подождать.


      1. anzay911
        25.03.2026 12:42

        Они уже рассказывают, сколько сэкономили на зарплатах.


    1. pavlushk0
      25.03.2026 12:42

      т.е. ИИ может всё но не может в пакеты? Вы щас акции OpenAI обрушили)


      1. GerrAlt
        25.03.2026 12:42

        ИИ может и может, но его же надо попросить это сделать


  1. isNikita
    25.03.2026 12:42

    Количество кода зависит от потребности рынка, а скорость разработки влияет на количество занятых производством. Проще говоря, скорость разработки нивелируется сокращениями, а не оверинженерингом.


  1. Roman19861986
    25.03.2026 12:42

    ИИ связанного кода стало больше потому что ИИ много где интегрируется с пользой. Но для разработчиков польза умеренная.


  1. gun_dose
    25.03.2026 12:42

    Пакеты — не очень показательная метрика, т к. ИИ чаще всего пишет сам то, что легко реализуется существующей библиотекой. То есть скачивания пакетов могут даже упасть из-за использования ИИ. В этом, кстати, одно из слабых мест сгенерированного кода: внешняя либа скорее всего многократно протестирована и оптимизирована.


  1. bugigugi
    25.03.2026 12:42

    Хороший музыкант с плохой гитарой делает хорошую музыку. Плохой музыкант с хорошей гитарой - нет. Вот и весь вайб-кодинг.


  1. zulkas
    25.03.2026 12:42

    Хорошо что нет снижения по графику, это значит что те кто верит в нормальный кодинг в долгосрочной перспективе - продолжают это делать.
    Если смотреть шире (не только библиотеки) ИИ как раз дает снижение выхода нового софта и сервисов.
    Например, мне нужно отслеживать изменения цен на товары которые хочу купить. Раньше я бы искал SaaS который это делает и платил за него подписку. Сейчас я с помощью ИИ сделал это за 1-2 вечера, задеплоил в cloudlfare workers и пользуюсь бесплатно, свою задачу решил.
    Буду ли я из этого делать свой  SaaS, когда любой может сделать так же? Нет конечно.

    P.S. И вы не сможете собрать такой кейс в статистику, каждый решает задачи для себя и не публикует никуда об этом отчет.


  1. CaerDarrow
    25.03.2026 12:42

    Ну такое. Надо еще поделить все это на количество разработчиков. С одной стороны вайбкодинг снизил порог входа до неприличия, и разработчиков стало больше. С другой - в долине сокращали разработчиков тысячами…


  1. Rikhmayer
    25.03.2026 12:42

    Комментарии навеяли аналогию с 3д-принтерами, про которые одни говорили, что они заменят всё производство всего навсегда, потому что логистика. Другие думали, что это игрушка, которая останется крайне нишевой штукой для энтузиастов.

    Сейчас 3д-принтер занимает свою нишу, понемногу расширяющуюся, но рынок не перевернул. Возможно, нейронки будут где-то там же, чуть повыше.


  1. Jubilus
    25.03.2026 12:42

    Сетки типа курсора ускоряют написание шаблонного кода, юнит-тестов и документации - это разгружает рутину, но не ускоряет этап проектирования архитектуры, согласования апи и дебага сложных стейтов. Продуктивность растет локально, а не глобально по проекту


    1. BRAINKIT
      25.03.2026 12:42

      Если растёт локально, то почему не глобально?


  1. andrey_snegovik
    25.03.2026 12:42

    По пакетам судить как-то странно. Вайбкодеры же в основном халявщики, им бабки нужны быстро. Значит, накодят сайтик какой-нибудь и запустят. Вот по этим сайтам и смотрите статистику: сколько выжило, сколько бабла принесло. Тогда картина будет честной.