Stack Overflow, некогда главная платформа для программистов, переживает кризис: за два года трафик упал почти на 90%. Что стало причиной — изменившиеся привычки пользователей или ошибки самой платформы? Давайте попробуем разобраться в происходящем. А еще посмотрим, что администрация делает для спасения и что ждет сообщества разработчиков в новой реальности, где ответы на вопросы находятся быстрее, чем успеваешь их задать.

Что происходит

Stack Overflow (SO) в течение многих лет был палочкой-выручалочкой для миллионов программистов. Ошибка в коде, сложная задача или непонятная документация — поиск решения проблемы в Google почти всегда вел на SO. И там находились точные ответы, проверенные сообществом. Но в 2025 году платформа столкнулась с катастрофой: за два года трафик рухнул почти на 90%.

Источник

С пика в 2021 году, когда SO посещали сотни миллионов пользователей в месяц, к 2025-му аудитория сократилась до минимума. В апреле 2025 года общее количество публикаций — то есть суммарное число вопросов и ответов — снизилось на 64% по сравнению с апрелем 2024 года и на 90% по сравнению с пиковым уровнем апреля 2020-го. Это совпало с ростом популярности инструментов ИИ, таких как ChatGPT и GitHub Copilot.

Сколько вопросов в месяц задавали на StackOverflow. Источник
Сколько вопросов в месяц задавали на StackOverflow. Источник

Количество новых обращений тоже стремительно падает: в январе 2025 года было задано 34 390 вопросов, а уже в феврале — только 29 693. А ведь еще в апреле 2023 года общий трафик сайта снизился на 14% по сравнению с предыдущим годом. Но это, как оказалось, только начало глобального тренда. 

Золотой век и приход ИИ

Stack Overflow появился в 2008 году благодаря Джеффу Этвуду и Джоэлу Спольски. Идея была гениальной: разработчики задают на площадке вопросы, эксперты отвечают, а сообщество голосует за лучшие решения. Система репутации мотивировала участников, а строгая модерация обеспечивала качество. К 2021 году на платформе накопилось свыше 58 миллионов вопросов и ответов, и это сделало ее незаменимой для обучения и работы.

Золотой век длился до 2020-х, а дальше языковые модели (LLM) начали менять правила игры. GPT-3 от OpenAI, Codex (основа GitHub Copilot) и ChatGPT, вышедший в ноябре 2022 года, показали, что ИИ может не только понимать вопросы, но и генерировать код, объяснять ошибки и предлагать решения. Это вызвало тревогу в сообществе SO: не заменит ли ИИ форумы? В 2022 году на платформе даже временно запретили ответы, сгенерированные ИИ, из-за их неточности и риска спама.

Ирония в том, что многие LLM обучались на данных Stack Overflow, доступных по лицензии Creative Commons. Платформа, годами собиравшая знания, невольно помогла создать конкурентов. Например, Codex использовал публичные репозитории GitHub и посты SO для тренировки. Когда ChatGPT стал общедоступным, пользователи начали замечать, что его ответы часто повторяют популярные решения с SO, но без ссылок.

Первые признаки спада появились уже в 2022 году. Исследования, например от аналитиков Stack Exchange, показали, что после появления ChatGPT активность на SO упала на 16% за полгода. К 2025 году ситуация стала критической: посетители все реже задавали вопросы, а многие ответы перестали обновляться.

Почему пользователи предпочитают ИИ

Падение трафика SO связано с ростом популярности языковых моделей. Тому несколько причин:

  • Оперативность. На SO нужно сформулировать вопрос, дождаться ответа (иногда часы или дни) и выбрать лучшее решение среди комментариев. В некоторых случаях его может и не быть. А ChatGPT или Copilot отвечают подробнейшим образом за секунды, часто с пояснениями.

  • Удобство. Stack Overflow требует регистрации, соблюдения правил оформления и терпения к голосованиям. Плохо сформулированный вопрос могут закрыть или заминусовать. ИИ-инструменты ничего подобного не делают: достаточно ввести запрос в чат или IDE, даже если он корявый. Например, вместо того чтобы писать на SO «Почему мой Python-код выдает TypeError?» можно просто скопировать код в ChatGPT и получить подробный разбор ошибки.

  • Универсальность. ИИ не ограничен программированием. ChatGPT может ответить на вопрос о настройке сервера, объяснить алгоритм или даже написать документацию. SO, несмотря на свою мощь, остается нишевым форумом, где ответы зависят от активности сообщества.

  • Атмосфера. SO давно критиковали за недружелюбность к новичкам. Начинающие программисты часто сталкивались с резкими комментариями, вроде «Это уже спрашивали» или «Прочитайте документацию». Модераторы закрывали некоторые ветки и вопросы как «дубликаты» или «некачественные». ChatGPT, напротив, отвечает доброжелательно на любые запросы пользователя. Никакой агрессии.

Но при всех плюсах языковых моделей все-таки они нередко ошибаются: генерируют устаревший код, не учитывают контекст задачи, предлагают нерабочие решения, ну и дальше по списку. Особенно это заметно в нетипичных случаях, где все решает опыт и понимание нюансов. Тогда ответ от эксперта-разработчика будет гораздо глубже и полезнее.

Как OpenAI и GitHub Copilot изменили игру

OpenAI и GitHub Copilot стали катализаторами кризиса SO. Copilot, интегрированный в IDE вроде VS Code, предлагает автодополнение кода, исправление ошибок и другие функции прямо в процессе работы. Зачем искать решение на форуме, если ИИ подскажет, как написать цикл или обработать исключение, не отрываясь от редактора? По данным GitHub, к 2024 году Copilot помог примерно 1,5 миллиона разработчиков, а 40% кода в проектах с его использованием генерировалось автоматически.

ChatGPT пошел еще дальше. Он не только пишет код, но и объясняет его, адаптируя ответ под уровень пользователя. Например, запрос «Напишите REST API на Flask» сервис выдает готовый вариант с комментариями. К тому же ИИ может работать с контекстом: если показать ему кусок кода, он предложит исправления или оптимизацию.

Все это сильно повлияло на популярность Stack Overflow. Если в 2020 году ресурс был в топ-10 сайтов по программированию в поисковых запросах, то к 2025 году его обогнали ChatGPT, Copilot и другие ИИ-инструменты. И этот тренд сохраняется

Ответ Stack Overflow

Stack Overflow не сдается без боя. В 2023 году платформа запустила Stack Overflow Labs, чтобы интегрировать ИИ в свою экосистему. Проект OverflowAI должен был объединить базу знаний SO с языковыми моделями, предложить умный поиск, автогенерацию ответов и персонализированные рекомендации. Идея звучит круто: вместо ожидания ответа от человека пользователь получает мгновенное решение, проверенное данными самого SO.

Параллельно платформа двинулась в B2B-сегмент. Продукт Stack Overflow for Teams позволяет организациям создавать закрытые базы знаний для сотрудников, монетизируя доступ к контенту. К 2024 году этим сервисом пользовались тысячи организаций, включая самые крупные ИТ-компании. Еще SO экспериментировал с платными функциями вроде премиум-доступа к аналитике или приоритетной поддержке.

Но эти шаги вызвали раскол в сообществе. В 2023 году модераторы восстали против новых правил, связанных с ИИ. Платформа запретила удалять ответы, сгенерированные моделями, а это возмутило активных участников. Часть модераторов уволили, некоторые ушли сами, обвиняя SO в коммерциализации за счет сообщества. Форумы Reddit и Hacker News пестрели критикой: пользователи писали, что сервис теряет душу, становясь корпоративным продуктом.

Тем не менее критики считают, что SO опоздал с реакцией. Когда ChatGPT захватывал рынок, платформа медлила с инновациями, а OverflowAI запустился слишком поздно, чтобы конкурировать с Copilot или OpenAI. К тому же новые функции не решили проблему с недружелюбной атмосферой, которая отпугивает новичков — вот пример.

Что ждет Stack Overflow? Возможные сценарии

Будущее Stack Overflow туманно, но можно выделить четыре сценария:

  1. Архив знаний. Платформа превращается в статичную базу данных, как старые форумы по Linux или PHP. Упор на SEO и поисковую индексацию сохранит часть трафика, но сообщество перестанет быть активным. Многие вопросы на Stack Overflow сегодня относятся еще к 2010-м годам, а новые темы появляются все реже.

  2. B2B-платформа. SO может полностью уйти в корпоративный сегмент, предлагая платный доступ к ответам и инструментам для бизнеса. Stack Overflow for Teams — шаг в этом направлении, но такой поворот рискует оттолкнуть обычных пользователей.

  3. Слияние или Open Source. Платформа может объединиться с другим проектом, например, с GitHub или крупным сообществом вроде DEV.to. Альтернатива — переход к открытой модели, где развитие контролирует комьюнити. Это сложный путь, требующий инвестиций и реформ. 

  4. Угасание. В худшем случае SO ждет судьба Quora или Yahoo Answers — постепенное снижение активности и утрата релевантности. Если администрация платформы предпочтет ничего не делать, то ресурс станет лишь воспоминанием.

У каждого из них свои риски. Архив знаний сохранит ценность данных, но убьет дух сообщества. B2B-модель может принести прибыль, но отпугнет основное ядро пользователей. Слияние или open-source требуют радикальных изменений, а угасание — вопрос времени, если ничего не предпринимать.

Что в итоге? Языковые модели — не просто конкуренты Stack Overflow, они перестраивают сам процесс получения знаний. ChatGPT, Copilot и их аналоги предлагают скорость, удобство и универсальность, с которыми сложно соперничать. Stack Overflow стоит перед выбором: адаптироваться или уйти в историю как пример платформы, не выдержавшей конкуренции. Что будет дальше — покажет время, но пока перевес на стороне машин.

Комментарии (25)


  1. kalombo
    23.05.2025 12:14

    Пожалуйста, научите меня пользоваться ИИ, такое ощущение, что все только на нём пишут и я один чего-то не знаю.

    Вопрос: Как передавать cdata данные в xmltodict.unparse, чтобы не экранировались символы < и >

    Ответ stackoverflow: https://stackoverflow.com/questions/35089171/xmltodict-unparse-is-not-handling-cdata-properly Объяснение, что прямой возможности нет и несколько вариантов с патчингом

    Ответ chatgpt:

    import xmltodict
    
    # Создаём словарь с CDATA
    data = {
        'root': {
            'message': xmltodict.CData('Это <важное> сообщение & с символами')
        }
    }
    
    # Генерируем XML
    xml_output = xmltodict.unparse(data, pretty=True)
    print(xml_output)
    

    При этом никакого объекта CData в xmltodict не существует, он просто взял и придумал его.


    1. ITShchen
      23.05.2025 12:14

      Как передавать cdata данные в xmltodict.unparse, чтобы не экранировались символы < и >

      Если задать такой вопрос ИИ без контекста, он, скорее всего, начнёт гадать — "как бы это могло быть". Например, придумает несуществующий xmltodict.CData, как это и произошло.

      Чтобы получить адекватный ответ, лучше сразу задать чёткие рамки:

      • какие данные на входе и что ожидается на выходе;

      • какая библиотека используется и её версия;

      • что нельзя использовать (например, сторонние зависимости или нестандартные конструкции).

      Также стоит обозначить роль, в которой должен выступать помощник: разработчик, DBA, системный интегратор и т.д.

      ИИ способен давать точные и полезные ответы — при условии, что задача описана конкретно и понятно. Без этого он начинает додумывать за вас, в результате чего может выдать красивую, но бесполезную чушь.

      Промптинг — это тоже навык и при том не менее полезный. В сети есть хорошие подборки примеров, как формулировать запросы, чтобы получить результат, близкий к реальному решению, а не фантазии на заданную тему. Можно даже попросить сгенерировать подходящий промпт у того же ИИ - он может неплохо справиться и помочь его подкорректировать.

      Очень советую поискать в сети подходящую именно вам или под решаемую задачу.


      1. PeeWeee
        23.05.2025 12:14

        Спасибо за конструктивный и подробный комментарий, но не могу удержаться.
        Очень уж это напоминает сказку про варку каши из топора.


        1. ITShchen
          23.05.2025 12:14

          Ну, сравнение с кашей из топора вполне уместно. Чтобы "приготовить" с ИИ узкоспециализированное решение, нужно самому неплохо разбираться в теме — хотя бы чтобы вовремя распознать чушь в его ответе.

          В каком-то смысле ИИ это прокачанная желтая уточка: правильно и конкретно сформулированный вопрос — это как минимум +100 к пониманию задачи, и половина пути к ответу.


          1. Keeper21
            23.05.2025 12:14

            Спасибо, но поняшка из ПВХ у меня уже есть.


          1. jkelly
            23.05.2025 12:14

            несколько раз себя поймал на этой ситуации что пока писал развернутый вопрос, сам начал догонять как надо реализовывать


        1. pda0
          23.05.2025 12:14

          Мои первые опыты были такими же. Выдумывал имена пакетов, имена функций и т.д. В целом, как я убедился, это лишь ограниченный инструмент. Чтобы задать ему правильный вопрос надо знать больше половины ответа. :) А потом ещё выудить правильный ответ.


      1. vlad4kr7
        23.05.2025 12:14

        Если есть подобное решение в примерах, на которых чатбот натренирован, то будет ответ, если нет, то - галюцинация. Проблема в том, что на SO могут предложить новое не известное решение или альтернативный подход, а если не знаешь, что предложенное решение проста глюк - потратишь время на попытку все это скомпилировать и/или запустить.

        И никакие промпты в этом не помогут.


      1. Wesha
        23.05.2025 12:14

        Чтобы получить адекватный ответ, лучше сразу задать чёткие рамки

        «Ответчик ждал тех, кто придет к нему за ответами.

        Вселенная? Жизнь? Смерть? Багрянец? Восемнадцать?

        Ответчик знает ответы на эти вопросы. Но ему требовался верно сформулированный вопрос. А чтобы верно сформулировать вопрос, нужно знать большую часть ответа.»


    1. Dhwtj
      23.05.2025 12:14

      Можно найти в интернете такое неправильное решение. LLM просто не проверила решение.


    1. Wesha
      23.05.2025 12:14

      Аффтар в предложении

      А ChatGPT или Copilot отвечают подробнейшим образом за секунды, часто с пояснениями.

      забыл добавить «...и зачастую — неправильно».


  1. mitzury
    23.05.2025 12:14

    А чем плох сценарий. Интегрировать в SO ИИ, который сразу генерирует результат, а дальше разработчики его комментриюут или редактируют или отвечают своим вариантом ответа..


    1. obabichev
      23.05.2025 12:14

      Возможно тем, что там никто спрашивать уже не будет. Зачем идти в SO и писать пост, чтобы получить ответ бота, если можно написать боту и получить ответ. Быстрее и проще. И никого точно в этот момент не будет интересовать вопрос о том, откуда будут получать ответы наши потомки, и на чем будут обучаться боты для них.


      1. PeeWeee
        23.05.2025 12:14

        откуда будут получать ответы наши потомки,

        От таких же ботов.

        и на чем будут обучаться боты для них.

        На данных пользователей. Наверно даже сейчас, в рекламный конфетно-букетный период, они(LLM, точнее их владельцы) берут больше, чем дают. "Загрузите нам весь ваш проект целиком, и мы подрефакторим вам пару мелких корявостей".
        На уточняющих вопросах. Ничто не мешает прикинуться дурачком и вытащить из спрашивающего больше инфы, даже если понял вопрос и можешь ответить сразу.
        Степени удовлетворенности пользователей. Как обычно "голосование ногами" информативнее явных лайков-дизлайков.

        С этим как раз все хорошо. Даже если то, что сейчас называют ИИ, так и останется тупым "перемножителем матриц" и "поисковиком на стероидах", то все равно, даже для такого дилетанта и скептика как я, виден огромный потенциал.
        Текущую маразматическую копирастную систему так или иначе ждут глубокие реформы, если не революция. И, имхо, грядет огромная DRY революция во всех профессиях связанных с обработкой информации, начиная с вас, программистов. Не просто "фуфу велосипед, используй 100501-й фреймворк", и не monkey-zero-coding.

        Но невооруженным взглядом видна огромнейшая проблема - не просто финансы, СМИ, сложные технологии и т.п. попадут во власть немногих крупных корпораций. А вот вся накопленная сумма знаний человечества(вначале новых, а потом и всех) будет в эксклюзивном владении крупных корпораций. Это беспрецедентная концентрация власти и возможностей для манипулирования.


      1. Wesha
        23.05.2025 12:14

        Зачем идти в SO и писать пост, чтобы получить ответ бота, если можно написать боту и получить ответ. Быстрее и проще.

        «Быстрые, простые, правильные ответы» (*)

        (*) Выберите любые два из трёх


    1. Abstraction
      23.05.2025 12:14

      Это обсуждалось когда модераторы SO объявляли протест против правил использования ИИ. Редактировать плохой ответ не легче чем написать хороший. ИИ генерирует ответы, которые выглядят хорошими, но таковыми не являются, и генерирует в количестве, превышающем способность профессионалов это осмысленно откомментировать.


  1. ForestDront
    23.05.2025 12:14

    Хабр тоже умирает. Очень большую часть статей пишут нейронки. Вот и эта статья сгенерённая.


    1. elnights
      23.05.2025 12:14

      Интернет умирает. Большинство людей уже – лишь репост-машины для сгенерённого контента.
      Матрица, которую мы заслужили.


  1. pnmv
    23.05.2025 12:14

    Stack Overflow, некогда главная платформа для программистов, переживает кризис: за два года трафик упал почти на 90%

    настоящих программистов и прочих повытеснили вкатуны, которым эти сайты и не нужны, ведь они же "с пепчиком и на вайбе", и вообще...


  1. ArtyomOchkin
    23.05.2025 12:14

    К примеру, ChatGPT gpt-4.1-mini до сих пор путается при кодировании, в частности, на С# код пестрит ошибками: в одном месте незарегистрирован класс, в другом - метод, доступный начиная с C# 9 (необходимый в том проекте, над которым я экспериментировал - С# 7.3 (UWP программа для Windows 10 Mobile). Это при явном указании версии языка.

    В общем, недочётов много, но простенькую веб-страничку или небольшую игру на js он делает вполне неплохо. А вот качественно кодить на более низкоуровневых языках у большинства llm пока получается не очень (ну или я не умею из заставлять делать это).


  1. lubaskinc0de
    23.05.2025 12:14

    все просто, лёгкие вопросы задаешь LLM и в большинстве случаев получаешь нормальный ответ с объяснениями и действительно в доброжелательном тоне. С сложными вопросами идёшь в комьюнити (например в телеграмм чаты). А SO вещь какая то странная с точки зрения вопрос задать, я однажды там вопрос задал и спустя месяц всё ещё не получил ответ, а учитывая их правила модерации и так далее, чтобы туда "правильно" вопрос написать нужно сильно постараться. Поэтому очевидно что большинству будет просто приятнее и удобнее задать вопрос LLM, который тебя не пошлет, который выдаст тебе моментально ответ и ответит на все твои вопросы


  1. Dhwtj
    23.05.2025 12:14

    разве они не взяли деньги с нейросетей за обучение?


  1. pda0
    23.05.2025 12:14

    Гугл, кстати, не отстаёт. Сегодня увидел, что при поиске ITшных вопросов (может уже и не только), первым выскакивает ИИ сгенерированный ответ.

    Мне другое интересно. Если подобные форумы, где люди обменивались опытом умрут, то где ИИ будет актуализировать свои знания? Хватит ли только чтения гитхаба?

    Потому что коммерциализация ИИ-ответов явно идёт по принципу: "сегодня не сделаем - завтра будет поздно, а послезавтра хоть потоп".


  1. michael_v89
    23.05.2025 12:14

    Я думаю, причины могут быть такие:

    1. Всё уже спросили.

    2. Я заметил, что Google стал чаще выдавать статьи на Medium и ссылки на документацию, чем ссылки на SO. Возможно это связано с датами - когда вопрос на SO задан давно, а статья на Medium опубликована недавно.

    3. Google часто сам отвечает на вопрос в отдельном сообщении перед результатами поиска.

    4. Я часто ищу разовые вопросы в режиме инкогнито, чтобы в истории не оставались ссылки, которые открыты один раз, и cookies на всяких сайтах. Недавно на SO добавили защиту от ботов, которая появляется каждый раз в режиме инкогнито, и большое окно для подтверждения использования cookies. Причем на каждом сайте из группы SO отдельно. Теперь у меня меньше желания туда заходить, надоедает это всё кликать каждый раз.


    1. pda0
      23.05.2025 12:14

      Всё уже спросили.

      Ага и новые версии перестали выходить, новые редакции, новые языки появляться, новые фреймворки... :-D