В самой статье все очень хорошо разложено по полочкам и я рад что они решились на это этот шаг. Очень емко и по делу.
Перевод сделал гугло переводчиком, так что если что напишите в личку, поправлю ошибки.
Любое использование генеративного ИИ (например, ChatGPT 1 и других LLM) запрещено при публикации контента на Stack Overflow.
Это включает в себя как «задавание» вопроса генератору ИИ с последующим копированием и вставкой его результата, так и использование генератора ИИ для «перефразирования» ваших ответов.
Пожалуйста, ознакомьтесь со статьей в Справочном центре: Какова политика этого сайта в отношении контента, созданного с помощью инструментов генеративного искусственного интеллекта?
В целом, поскольку средний процент правильных ответов, получаемых с помощью ChatGPT и других технологий генеративного ИИ, слишком низок, публикация контента, созданного с помощью ChatGPT и других технологий генеративного ИИ, наносит существенный вред сайту и пользователям, которые задают вопросы и ищут правильные ответы.
Основная проблема заключается в том, что, хотя ответы, создаваемые ChatGPT и другими технологиями генеративного ИИ, имеют высокий процент ошибок, они, как правило, выглядят правдоподобно и очень просты в создании. Кроме того, многие люди пытаются использовать ChatGPT и другие технологии генеративного ИИ для создания ответов, не обладая необходимыми знаниями или желанием проверить правильность ответа перед публикацией. Поскольку такие ответы так легко создавать, большое количество людей публикует их в огромном количестве . Объем этих ответов (тысячи) и тот факт, что для определения их правильности часто требуется детальное прочтение человеком, обладающим значительными знаниями в данной области, фактически перегрузили нашу инфраструктуру проверки качества, основанную на участии волонтеров.
Таким образом, нам необходимо сократить количество подобных сообщений и иметь возможность оперативно обрабатывать те, которые поступают, то есть работать с пользователями, а не с отдельными сообщениями.
Таким образом, использование ChatGPT или других технологий генеративного ИИ для создания сообщений или другого контента на Stack Overflow запрещено. Если после публикации данного правила будет установлено, что пользователь использовал ChatGPT или другие технологии генеративного ИИ, к нему будут применены санкции, препятствующие дальнейшей публикации подобного контента, даже если эти сообщения в противном случае были бы приемлемы.
ПРИМЕЧАНИЕ: Хотя приведенный выше текст посвящен ответам, поскольку именно там мы получаем наибольший объем подобного контента, запрет распространяется на весь контент на Stack Overflow, за исключением содержимого профиля каждого пользователя (например, текста «Обо мне»).
Исторический контекст того, почему этот запрет изначально был «временным»
Когда этот запрет был впервые опубликован 05.12.2022, он был четко обозначен как «временная политика». Он был именно «временным», потому что на тот момент это была политика, введенная группой модераторов, присутствовавших на сайте в выходные после объявления о публичном релизе ChatGPT (30.11.2022) и до понедельника, 05.12.2022, когда был задан этот вопрос. Участвующие модераторы были твердо убеждены, что у нас нет права вводить постоянную политику таким образом, но мы обязаны ввести временную политику, необходимую для поддержания функционирования сайта во время обсуждения, достижения консенсуса, а также для проведения внутренних обсуждений компанией Stack Overflow с целью определения политики, которую следует принять в масштабах всей сети. Поэтому после консультаций с компанией модераторы, присутствовавшие в тот момент, решили ввести это как «временную» политику.
С тех пор многое изменилось. Судя по результатам голосования по этому вопросу, очевидно, что существует подавляющее большинство сторонников этой политики. Компания решила, что конкретная политика в отношении контента, созданного с помощью ИИ, будет определяться отдельными сайтами ( список политик для каждого сайта ), но даже на сайтах, разрешающих контент, созданный с помощью ИИ, такой контент считается «не вашей работой» и должен соответствовать требованиям к цитированию . Требование о соблюдении требований к цитированию позже было включено в Кодекс поведения: Политика недостоверного использования . В отношении контента, созданного с помощью ИИ, произошло гораздо больше событий. Произошло так много всего, что нецелесообразно пытаться суммировать всё здесь.
Комментарии (7)

vybo
22.12.2025 20:32Ну, на еще одном известном IT-сайте в официальной справке для публикаторов контента вообще есть следующие чудесные строки, жаль в правилах их нет и не предвидится
Какие статьи точно не пройдут модерацию?Статьи, написанные с помощью генеративных моделей ИИ, даже если они отражают ваши авторские мысли. Хабр — место, где люди пишут для людей.Статьи, в которых приведены диалоги с нейросетями и анализ этих диалогов— у многих из нас есть субъективный опыт использования технологий, но, увы, миру он не интересен.

dimka11
22.12.2025 20:32Зашел как-то на SO почитать ответы на один вопрос. Хороший ответ написан несколько лет назад, все остальные ответы за последние пару лет являются либо неверными либо вообще не отвечают на поставленный вопрос, как-будто их писали не читая его. Но кто-то им даже плюсики поставил.
Могу сделать вывод, что запрет не действует.
edge790
22.12.2025 20:32являются либо неверными либо вообще не отвечают на поставленный вопрос, как-будто их писали не читая его.
Так было и 10 лет назад - ещё до популярности LLM. Это было связано с тем что "репутация" (плюсы на сайте) могли использоваться как плюс в резюме, поэтому были люди которые старались заработать её, и даже платили другим чтобы они это делали.
Пруф: этот вопрос и ссылки в нём
Kerrigan
На самом деле это запрещено, потому что у них есть своя LLM, а ее обучение на результатах другой LLM портит ее качество
ramil_trinion Автор
Интересная мысль, похожая на правду. Есть доказательства?
Kerrigan
вот их LLM https://stackoverflow.com/ai-assist
А вот информация о том, что они продают данные OpenAI https://meta.stackexchange.com/questions/399619/our-partnership-with-openai
ramil_trinion Автор
Спасибо!