
2025 год, и дерьмофикация повсюду:
информативность сайтов, медиа, видеороликов и вообще всего контента в интернете,
уровень общения в социальных сетях, на форумах, в X и др. Архитектура и алгоритмы соцсетей поощряют кликбейт, громкие высказывания, споры, использование «мемов» и прочий мусор, способный «завируситься». На некоторых платформах для этой цели даже искусственно ограничивают максимальный размер текста, видео и прочее — чтобы контент был как можно менее информативным и более вирусным. Например, в Х раньше был ограничен размер твитов, а в тиктоке ограничивают размер видеофильмов. Простой формат упрощает и ускоряет потребление контента. Чем ниже качество контента — тем ниже барьер для его усвоения, а значит, больше аудитория, что и требуется коммерсантам, которые получают прибыль от продукта. Из человеческого общения сделали коммерческий продукт. Все формы контента скатываются к уровню мемов.
быстродействие софта (каждая новая версия практически любой программы и ОС тормознее и глючнее предыдущей),
надёжность компьютеров, смартфонов и бытовой техники (современные смартфоны редко живут дольше нескольких лет, начиная безбожно тормозить),
...и т. д.
Список можно продолжать.
Всё это — качество ПО, железа, цифрового контента, кинофильмов, надёжность техники, — снижается несколько десятилетий. Сложно сказать, когда это началось. Возможно, процесс идёт в рамках всего срока существования веба с середины или конца 90-х до 2025-го.
LLM только добавили шлака: интернет заполонили бессмысленные тексты, картинки, на которые уже невозможно смотреть без омерзения, поддельные тикток-видео, текстовый и визуальный шлак: так называемый ИИ-слоп, то есть ИИ-мусор. Снижение качества и дерьмофикация всего вокруг — неизбежный побочный эффект внедрения AI.
Например, недавно OpenAI выпустила видеогенератор мусора Sora 2 специально для генерации ИИ-мусора и мемасиков в соцсетях. И это востребованный сервис среди обывателей, такие же генераторы мусора ранее выпустили Google (сервис Veo 3) и другие конкуренты.
В программировании нейронки используются как изолента для плохих технических решений, когда у людей не хватает времени или знаний для качественной разработки. Обычно LLM применяют просто в условиях нехватки времени, чтобы сделать какую-то работу быстрее (пусть и хуже).
Но куда спешить, зачем экономить время, ради чего? Зачем слушать краткий пересказ книги на ходу, если можно с удовольствием прочитать книгу целиком? Если потратить на это в десять раз больше времени, то можно получить в десять раз больше удовольствия и глубже понять произведение. Казалось бы, одни плюсы. Но нет, у вечно спешащих людей «ни на что нет времени», ведь они «постоянно заняты». До тех пор, пока не приходит Шершавый Кабан.
Впрочем, процесс деградации интернета был запущен раньше, до нейронок. Как мы пришли к такому, где свернули не туда?
Эволюция веба с 1990 по 2025 гг

Интернет изначально создавался с идеей децентрализации о том, что люди смогут взаимодействовать друг с другом без посредников — коммерческих компаний или государства — или с минимальным их участием.
Реальность оказалась не такой радужной: вскоре сюда пришёл бизнес со всеми своими прелестями — реклама, спам, платные подписки и мошенничество. Потом всё захватили интернет-корпорации и началась новая эра Web 2.0, примерно с 2005 года.
Может, мы случайно создали неправильный интернет?
Кори Доктороу считает, что в 90-е годы технические специалисты — сисадмины и разработчики — имели больше влияния на политику компаний, удерживая тех от внедрения совсем негуманных технологий. То есть интернет был вотчиной технических специалистов — их пространством, где они устанавливали правила и следили за их соблюдением. Но в 2000-е годы эта защита пропала, сюда пришли коммерсанты.
Сами пользователи тоже виноваты, что участвуют в этой игре, когда переходят по кликбейтным ссылкам, рассылают мемасики и бездумно листают алгоритмическую ленту. Всё это способствует дальнейшей «дебилизации» информационного пространства.
Как происходит деградация
Автор термина «дерьмофикация» Кори Доктороу считает, что этот эффект — ухудшение качества продуктов и услуг — является результатом намеренной политики бизнеса. В современном капитализме считается, что если потребители, клиенты или сотрудники слишком довольны и счастливы — это значит, что бизнес недополучает прибыль. В этом случае можно слегка снизить качество услуг. Удовлетворение пользователей слегка снизится, но они всё равно останутся достаточно счастливы, зато прибыль значительно вырастет. Вот так и происходит постепенная деградация всего вокруг.
По описанию Доктороу, в интернете дерьмофикация платформы (соцсеть, хостинг кода и др.) идёт по такому сценарию:
Компания делает всё для пользователей, привлекая их толпами.
Начинается монетизация и привлечение рекламодателей. На этом этапе в сервисе появляется реклама и сообщения от брендов.
Финальный этап, когда платформа превращается в «большую кучу дерьма» как для пользователей, так и для рекламодателей, чтобы ещё больше обогатить владельцев и руководителей. Лента Facebook, теперь забитая мусором, сгенерированным ИИ, и короткими видео — это третий акт «опоганивания». То же самое касается TikTok, который загромоздил интерфейс электронной коммерцией, а также Amazon, который испортил результаты поиска на сайте, продвигая бессмысленные бренды.
Фантастический рассказ Грегори Беннетта «Тепловая смерть интернета» описывает мрачное будущее, в котором даже еду невозможно купить, если у вас нет мобильного приложения, а цены постоянно изменяются, людей всё время заставляют смотреть рекламу — иначе они не получат никаких услуг, сумасшедший миллиардер покупает социальную сеть и начинает промывать мозги тебе и твоим друзьям, и так далее. Настоящий дурдом.
Вот только в комментариях к рассказу недоумевают, почему автор пометил своё произведение как «фантастика».
Почему всё вокруг стало таким убогим? Кто-то говорит, что это началось с биткоина, то есть с начала 2010-х. Ведь биткоин изначально задумывался как инструмент демократизации платежей, в том числе микроплатежей типа «чаевых для сайтов», удобные пиринговые переводы денег между пользователями без участия прожорливых банков и контролирующего ока государства.

Но в итоге биткоин стал каким-то средством накопления с постоянной дефляцией и высокими комиссиями за перевод. Поэтому его не слишком удобно использовать для ежедневных расчётов и микроплатежей, как предполагалось изначально.

Сейчас надежды возлагаются на сеть Bitcoin Lightning, которая обещает мгновенные микроплатежи без комиссии после первоначальной установки финансового канала между пирами.
Речь не только о технологиях, люди тоже изменились. Энтузиасты, которые раньше и с воодушевлением воспринимали IT и мечтали о мире из «Стар Трека», сейчас просто делают работу с депрессивным безразличием. Технологии когда-то казались магией, а сейчас тупые LLM лишают людей радости от жизни и творчества, генерируя ИИ-мусор как примитивную «жвачку» для мозгов. Всё вышло не так, как мечтали энтузиасты.
Кстати, эта дерьмофикация распространяется из интернета на окружающий мир. Например, в США по модели Uber сделали приложение для медсестёр: и теперь программа платит им вдвое меньше, а заказать медсестру можно как картошку на дом:

Везде творится какой-то сумасшедший дом... Вообще, по законам энтропии информация искажается при распространении. В конечном итоге получается, что никто ничего не понимает. Другими словами, ни один человек не знает правды ни о чём из того, что он говорит. Когда приходит осознание этого факта, то мир вокруг становится немного логичнее. Если никто ничего не знает, то весь этот хаос обретает смысл.

Есть мнение, что ИИ делает человека глупее, заменяя мыслительный процесс, критическое мышление, энциклопедическую память — искусственным суррогатом.

Хотя примерно то же самое говорили про интернет, видеоигры, телевидение, комиксы и прочие новинки. Старшему поколению всегда кажется, что молодёжь уступает в манерах, вежливости, уме и т. д. Данному явлению уже тысячи лет.
Однако надежда есть.
Бойкот и неучастие — эффективный способ борьбы с коммерческим вебом и эксплуатацией человеческого внимания для обогащения коммерсантов. Нужно просто выходить из токсичных сервисов, удалять профили в соцсетях, фильтровать рекламные баннеры и следящие скрипты. Всё очень просто. Например, для токсичных соцсетей вроде Х есть свободные альтернативы, такие как Bluesky и Mastodon.
Сервисы нового поколения, основанные на пиринговых связях (P2P-финансы и P2P-мессенджеры, которые работают даже в офлайне), на децентрализации и самохостинге, некоторые считают зарождением Веба 3.0 — следующего поколения интернета.
В мире ещё остались оптимисты и энтузиасты, которые не сдаются. Они находят качественный софт, архивируют для будущих поколений интернет до 2022 года, не тронутый LLM, вычищают мусор из Википедии, поднимают домашние серверы и солнечные батареи, чтобы не зависеть от внешней инфраструктуры. Пока есть такие люди, не всё потеряно.
© 2025 ООО «МТ ФИНАНС»
Комментарии (295)

Dick_from_mountain
13.10.2025 09:21Вам по сравнению с 90 годами дали кучу сервисов, моментальные трансграничные оплаты, оплату удаленных ЖКУ и телефонов, маркетплейсы всех мастей. Но это всё "дерьмофикация" и "неправильный интернет"? Ясно, понятно.

vvbob
13.10.2025 09:21Вы или намеренно или от непонимания искажаете исходный посыл "это всё "дерьмофикация" и "неправильный интернет" " вроде в статье и не утверждается что всё тотально дерьмофицировано и плохо. Явление есть, оно широко распространено и захватывает все больше пространства, это довольно очевидно любому кто видел интернет с середины 90-х.
Ivnika
Интересно, проводились ли эксперименты по вырождению информации в нейросети? Условно сеть учится на какой то базе, плюс на своих собственных выводах. В какой момент результаты запросов станут "средними" и практически негодными (условно - как вырастить пшеницу - бросьте семена в землю)?
Habr4687544
Если нейросеть учить на мусоре, тогда качество ответов падает, а качество ответов как раз измеряется различными тестами
Ivnika
Есть критерии как отделить мусор? Я имел в виду что сейчас уже часть информации для обучения может быть плодом деятельности другой нейронки.
Habr4687544
https://habr.com/ru/articles/953636/ вот тут разбиралось недавно
Ivnika
Спасибо! Пропустил эту статью
makornobbe
Задумывался об этом года два назад. LLM ведь пословно формулирует ответ на основании запроса? И таким образом, чтобы ответ "соответствовал" запросу? А это "соответствие" задаётся человеком через публикацию информации в свободном виде. Если результат модели отклоняется от действительного, то нарушается и соответствие. Обучение на x + delta даст x + delta + delta.
Что меня смущает:
1) Объём данных для обучения очень велик. Из-за этого влияние слопа на обучение самой модели должно быть невелико. Или его сложно отследить
2) Даже данные от самих людей не могут быть истиной в 100% случаев
3) Характер отклонений вносимых человек при передаче данных и при генерации сеткой может быть разный
4) У модели может быть механизм "выбора достоверного варианта", который позволяет уменьшить влияние энтропии исходных данных на вывод модели. Подразумеваю выбор наиболее близкого в первоисточнику варианта
5) x + delta может больше нравится пользователям, чем чистый x (продолжая мысль из статьи)
Про третий пункт. Даже изменяя информацию при передаче, человек старается сохранить в ней здравый смысл, а модель его лишена и не может оценивать свой ответ по такому критерию. За счёт первого и четвёртого пункта, который можно назвать сомнительным, вырождаемость информации сложно проверить в реальных условиях за короткий срок. А если в долгий, то в качестве превентивных мер датасеты будут проверяться на наличие слопа (привет курсовые и дипломы). Плюс адаптация моделей к работе с искажёнными данными за счёт историчности.
Но это всё моё бытовое понимание. Буду рад быть неправым
SensDj
по мере роста вычислительных мощностей к ИИ прикрутят симуляцию реальности (с физикой и химией) и там ИИ будет сам проверять все знания, на которых обучен, будет находить сомнительные, живые люди будут проверять такие места и исправлять их, затем новое обучение на исправленных данных и так до бесконечности
AlexSpirit
И потом какая то цифровая модель в этой симуляции напишет "В начале сотворил Бог небо и землю" , а через 2000 лет локального времени другие цифровые модели напишут статью "Дермофикация интернета".
Grey83
только не через 2к, а в несколько раз больше
TeremokLol
"Объём данных для обучения очень велик"
Вот нюанс в том, что даже OpenAi писали, что им уже не хватает данных для обучения
Ну и проблемы переобучения тоже никто не отменяет, но в этот вопрос я не вдавался
Это уже много где обсасывалось, но нужно ждать следующего архитектурного перехода. Насколько я могу судить, щас все пытаются идти в размер контекста, но даже модельки с 200к контекста, очень легко ловят шизу. Так что ждём.
H01y
Помню, в школьные годы от учителя истории слышал басню. Про мужика, что тащил на спине книги и ради облегчения ноши выписывал их краткое содержание на лист бумаги. Спустя много итераций всё свелось к словам "Нет бога помимо Аллаха, и Мухаммед - пророк Его". Интересно, получится ли сделать настолько же халяльную нейронку?
AiR_WiZArD
Да легко. Взять какую нибудь GPT2 и обучать в цикле на своих же ответах, можно даже не уменьшать размер модели каждый раз, выдача довольно быстро улетит в рандом
Wesha
42 же!
Moog_Prodigy
Переобучение. Вот про это никто не вспомнил, а тем не менее это та самая штука. Когда нейронка "переобучается", то в пространстве векторов у нее начинают проявляться более яркие (и ослепляют менее яркие). Не ну это как CFG выкрутить, потом такие цветастые картинки выходят. Тут то же самое. Но таким образом ее на "Аллаха" не научить, только зря терять время. Она циклится на своих же данных и этот момент поймать в обучении - на эту тему диссеры по ML пишут пачками. И кто как. В основном нейронку после каждого цикла обучения гоняют на тестах. Обнаружился провал - все, заканчиваем. Иначе дальше она только глупеть начнет. По аналогии с "ботанами". Ботан может знать наизусть всю биологию и химию, но настолько оторван от мира, что даже свое имя не всегда может вспомнить. Не совсем это школьный термин но какой уж под руку попался.
yargolubev
Переобучение, или оверрифтинг, это то что происходит с нейронкой перед коллапсом, когда нейросеть выходит на стадию когда идеально повторяет обучаемые данные из выборки. Если учить дальше, то происходит коллапс до абстракции
yargolubev
Ты банально описал свойство нейронок "коллапсировать" сначала падает разнообразие данных в пользу одной генерации, а потом происходит обвал и коллапс до абстрактного понятия.
Wesha
А в наше время это называлось «локальный экстремум»...
riv9231
Проводились: Если нейросеть учится на информации + сгенерированных собсвенных ответах, то обученная нейросеть немного менее качественная. Это распространенный приём, например так дообучают LoRa для диффузионных моделей: учат на своих фото, но сеть начитает быстро деградировать. Если выборку разбавить собсвенной генерацией, то из-за неизбежности попадания глюцинаций, итоговая сеть с одной стороны будет разучиваться медленнее, с другой стороны неизбежно начнет глюцинировать чуточку больше. И так с каждой новой интерацией дообучения, если вы доучиваете уже доученную модель. Выходы: учить заново на всем корпусе (оченб дорого) или вручную отсматривать сгенерированный материал и удалять наихудшие резулбьтаты - так падение замедлится сильнее, но не остановится.
Так как Интернет сейчас наполняется нейросетевым мусором и это попадает в датасеты, то и нейросети должны деградировать, если что-то не поменять в процессе обучения.
gerashenko
Напоминает деградацию рода при отсутствии разнообразия генов
Ansud
Да, качество сильно падает. Что с картинками, что с текстом. Они именно что "усредняются" и генерируемые лица, к примеру, будут практически идентичными. Известно как нейросеткой коллапс.