Мы живем в 2026 году, когда технологии позволяют оценить глубину и оригинальность текста, но крупные площадки по большей части все еще живут по старинке и судят о качестве по числу лайков и частоте публикаций. Отсюда мы наблюдаем фундаментальный системный сбой, который медленно убивает сложный технический контент.

Проблема кроется не в злой логике искусственного интеллекта, заполонившего интернет желтым контентом, а в том, что мы продолжаем измерять его ценность линейкой из нулевых. Вводя термины ИИ-эпидемия и ИИ-фобия, мы виним "продвинутый калькулятор". Но виноваты ли машины в дорожных происшествиях, если система поощряет неадекватное вождение? Разве дело в алгоритмах, если сама архаичная архитектура платформ вознаграждает создание мусора? Давайте разберем такой парадокс на инженерном уровне и поищем выход.
Диагноз почему алгоритмы видят горячее, но слепы к высокому
Логика рекомендательных систем старого поколения опиралась на ограничения тех лет. Площадка физически не могла прочитать контент, поэтому строила догмы:
Первая догма гласила, что активность равна росту. Аккаунт, штампующий по паре статей ежедневно, всегда в выигрыше.
Вторая делала ставку на легкость восприятия. Короткий и эмоциональный контент удерживает внимание дольше, а значит выше метрика времени на платформе.
Третья полагалась на поверхностные сигналы. Лайки, комментарии и просмотры оставались единственным прокси для качества.
Сегодня такой подход выглядит архаизмом и ведет к системной ошибке. Для современного алгоритма глубокая инженерная работа выглядит так же, как поверхностный рерайт. Он не отвечает на ключевые вопросы. Есть ли в статье новая идея или воспроизводимый метод? Содержит ли она расчеты, анализ рисков, честные ограничения?
Возникает замкнутый круг, своего рода ловушка холодного старта для сложного контента. У автора нет истории публикаций, значит нет стартового трафика. Нет поведенческих сигналов, алгоритм помечает материал как неинтересный, и статья уходит в небытие. Контентные фабрики, напротив, получают статистическое преимущество. Если автор ежедневно генерирует списки вроде десяти лучших инструментов, некоторые работы неизбежно попадают в тренд. Пару удачных публикаций поднимает внутренний рейтинг автора, и каждый следующий пост получает автоматический стартовый трафик.
Для создателей глубокого контента формируется токсичная мотивация. Хочешь, чтобы тебя читали, не углубляйся. Хочешь глубины, смирись с тем, что тебя никто не увидит.
Ирония эпохи ИИ
Самая глубокая ирония в том, что и авторы, и сами площадки уже массово используют искусственный интеллект, но с разными целями. Для фабрик контента нейросети стали способом быстрее нарастить объем. Там используют машинный перевод, рерайт, полную генерацию. В настоящих инженерных работах ИИ выступает ускорителем мышления. Он помогает проверять формулы, делать кросс-анализ исследований, искать логические противоречия. Бывают задачи, на которые у человека и "одной жизни не хватит".
Старые алгоритмы не различают эти режимы. Площадка, обладающая технологией для детекции качества, лучше продвигает поток средних текстов, собранных ИИ за минуты, чем единичные работы, где человек и модель совместно решают тяжелую задачу.
Ситуацию усугубляет новый тренд, оптимизация под генеративные движки. Контент все чаще пишут не для людей, а для алгоритмов ИИ-ассистентов, которые пересказывают статьи пользователям. Мы видим абсурдную реальность, где текст пишется для машины, продвигается алгоритмом, слепым к качеству, и потребляется через посредника. Прямой диалог умов уходит на второй план.
Последствия "самоубийства" платформы и кризис доверия
С точки зрения бизнеса такая модель может казаться успешной, ведь растут метрики активности. Но для ценности экосистемы мы наблюдаем медленное самоубийство. Сильные авторы уходят. Инженеры и исследователи видят, что их серьезный труд не дает отдачи, и перебираются в закрытые чаты или специализированные журналы. Читатели выгорают и аудитория устает от однотипного материала, который прочитал и забыл. Формируется ощущение, что раньше здесь было больше умного и интересного. Падает доверие, а площадки, буквально захлебывающиеся таким контентом, теряют интеллектуальный авторитет и сползают в желтый сегмент. На Хабре ситуация чуть лучше, но и здесь есть свои проблемы.
Взгляд со стороны
Я провел небольшой эксперимент. "Попросил" несколько передовых моделей с доступом к интернету в реальном времени оценить свою статью, и сравнить ее с топом Хабра за сутки. Кратко вопрос звучал так: "на какое место из десятки лучших ты бы поставил такую статью, оценивая только глубину и оригинальность".
Результат оказался для меня интересным. Всего три модели — GLM 4.7, Gemini 3.0 Pro и DeepSeek — смогли сделать такую оценку.



Остальные на тот момент не смогли прочитать текст на Хабре и видели только заголовок (Qwen3 Max, GPT 5.2, Claude Sonnet 4.5, Grok 4.1, Kimi K2).

Кто смог прочитать и сравнить, ставили материал в первые строчки рейтинга, несмотря на минимальные поведенческие метрики в момент публикации. Современный ИИ, при всей своей неидеальности и особенно в относительно нейтральной групповой оценке, уже способен отличить содержательный анализ от поверхностного обзора. Ему все равно на имя и титул автора, он оценивает сам контент. Мощный и пока очень недооцененный инструмент разными площадками.
Инженерное решение новая архитектура ранжирования
Проблема носит системный характер, поэтому и решение должно быть на уровне архитектуры. Модель может выглядеть так:
Стоит внедрить слой оценки содержимого в ядро ранжирования. Площадке нужно анализировать тексты через специализированные группы моделей, а не одну, которые ищут оригинальность мысли, плотность аргументации, техническую конкретику и интеллектуальную честность. Полученный от ИИ скор качества должен стать значимым весом в итоговой формуле. Так глубокая статья получит кредит доверия от системы и вырвется из ловушки холодного старта.
Нужно создать отдельную траекторию для медленного контента. Честно признаем два типа материалов. Быстрый, включающий новости, туториалы и обзоры. И медленный, вроде инженерных исследований или глубокой аналитики. Для второй категории стоит снять негласный штраф за низкую частоту публикаций. Если говорить про Хабр, то в данном вопросе он выглядит и сейчас неплохо, так как у него это работает на своем уровне.
Можно ввести специальный статус технического исследования, который присваивается после прохождения ИИ-верификации. Такой материал требует расширенного инкубационного периода для сбора первых качественных сигналов от целевой аудитории.
Хорошо бы запустить гибридный механизм сетевого редакторского выбора. Самые прорывные и нишевые работы редко становятся вирусными. Чтобы их находить, нужна связка, где ИИ отбирает статьи с высоким качеством текста. Затем шортлист попадает к сетевому совету экспертов, чей статус определяется прозрачно качеством их собственных публикаций. Отобранные работы получают статус выбора сообщества и приоритет в тематических потоках. Это сложнее, чем примитивный автоматический фид, создающий так называемый рейтинг топ, но именно так формируется реальная ценность и репутация.
Будущее за площадками, измеряющими сложность. Если их сегодня нет, то таковые необходимо создавать и двигаться вперед.
Мы живем в уникальное время, когда один инженер с ИИ способен решать задачи уровня небольших конструкторских бюро. Но инфраструктура для распространения идей глубоко застряла в прошлом, поощряя оптимизацию под желтизну и клики, а не под прирост знания.
Первые, кто решат подобный парадокс, перестроив алгоритмы с погони за трафиком на уважение к качеству человеческой мысли, получат стратегическое преимущество. Они станут магнитом для самой ценной аудитории из создателей и мыслителей.
Проблема мусорного контента не в искусственном интеллекте, а в том, как мы его используем. Мы жалуемся на эпидемию, продолжая настраивать системы, которые щедро платят за ее продолжение и всячески игнорируют лекарство.
Будущее технических сообществ принадлежит тем, кто научится алгоритмически уважать сложность, а не желтые раскрутки и хайп. Продвинутый набор из "инженерных калькуляторов двадцать первого века" к этому давно готов. Готовы ли мы?
Комментарии (38)

Lainhard
22.01.2026 10:24Мы живем в 2026 году, когда технологии позволяют оценить глубину и оригинальность текста, но крупные площадки по большей части все еще живут по старинке и судят о качестве по числу лайков и частоте публикаций.
Так что оценивать то будем? Глубину (глубина чего?) с оригинальностью или все же качество™? Опять же. Как это качество™ оценивать? По каким признаком? Я не эксперт, но кажется единственное что имеет хоть какую-то корреляцию с качеством это как раз таки количество лайков/просмотров. Правда... ну вы сами видели нейрокал в том же ютубе с умопомрачительными просмотрами. Так что тоже под вопросом данный метод, но, имхо, лучший претендент.
Да и вообще. Где это вы увидели крупные площадки, которые именно "качество" (я до сих пор не понимаю что автор имел в виду под этим словом) оценивают. Взять тот же хабр. Подумайте о корпоративных блогах в этом ключе.
Max-G Автор
22.01.2026 10:24На начало 2026 года и я таких площадок не знаю, где через группу ИИ предварительно оценивался бы размещаемый контент по разным критериям. Думаю, что таковых пока нет о чем и затрагивал речь.

Lainhard
22.01.2026 10:24Не будет ИИ работать. Как только придет массовость, то появятся хаки. Точно так же как появились "бабушки" для chatgpt. Вы этот процесс можете сами наблюдать на примере того же ютуба. Как там у нас было, по порядку (если что поправляйте):
- ставьте лайки (XXX лет назад)
- пишите комменты (1-2 года назад?)
- все фигня, главное подпишитесь (вы здесь)
Я к тому, что народ рано или поздно узнает как ломать систему. И в отличии от традиционных методов, алгоритм оценки через нейросеть удивительно непрозрачен и поменять по желанию левой пятки навряд ли получится. Хотя, могу и ошибаться. Я всего лишь пользователь интернетов.
Max-G Автор
22.01.2026 10:24Я согласен с вами, что такая проблема вполне реальна, но одновременно хакнуть независимую друг от друга группу AI сложнее, если вообще возможно? Поэтому и одна конкретная модель ИИ для оценок даже не рассматривается. По определению не может, да и не сможет быть «критерием истины».

nin-jin
22.01.2026 10:24Датасет у них всё равно общий. Не говоря уж о том, что они ещё и учатся друг у друга.

acsent1
22.01.2026 10:24Количество просмотров очень сильно зависит от того насколько часто контент появляется в ленте у других пользователей. Собственно в этом и пробема, про это и статья

janvarev
22.01.2026 10:24Давайте так - при том, что с базовой мыслью статьи я согласен, и она меня даже цепляет, "эксперимент с нейросетями по оценке уровня статьи" поставлен бездарно, вообще без понимания инструмента.
LLM может оценивать то, что видит - т.е. то, что в контексте запроса к ней. Правильно - взять 10 статей, добавить свою, засунуть все их тексты в контекст запроса, попросить оценить и аргументировать (хоть какой-то CoT). Неправильно - тиснуть в запрос ссылку на Хабр, надеясь, что встроенные инструменты веба извлекут нужный текст (а также другие тексты статей? или нет?). Результат - какой-то ответ, обычно приятный пользователю (потому что LLM так учат - быть приятной) - "да, ваша статья топ-1".

Max-G Автор
22.01.2026 10:24Я не выбирал для ботов десять статей, а предложил, чтоб они сами выбрали топ по Хабру на тот момент времени. Максимально честно, если они сами выбирали и оценивали. Не все дали первое место, было и третье. Это не мое мнение и не моя субъективная оценка, а субъективные оценки ботов.

janvarev
22.01.2026 10:24Я не выбирал для ботов десять статей, а предложил, чтоб они сами выбрали топ по Хабру на тот момент времени. Максимально честно, если они сами выбирали и оценивали.
Еще раз - вы засунули в абстрактную машину-бота какой-то запрос, получили какой-то ответ, непонятно на чем основанный.
Бот - не человек, он НЕ может прочитать статьи, НЕ может выбрать лучшие. Ему внутренние tools с веб-поиском скармливают какие-то элементы, которые он нашел на Хабре по вашему запросу, и он делает какой-то вывод. Garbage in - garbage out. Вы не используете технологию по назначению, вы ей даете "какой-то запрос", а потом тащите результаты на Хабр - и непонятно, зачем они в статье и что доказывают.
По содержанию: длинные статьи плюс минус могут быть интересны категории профессионалов, которая друг друга оценивает по этим статьям. Это как-то хоть немного работает как внутренняя социальная сеть внутри реального социума - "я знаю, что X разбирается в A, X знает, что я разбираюсь в B". Это неоптимально, но это как-то работает - и да, посты с кошечками и "топ-10" это сильно размывают. Но для того, чтобы попасть в круг, надо мысли давать на уровне, не пренебрегать качественной терминологией и постановкой - да, обывателям все равно, но профессионалы отметят хотя бы отсутствие типовых ошибок и умение рассуждать.

Max-G Автор
22.01.2026 10:24Мне нравится ход ваших мыслей. Дайте мне список из 9 похожих по уровню и весовых категорий (AI, средний, аналитика, 7–12 мин) статей Хабра за последний месяц + 1 моя. Я их загружаю в один, два документа Word и «скармливаю» семи ИИ, чтоб расставили их в топовом порядке по своей экспертной оценки. Было бы интересно. Будет следующая статья с обзором или вы сами можете сделать это.

janvarev
22.01.2026 10:24Спасибо, так это более осмысленно.
Рекомендую
а) не загружать документы Word, а давать статьи текстом (непонятно, что извлекается из ворда)
б) по возможности использовать доступ по API, которое не режет контекст (потому что с чатами непонятно, не сделают ли они "выборки" вместо полного текста ради оптимизации того, что в них засовывает пользователь ради бесплатного предоставления услуг) - но тут опционально, если не жалко
в) по каждой статье попросить сформировать, например, экспертную оценку по N категориям по шкале от 1 до 5, попросив его обосновать каждый пункт, а затем суммировать. Это нужно, чтобы были оценки по конкретным вещам, иначе непонятно, что оценивает ИИ. А вообще лучше прогнать отдельными запросами статьи, получить оценки, а затем отранжировать статьи.

Max-G Автор
22.01.2026 10:24Спасибо за хороший совет. Может, вы на себя могли бы взять, а то скажут, что я лицо заинтересованное? Мне все равно, кто это будет. Но сдается мне, что здесь больше вопрос не в каких-то статьях, а в самой «догматике». Когда человек уверен, что его субъективное мнение всегда будет выше «субъективных и несуществующих» оценок группы ботов, а другой с этим не согласен. Два мнения столкнулись полярно, и у них в этом нет точки соприкосновения. Это не значит, что люди плохие, просто у каждого может быть своя субъективная оценка вопроса, а вот где объективная?

janvarev
22.01.2026 10:24Может, вы на себя могли бы взять, а то скажут, что я лицо заинтересованное? Мне все равно, кто это будет.
Я думаю, вы можете взять просто N статей с рейтингом выше 10 (т.е. не самые плохие), и числом символов больше... ну 3000 скажем (т.е. не короткие). Если хотите - учтите направленность. И напишите об этом в статье - тогда сразу будут понятны критерии.
Я не хочу брать на себя, как ни странно, именно потому что я лицо слишком незаинтересованное - мне слишком все равно, что я пошлю на анализ, а это не есть гуд для процесса. Я при разработке ПО придерживаюсь того же принципа - для своего опенсорс голосового помощника Ирина я не беру фичи, которые лично мне неинтересны (например, интеграцию с Home Assistant - у меня его нет), т.к. считаю, что сделаю такую реализацию плохо. В результате плагин сделали заинтересованные члены комьюнити и имхо получилось лучше.
Когда человек уверен, что его субъективное мнение всегда будет выше «субъективных и несуществующих» оценок группы ботов, а другой с этим не согласен. Два мнения столкнулись полярно, и у них в этом нет точки соприкосновения. Это не значит, что люди плохие, просто у каждого может быть своя субъективная оценка вопроса, а вот где объективная?
Классический хороший вопрос - постановка простая, ответ очень сложный :)
Если мы рассматриваем публичную дискуссию, то желание "защитить свою самоценность, выражаемую через свое мнение на социуме" может перекрывать кучу разных соображений "верности". Про обычных людей это вообще верно, но этому подвержено даже научное сообщество, которое должно ставить объективность выше собственного неудобства - известно, что методы Земмельвейса стали общеприняты только при смене поколений.
Теоретически объективная истина в научном смысле - та, что при минимальных усилиях дает хорошие прогнозы - т.е. теория или текст должны давать прогнозы, и делать это за счет минимальных моделей (прогностическая сила теории). Если они не дают прогнозы, которые можно проверить, они не проходят критерий фальсифицируемости Поппера (задним числом можно объяснить что угодно).
Так уж сложилось, что в сторону "что считать наукой" (если мы это считаем объективной истиной) я копал довольно давно и считаю, что в среднем мои знания очень неплохи. Но там все непросто. Если есть желание погрузиться, могу для краткого ознакомления рекомендовать мою обзорную статью "О подходах к определению научной теории" , для более полного понимания сложности проблематики - есть классическая книга Т.Куна "Структура научных революций", очень увлекательно.
(Завершая) Если брать интернет и современные социальные сети, то тут желания поразвлечься значительно больше, чем желания заморачиваться поиском истины (последнее не очень приятно, т.к. ты можешь быть и неправ, да и коллектив нужно подбирать который этим горит). Исходя из этого котики, мемасики и жареные заголовки для большинства будут предпочтительным контентом. Чтобы люди писали о другом, нужно другое сообщество, которое ценит иное - и отдельный вопрос как его создать и формировать. Современное научное сообщество в целом - увы, имхо подходит не очень - и там свои проблемы.
PS: Иногда личностное знание - то, что два человека по-разному понимают один и тот же текст (субъективно) - неплохо. Но это тема отдельного разговора.

Max-G Автор
22.01.2026 10:24Респект. Реально спасибо за большой комментарий и размышления. Всегда проблема в обществе, т. е. в нас, людях. Мы очень далеки от совершенства, и часто наши взгляды или теории очень субъективны, возможно, даже ложны и катятся по наклонной вниз. Рассматривая то, что называют ИИ, хоть какая-то альтернатива всевозможным кумирам и субъективизму. Познавая в разных ракурсах такую технологию, познаешь и что такое, может быть, сам человек (биологический ИИ) и его Инженер. Как работает наша механика, мысль, оценка, совесть, дух, душа? Лично мне всё это очень интересно. Да, вокруг бушующее море разных людей, но твое место тоже определено, разве не так?

janvarev
22.01.2026 10:24Познавая в разных ракурсах такую технологию, познаешь и что такое, может быть, сам человек (биологический ИИ) и его Инженер.
Мне кажется, ИИ скорее напоминает зеркало, чем субъект. Исследовать зеркало бывает полезно, но скорее этим исследуешь себя и общество.
Кстати, имхо интересная статья в контексте общения с нейросетями (Шершавый кабан и пр.) (автор гуманитарного контекста, что накладывает отпечаток на терминологию и способы рассуждения)
Arhammon
Нюанс, для эксперимента надо контрольную группу, еще написать плохие, средние статьи и оценить их...
Max-G Автор
Эксперимент совсем маленький и в рамках возможностей, да и оценщик не я сам, а группа доступных мне ИИ. Подобная модель оценки доступна всем. Наше личное мнение может быть предвзятым, субъективным и ограниченным. У ботов тоже могут быть с этим проблемы, но через групповой анализ шансов к объективизму всё же больше. У них нет какой-то личной заинтересованности, поэтому и можно назвать "относительно нейтральными".
Arhammon
Зато когда вы пишете запрос к моделям у вас есть заинтересованность) Что сказывается в формулировке... сколько я не пробовал просить оценить, какие-то льстивые отзывы обычно дают модели.
Max-G Автор
Бывает такая проблема, особенно если боты следят за всеми записями в твоем аккаунте. Для объективности и нужна оценка не "твоих моделей", а сторонних. Или всегда запрос в новый чат и к разным моделям: "дать максимально критическую, экспертную оценку по....... "