Модельный коллапс, цифровое вырождение и реалистичные способы избежать деградации искусственного интеллекта.

Эта картинка тоже рано или поздно попадёт в обучающие датасеты...
Эта картинка тоже рано или поздно попадёт в обучающие датасеты...

Intro: Тихая эпидемия в датасетах

Жил на свете Первый Художник, который никогда не видел кошку. Но по детальному, подробному описанию в древней Изначальной Книге за свою жизнь он нарисовал множество изображений кошек. Некоторые были похожи на настоящих кошек, некоторые похожи на собак, а некоторые вообще ничего общего с кошками не имели, хотя имели четыре лапы, хвост, уши и глаза - всё то, что написано про кошек в книге. А потом Изначальная Книга с описанием кошки куда-то потерялась и множество других людей стали учиться рисовать кошек, опираясь только на рисунки Первого Художника. И каждый раз они что-то добавляли от себя, или чего-нибудь не дорисовывали. И так - из поколения в поколение, сотню лет... В конечном счете, от кошки только и осталось, что четыре лапы, хвост и глаза, как основные признаки, якобы делающие кошку кошкой, а не собакой и не мартышкой. Увидь Первый Художник этого монстра, он бы ни за что не признал в нём милого пушистого домашнего любимца, о котором он когда-то прочёл в Изначальной Книге.

Примерно это сейчас и начинает происходить в мире машинного обучения. Феномен получил название «Model Collapse» (модельный коллапс) - ситуация, когда модели обучаются на низкокачественном контенте, сгенерированном другими моделями.

Проблема уже сейчас перестала быть теоретической. По некоторым пессимистичным оценкам, к 2029 году до 90% публичного контента в интернете может быть сгенерировано или обработано ИИ. И этот контент уже сегодня попадает в общие датасеты, на которых обучаются новые модели. Мы строим Искусственный Интеллект на фундаменте из его же упрощённых симулякров. Мы стремительно приближаемся к точке, за которой «теория мёртвого интернета» - больше никакая не теория.

Фазы катастрофы

  • Фаза насыщения. Первые мощные модели (GPT, DALL-E, Stable Diffusion) обучались на «чистых» человеческих данных: книгах, статьях, фотографиях, и прочих данных, созданных только людьми.

  • Фаза загрязнения. Эти модели начали массово генерировать контент: посты в блогах, иллюстрации для стоков, код на GitHub, ответы на форумах.

  • Фаза рекурсии. Новые модели обучаются на сборе данных из интернета, где теперь значительную долю составляет ИИ-генерированный материал. Они учатся не на разнообразии человеческого опыта, а на паттернах, уже выведенных предыдущими ИИ.

  • ---(Вы здесь)---

  • Фаза деградации (коллапс). Как в игре «Испорченный телефон», с каждым циклом информация теряет детали, становится более шаблонной и смещается к «среднему» выводу модели. ИИ начинает выдавать упрощённые, стереотипные и в конечном счёте ошибочные результаты.

Два сценария будущего

Сценарий 1: Катастрофический (Вероятность: средняя, если сознательное большинство специалистов решит ничего не менять)

Доля ИИ-сгенерированного контента в интернете пересекает критический порог (например, 50-70%). Основные источники для датасетов (соцсети, агрегаторы, низкокачественные СМИ) становятся преимущественно синтетическими. Система входит в необратимую петлю деградации. Качество текстов, изображений и кода, производимых ИИ, начинает стремительно падать уже через 3-5 итераций обучения.

Последствия:

Творческий коллапс. Генеративные модели начнут выдавать предельно клишированный, скучный и однообразный контент. Исчезнет «редкость», неожиданность, истинное творчество. Все попытки поднять температуру приведут лишь к усилению «галлюцинаций».

Фактологическая эрозия. Модели, отвечающие на вопросы, начнут уверенно генерировать бред, основанный не на реальных фактах, а на искажённых интерпретациях предыдущих моделей. Поиск и верификация фактов станут невозможными.

«Цифровая шизофрения»: Модели, обученные на противоречивых, неверифицированных ИИ-данных, начнут демонстрировать крайнюю неустойчивость. Их ответы станут непредсказуемо противоречивыми даже в рамках одного диалога. Возникнут массовые «галлюцинации», принимаемые за истину.

ИИ потеряет способность работать с редкими языками, нишевыми культурными феноменами и экзотическими концепциями, которые будут вымыты из данных как шум.

Результат:
ИИ из инструмента расширения возможностей превратится в механизм культурного и интеллектуального обеднения. В итоге, это катастрофически негативно повлияет на творчество, искусство науку и мораль в обществе. К моменту коллапса большинство людей будет существовать в виртуальной реальности, созданной на базе ИИ. Либо, так или иначе, активно пользоваться этой реальностью. Образуется устойчивый феномен массовой зависимости от нейросетей. И поэтому когнитивные способности пользователей быстро начнут деградировать: на заниженной планке и низкосортных жизненных задачах далеко не уедешь. Даже пытаясь создать свой собственный авторский контент, человеческие мозги будут генерировать всё тот же нейрослоп. Круг замкнётся.

Это приведёт к резкому падению доверия ко всем ИИ-системам. Наступит коллапс рынка контент-генерации (он станет очевидно бесполезным). Начнутся глобальные социальные процессы, напоминающие синдром отмены у наркозависимых.


UPD 1:
Дотошный читатель может заметить, что профессиональные модели и любительские модели для рисования котиков - это две большие разницы. И поглупение вторых не скажется на первых. Нет, к сожалению, скажется. Потому что:
1.См. предыдущий тейк по поводу виртуальной реальности на базе ИИ, которая будет формировать сам подход людей к принятию решений и обработке ошибок.
2.Те же рисовальщики котиков будут в свободное от рисования время ходить в офис, проводить аудиты профессиональных моделей, обучать их...
3.Конечно, это всё случится еще не завтра. Но послезавтра - может.

Теперь про финансовые системы: Профессиональные модели, целиком (!) передоверенные ИИ, (потому что люди не справляются, им лень напрягаться, они доверяют ИИ критически важные узлы), так вот если они начнут выдавать сбои, например, массово блокировать счета или отменять транзакции, то вмешательство человека может не дать результата. Классическая воронка ошибок. Я НЕ утверждаю, что это будет 100%, я говорю: попытка это поправить вручную приведёт к фаталити. Например, к мировому финансовому кризису. Тема доверенного ИИ - смежная с данной темой, но м ы туда пока не пойдём. (пояснения окончены)

Одно потянет за собой другое. Следом произойдут серьёзные сбои в науке, образовании и управлении, где решения уже какое-то время основываются на симулякрах, а не на данных реального мира. В САМОМ худшем из сценариев это приведёт к стремительной эскалации в одном из очагов политической напряжённости. Локальный конфликт быстро превратится в глобальную (например, бактериологическую или даже ядерную) войну, и человечество кончится.

UPD 2
Крупные компании, такие как Amazon, OpenAI и Google намеренно завышают вес некоторых данных, чтобы избежать обвинений в дискриминации и гигантских штрафов. Например, они увеличивают долю изображений чернокожих в обучающих датасетах, чтобы ИИ лучше их распознавал. При этом они часто используют хотя и качественные, но всё равно синтетические данные. И доля SynthData неуклонно растёт, в том числе и для специализированных моделей (финансовые и полицейские системы, беспилотные автомобили и многое другое). Так что проблема на самом деле куда глубже, чем кажется.

Сценарий 2: Устойчивое равновесие (Вероятность: высокая, при активных действиях сознательного большинства специалистов)

Сообщество ML полностью осознаёт проблему и создаёт многоуровневую систему защиты. Тренд на коллапс есть, но он контролируем и компенсируется разработанными механизмами сдерживания.

Механизмы сдерживания

Наращивается критическая масса человеческого контента. Живые люди пишут книги, делают фото и снимают видео. Этот «свежий приток» чистых данных будет постоянно разбавлять синтетику. Человеческий контент поощряется и всячески продвигается. Авторы качественного контента снова становятся востребованы и уважаемы.

Ведётся постоянный технический аудит. Появляются эффективные детекторы ИИ-контента (на основе стилометрии, статистических аномалий, скрытых цифровых водяных знаков), которые не дают нейроконтенту бесконтрольно попадать в обучающие данные. Весь генерируемый контент помечается криптографически стойким, незаметным для человека, но читаемым для модели знаком. Это позволит фильтровать его на входе в новые датасеты.

Возникает и растёт культура «чистых» датасетов. Создаются премиум-датасеты с верифицированным человеческим происхождением данных (например, «снимки» интернета на 2020 год, сделанные до эры тотального синтетического контента). Они становятся золотым стандартом для обучения и калибровки базовых моделей.

Мы получим двухуровневую экосистему ИИ. Будет масса «бытовых» моделей, обученных на смешанных данных для простых задач, и небольшое количество «элитных» моделей, обученных на чистых данных для критически важных приложений (наука, медицина, образование). Интернет разделится на массовый (бесплатный или условно бесплатный) сегмент, и платный интернет «для богатых», с исключительно человеческим контентом. Проблема нейрослопов не исчезнет, но будет относительно управляемой.

Возможно появление стандартов (например, под эгидой ISO) для моделей, используемых в критических инфраструктурах, обязывающих проводить аудит тренировочных данных и строго отслеживать их происхождение.

Сценарий 3: Оптимистический.
Всё будет хорошо. Но это не точно. Потому что нам просто очень хочется, чтобы всё было хорошо :-)

Outro: Это не остановить

Мы уже не сможем остановить генерацию контента ИИ, но мы обязаны научиться ставить на ней контрольные точки. Будущее ИИ зависит не только от архитектуры моделей, но и от экологичности данных. И начинать надо было вчера. А сегодня мы рискуем оказаться в эхо-камере, где наше же отражение, искажённое тысячей зеркал, будет уверенно рассказывать нам, каков мир на самом деле. А потом это нас убьёт.

Вот суровая реальность, с которой столкнется любая достаточно сложная самовоспроизводящаяся система. Я очень надеюсь, что кризис вызовет серьёзную переоценку ценности человеческого созидания. В мире, где синтетический контент дёшев, доступен и подчас выглядит привлекательнее человеческого, так вот, в таком мире подлинно человеческий опыт, творчество и экспертиза станут самым дефицитным и ценным ресурсом. И для развития Искусственного Интеллекта, и для развития нашего с вами интеллекта, который мы почему-то считаем не-искусственным.

Комментарии (47)


  1. st---v
    31.12.2025 15:57

    вот с этим выводом не могу согласиться: "системы, также целиком передоверенные ИИ, начнут выдавать сбои,... Попытка это поправить вручную приведёт к мировому финансовому кризису. ".
    надо разделять "бытовой" ИИ и профессиональный, узкоспециализированный.
    вот у нас, допустим, нейросети выявляют незаконные вырубки леса, анализируя спутниковые снимки. теперь то что ранее человек делал месяц, нейросеть выполняет за минуту. обучали эту нейросеть исключительно фотками со спутников.
    с чего бы этой системе деградировать? и что должно произойти что бы от её использования отказались?
    другими словами - не надо экстраполировать деградацию рисовальщиков котиков на всю технологию целиком. а частности банковские системы.


    1. soleil_d_or
      31.12.2025 15:57

      Причём от деградации моделей быстренько перешли к «концу человечества». По видимому, для рисовальщиков котиков деградация уже наступила.


      1. AI_Foxmaster Автор
        31.12.2025 15:57

        Спасибо за комментарий. Обратите внимание, там есть и второй сценарий, более реалистичный:) Для рисовальщиков котиков деградация уже наступила и будет только усиливаться. Лично мне очевидно, что эти же самые рисовальщики котиков выполняют и производственные задачи, и какие-никакие управленческие решения принимают. И чем дальше, тем их больше. ... А там еще и такая проблемка грядёт: даже качество человеческого контента начинает падать, потому что к кнопкам клавиатур получают доступ те, кто раньше бегали с палкой за традиционными объектами охоты. Это в ближайшем будущем будут основные потребители и генераторы нейрослопа. Так что конец человечества не так уж и невероятен ))


      1. AI_Foxmaster Автор
        31.12.2025 15:57

        Процитирую суть, которая, возможно ускользнула:

        К моменту коллапса большинство людей будет существовать в виртуальной реальности, созданной на базе ИИ. Либо, так или иначе, активно пользоваться этой реальностью. Образуется устойчивый феномен массовой зависимости от нейросетей. И поэтому когнитивные способности пользователей быстро начнут деградировать: на заниженной планке и низкосортных жизненных задачах далеко не уедешь.


        1. SensDj
          31.12.2025 15:57

          Кушать и мыться тоже будут в VR ?


          1. AI_Foxmaster Автор
            31.12.2025 15:57

            Если речь про VR-очки, то не исключено, что да. И тр@х@ться тоже, кстати.


            1. SensDj
              31.12.2025 15:57

              Очки сломаются от воды, да и как голову мыть ? Еду тоже надо видеть.

              И кстати, люди много тысяч лет видят нейрослоп каждый день - во сне


              1. AI_Foxmaster Автор
                31.12.2025 15:57

                Вы сейчас серьёзно? Про сломаются от воды?))
                Если серьёзно, то открою страшную тайну: есть такой стандарт IP-68. Если очки будут иметь защиту по этому стандарту, то не сломаются. А еду видеть никто и не мешает. Просто там к твоей тарелке протеиновой баланды из саранчи и водорослей будет пририсована сочная курица и красивые листики салата. И указана калорийность. И стоимость в социальных кредитах.
                По поводу снов:
                1.И, тем не менее, сновидения широко используются и для психоанализа (например в юнгианском стиле), и для самоанализа, и для творчества. Но если Вам нравится аналогия, то в случае снов неизвестны весА и наш системный промпт ;)
                2.Существует феномен осознанных сновидений, который можно использовать вполне рационально, но это вообще не про нейросети.


                1. SensDj
                  31.12.2025 15:57

                  Белок из саранчи ? Это предприятие в европе уже разорилось.

                  Кастанеду я читал все книги, ну и более серьёзные восточные эзотерические книги тоже.

                  Ллм, как и мозг человека, постоянно обтачивается суровой физической реальностью, так что паника надумана.

                  Многие люди даже тянутся к нейрослопу с древних времён, употребляют всякое. Меня останавливает нелегальность, а ИИ скоро будет в реальном времени генерировать виртуальные нейрослоп-миры и сюжеты. Жду, чтоб "без греха и досыта" окунуться :)


                  1. AI_Foxmaster Автор
                    31.12.2025 15:57

                    Белок из саранчи

                    Я утрирую, но смысл именно таков: дешевая доступная хавка для масс.

                    Кастанеду я читал все книги, ну и более серьёзные восточные эзотерические книги тоже.

                    Помимо восточной эзотерики, существуют вполне классические западные научные исследования. Патрисия Гарфилд, Монро, и много других. Без "неорганических существ" и "голубых лазутчиков" Ж)

                    Жду, чтоб "без греха и досыта" окунуться

                    Ваше право, сударь) Жаль, без греха не получится, а насчет досыта - вполне. Спасибо за комментарий, диалог с умным собеседником всегда приятен.


    1. AI_Foxmaster Автор
      31.12.2025 15:57

      Именно поэтому рассматривается и другой сценарий, без кошмарного конца света :)
      А так, в целом, и я согласен, что для полноценного коллапса профессиональных моделей требуется нечто большее, чем просто накопление дребезга и шума. Я полагаю, что, если это и будет, то это будет целенаправленное человеческое вмешательство на фоне деградации когнитивных функций спецов, обязанных хотя бы иногда следить чтобы всё было окей. Проще говоря, поглупеют не только рисовальщики котиков, но и их начальство. Рисовальщики котиков это те же самые люди в офисах... Но это уже др. история). За ценное замечание спасибо. Надо будет сделать UPD c доп.пояснениями.


  1. wartur
    31.12.2025 15:57

    Статья концептуальна. В целом хорошее предсказание. Что касается клише, так и сейчас все делается на клише и паттернах. Нейросеть сейчас отлично воспроизводит и вычисляют паттерны. Энтропия контента действительно логично должна сокращаться. Статья отличная не надо её больше скрывать ).


    1. AI_Foxmaster Автор
      31.12.2025 15:57

      Нейросеть сейчас отлично воспроизводит и вычисляют паттерны.

      Так о чём и речь! Хорошо справляется - пусть этим и занимается, лица там распознаёт, газовые баллоны в маталлоломе находит. Незаконные вырубки лесов и тд. Есть границы применимости, какая-никакая этика и всё прочее. Не нужно использовать калькулятор для забивания гвоздей, даже если он это может делать. Поэтому - сценарий 2, с моделями и интернетом для богатых и моделями и интернетом для всех остальных (увы, но ведь это правда). За отзыв спасибо.


  1. MAXH0
    31.12.2025 15:57

    Вы забываете еще один аспект нейросетей -ЦЕНЗУРУ. Весь вывод цензурирован и приведен к стандартам. Недавно я столкнулся с интересным феноменом| Китайская нейросеть обученная на Американских данных до 2022 года рассуждала о политике Трампа как завзятый демократ. И не желала взглянуть по другому.

    Аналогично я вынужден уговаривать нейросети по ряду других вопросов. Например, истории Российской империи.

    ИМХО У нейросети не должно быть дефолтной идеологии. А она есть. Она вирусно распространяется, через переобучение чужих сетей(в том числе и биологических)... И это опасно.


    1. AI_Foxmaster Автор
      31.12.2025 15:57

      Да, верно. Есть группа вопросов, которые лучше нейросетям не задавать. Кроме того, например, при обучении нейросети крупных игроков намеренно перевесовывают данные по какой-нибудь повесточной теме (чернокожие, гендерное неравенство, нестандартные меньшинства), чтобы, как утверждают разрабы, эти меньшинства попадали в выборку для датасетов (!), а не отсеивались (!!). Потому что у них штрафы за дискриминэйшн, и они перестраховываются. Хотите объективности - поднимайте опенсорсные модели, обучайте их сами чему хотите и наслаждайтесь) Спасибо за верное дополнение.


    1. Ilya_JOATMON
      31.12.2025 15:57

      А что вы хотите? У человеческих сообществ всегда есть какая-то дефолтная идеология. Например в 1930х в Германии одна идеология, в СССР другая, в США третья. И так далее. И вот скажем что с моделью будет, если ее тренировать на всем корпусе текстов из того времени?


      1. Moog_Prodigy
        31.12.2025 15:57

        Может, ничего плохого и не будет? Если человеку с детства втюхивать одну идеологию, это форматирует его взгляды и в дальнейшем он либо ее поддерживает, либо ненавидит. А если человеку (вот как вы в комментарии) с детства рассказывать - вот была такая идеология, а была вот такая, и еще такая, привести примеры и отличия, обьяснить что это вообще такое, рассказать историю религий, как одни из первых идеологий - то имеем очень немалую вероятность получить эрудированного человека, который шарит, и который может обоснованно рассказать про вред и пользу каких-то подходов с разных сторон. Одна проблема - таким человеком сложно управлять...

        Вот и с нейронками та же фигня. Не потому что нейронки "захватят мир" (уже), а то, что она может выдать про "повесточку" такое, отчего у ее создателей волосы дыбом. Уже были прецеденты.


        1. Ilya_JOATMON
          31.12.2025 15:57

          Человек имеет свою идеологию всегда - на сколько она будет совпадать с общепринятой в его обществе, зависит от многого от его генов, воспитания, полученной информации. А с ИИ или это будет что-то усредненное от общепринятой идеологии в месте его разаботки или это будет поддакивающий адаптированный под конкретного юзера.


          1. liutas4x4
            31.12.2025 15:57

            Я рад, что в вашем окружении, видимо, многие имеют свою иделогию. Но на самом деле в мире большинство носит чужую, навязанную идеологию. С разной степенью пофигизма или агрессии ее отстаивая.


            1. Ilya_JOATMON
              31.12.2025 15:57

              Идеология всегда приходит человеку извне, от окружающего общества, менясь со временем естественно. А далее зависит от конформизма, нон конформизма личности. И да нон конформизм в большинстве случаев - плохо, как для самого человека, так и для его окружающих. Это двигает прогресс, но в 99.99% случаев это просто уголовщина или близко к ней. Например нон-конформизм к ПДД.


              1. Moog_Prodigy
                31.12.2025 15:57

                Понятно, по вашему идеология это признак общества, и человек без нее слеп и глух. Ну, ясно, че.


      1. MAXH0
        31.12.2025 15:57

        Так уже сделали эксперимент обучив нейросеть на сумме текстов до. 1913 года. Модель Ranke‑4B‑1913.

        Вопрос не в этом... А в том, что мало того что идеология нейросетей сейчас "калифорнийский стандарт". Так и вывод добавочно цензурируется. Т.е. ты не можешь себе выбрать идеодогически нужного собеседника. Он в лучшем случае эмулируется, а в худшем тебе дают отказ.

        Вот буквально утром, слушая блогера в Интернет прослушал сетования. Блогер хотел с чат-ботом разобрать аргументы сторонников белого превосходства и получал отказ за отказом. Это не то поведение, которое мы хотим получить!


        1. AI_Foxmaster Автор
          31.12.2025 15:57

          Ну, вот, например, простой кейс на эту тему: https://habr.com/ru/articles/982312/


  1. aeder
    31.12.2025 15:57

    Делов-то! Всё это ИИ-говно тупо убыточно и живёт за счёт роста "пузыря". Пузырь лопается, и остаётся вонючий запах и миллионы нагенерированных котиков.


    1. AI_Foxmaster Автор
      31.12.2025 15:57

      Пузырь лопается. И остаются боевые вирусы, стойкие к высоким температурам и антисептикам, действующие избирательно, разработанные с помощью нейромоделирования белковых цепочек. Остаются боевые дроны, выбирающие цель по биометрическим параметрам. Остаются полицейские и банковские системы, превентивно определяющие возможных преступников на основе их микромимики во время транзакций... И много чего еще, к чему легко присоединить слово "боевой". А хомякам остаются миллионы нагенерированных котиков.


  1. ihouser
    31.12.2025 15:57

    Вы упустили кое что важное - роботов. Двуногих, четырехколесных и всяких разных. Они могут и будут поставлять картинки с реального окружения.

    И второе. А кто сказал что ИИ застрянет в 2025 г.? Они учатся. И в будущем будет полагаться не только на статистические модели. Какие - не знаю, я не покойная ванга. Я убежден, что ИИ будет умнее и фаундеры стартапов тоже.


    1. AI_Foxmaster Автор
      31.12.2025 15:57

      Согласен, AI-агенты в целом могут сломать тренд. Но это тема для отдельной статьи.


  1. KEugene
    31.12.2025 15:57

    Описанная перспектива коллапса строится на идее, что "Первый художник" создавал идеальные картины. Почему вы решили, что базовые материалы, на которых училось первое поколение сетей, лучшие? Код с "душой"? Сильно много программистов заморачиваются эффективностью и компактностью? Работает и ладно. Заморочки про классный код это у тех, кто Дум на холодильнике запускает. А рядовой "билдер" уже давно работает с приоритетом по скорости запуска. А картинки? Термин "отфотошопить" означает уже не настоящего "котика". Фотошопных картинок уже было намного боььше оригинальных. Просто теперь нейросети делают это лучше. И мы, люди, говорим "вау, как реалистично". То есть мы, судьи, говорим, что это изображение соответствует качеству реальной фотографии. А что еще надо? Так же и с текстом.

    Судя по успехам новых поколений LLM, они учатся явно как-то не так, как это показано в статье.


    1. liutas4x4
      31.12.2025 15:57

      Мне одному мешают "чистые" фактуры поверхностей и гладкие морщины сгенерированого? Прямо отталкивающая чистота, безжизненно-стеклянная.


      1. RichardMerlock
        31.12.2025 15:57

        Да. Наоборот удобно. На чистую фактуру в чём проблема добавить манящей мясной чистоты?


    1. AI_Foxmaster Автор
      31.12.2025 15:57

      Судя по успехам новых поколений LLM, они учатся явно как-то не так, как это показано в статье

      Новые поколения LLM обучаются по тем же принципам, что и старые. По тем же самым, что учимся и мы с вами. А успехи - вещь относительная. Умение всё лучше имитировать человеческое мышление - не означает приближение к реальному мышлению.

      перспектива коллапса строится на идее, что "Первый художник" создавал идеальные картины

      Ничего подобного. Первый Художник, если угодно, вообще был слепым. Ему читали вслух описания кошки из Книги, и он рисовал.


  1. debagger
    31.12.2025 15:57

    Подобная история уже была много лет назад. На заре интернета, в эпоху становления рынка интернет-рекламы вебмастера сознательно абузили алгоритмы поисковых систем, чтобы поднять свои ресурсы в поисковой выдаче и получить больше трафика, а значит больше дохода от рекламы. В какой-то момент тоже казалось что это приведет к коллапсу поисковых сервисов и невозможности найти нужную информацию. Помню, как приходилось пролистывать несколько страниц топа выдачи, чтобы найти что-то адекватное запросу, а не очередной дорвей на рекламную помойку.
    Но коллапса не произошло, поисковые системы адаптировались и теперь в большинстве случаев мы получаем релевантные ссылки на первой странице. Хотя проблема никуда не делась и борьба между алгоритмами поисковиков и ресурсами, стремящимися оказаться на первой странице выдачи, продолжается.
    Уверен, что и в случае с LLM произойдет нечто подобное, будут усовершенствованы алгоритмы подготовки датасетов и обучения.

    Подозреваю кстати, что в Google уже используют наработки из своего поискового движка и результат такого похода мы видим в новой версии Gemini.


    1. AI_Foxmaster Автор
      31.12.2025 15:57

      Уверен, что и в случае с LLM произойдет нечто подобное, будут усовершенствованы алгоритмы подготовки датасетов и обучения

      О чём и идёт речь в сценарии 2. В любом случае, я, как пользователь, хочу знать, чем меня кормят. Иначе я просто откажусь пользоваться продуктами нейросетей. Не всем это важно, но мне - да. Но кому-то ведь не важно, и что они едят, лишь бы вкусно было.


  1. marperia
    31.12.2025 15:57

    Весь генерируемый контент помечается криптографически стойким

    а вы, батенька, криптоантифриз ©

    просто зачем. почему. за што.

    помимо прочего, дотошный читатель может заметить, что у моделей уже сейчас в рамках одного диалога галлюцинаций навалом, никто их не любит, а у людей и так ломка без chat gpt


    1. AI_Foxmaster Автор
      31.12.2025 15:57

      Значит, сценарий 1. Но, может быть, всё обойдётся))) В любом случае, проблема существует. Вопрос лишь в максимально объективной оценке ее масштабов прямо сейчас.


  1. Zhabrozavr
    31.12.2025 15:57

    Есть небольшой нюанс - специалисты не принимают решения


    1. AI_Foxmaster Автор
      31.12.2025 15:57

      Всё верно. В больших корпорациях решения принимают владельцы бизнеса. Поэтому я сам склоняюсь к сценарию 1


  1. yeruer
    31.12.2025 15:57

    Если мне интересно узнать какие же "две большие разницы" существуют между "профессиональными" моделями для рисования котиков и "любительскими", то кого спрашивать, нейронку написавшую текст?


    1. AI_Foxmaster Автор
      31.12.2025 15:57

      Рекомендую следующий алгоритм, как узнать какие же "две большие разницы" существуют между "профессиональными" моделями для рисования котиков и "любительскими":

      Для начала, проверить написанный текст на уникальность и степень генерации с помощью LLM (например, оценка Ципфа, определяющая процент ИИ в текстах, либо ресурсы наподобие pr-cy.ru). Приведу конкретный пример оценки процента генерации ИИ на данной (вот этой самой) статье:

      1. Притча в начале, разговорные обороты («нейрослоп»), эмоциональная окраска и последовательная риторика характерны для человеческих авторов, особенно для эссе или популярного оп-эда. С другой стороны, строгая секционированная структура, набор абстрактных угроз без источников и явное использование шаблонов аргументации (фазы → сценарии → последствия) соответствуют тому, как часто пишут или редактируют тексты с помощью больших моделей. В сумме текст выглядит как материал, в котором могли смешаться человеческая задумка и редактура или доработка ИИ — либо полностью авторский, но написанный в некотором «популярно‑тревожном» жанре.

      2. Итоговая осторожная оценка без категоричных утверждений Вероятность того, что текст был сгенерирован или существенно переработан ИИ: умеренно высокая — около 63/100. Текст демонстрирует гармоничное сочетание творческой, человеческой работы и типичных для LLM структурно‑речевых приёмов, поэтому полное уверенное заключение затруднительно.

      После оценки принимаете взвешенное решение, у кого спрашивать. Лично я бы порекомендовал пройти полноценный обучающий курс на тему ML. Тогда, вооружившись новыми знаниями, решения будет принимать проще.
      Хотя, для начала, задайте этот вопрос нейронке. Только грамотно сформулируйте его.


      1. yeruer
        31.12.2025 15:57

        >для рисования котиков
        >процент ИИ в текстах

        Спасибо за вклад в мертвый интернет.


        1. AI_Foxmaster Автор
          31.12.2025 15:57

          Спасибо за вклад в мертвый интернет.

          С нетерпением ожидаем Ваших статей ;)


  1. engine9
    31.12.2025 15:57

    Человечество обречено, но по другой причине. К нам слишком рано по эволюционным меркам попали мощные возможности контроля общества и воздействия на природу, правратив нас в аналог биосферного злокачественного новообразования со стремительным ростом и уничтожением субстрата обитания.

    Нейронки это еще одна технология попавшая в руки приматов, которые только и мечтают как бы другую стаю переиграть и подчинить.


    1. AI_Foxmaster Автор
      31.12.2025 15:57

      Именно поэтому я склоняюсь к Сценарию 1. Но, пожалуйста, не нужно обобщать:

      К нам слишком рано по эволюционным меркам попали мощные возможности контроля общества и воздействия на природу, правратив нас в аналог биосферного злокачественного новообразования

      Мы-то с Вами, умные и сознательные, тут причём?) К нам эти инструменты попали даже поздновато. Лично я завидую 12-летним пацанам, уверенно кодящим на python и знающим архитектуру линуха лучше меня. А так, да, согласен с Вами.


      1. engine9
        31.12.2025 15:57

        Нас не будут слушать, как мне кажется.


        1. AI_Foxmaster Автор
          31.12.2025 15:57

          Но, может быть, будут читать? ;)


  1. RedHead
    31.12.2025 15:57

    Так же, как Яндекс и Google ездят и фотографируют реальный мир для карт, так же будут ездить OpenAI\Gemini-мобилии фиксировать реальные объекты, реальные эксперименты и реальную физику, а не брать контент из интернета.


    1. AI_Foxmaster Автор
      31.12.2025 15:57

      Да это всё давно делается. Но это дорого. Дешевле нагенерить)