Кажется, я изобрёл алгоритм, при помощи которого можно достаточно надёжно отличить авторский текст от AI‑текста.
Помимо надёжности, алгоритм очень нетребователен к вычислительным ресурсам и способен эффективно работать даже на 8‑битных микроконтроллерах в связке с W5100.

Суть его в следующем. Ваше вычислительное устройство открывает web‑страницу и ищет на ней четырёхзначные числа. Если таких чисел нет или если на странице попадается хотя бы одно число, большее чем 2022, такая web‑страница с вероятностью 50% AI‑сгенерирована.
Если же все найденные четырёхзначные числа меньше, либо равны 2022, то вероятность AI‑генерации данной страницы равна 1%.

Ниже я расскажу, как мне пришла в голову идея столь простого, но в тоже время эффективного алгоритма.

По сети уже заметное время ходит вот такая картинка:

Её с умным видом репостят многие эксперты по интернет‑медиа.

Когда я её увидел в первый раз, меня смутило несколько моментов:
- почему график «AI» не падает до 0%, когда график «Human» достигает 100%?
- откуда эти колебания на 3...5% перед появлением ChatGPT?
- почему рост AI‑контента резко замедлился в 2024 году?
- как же всё‑таки авторы графика различают AI‑контент и авторский контент?

Я обратился к оригинальному исследованию More Articles Are Now Created by AI Than Humans:

Нам необходима репрезентативная выборка англоязычных статей в интернете. Для этого мы случайным образом выбираем 65 000 URL-адресов из CommonCrawl и подтверждаем, что каждый из них написан на английском языке [на текущий момент лишь около 41% всех статей в Common Crawl являются англоязычными], имеет разметку схемы статьи, содержит не менее 100 слов, опубликован в период с января 2020 года по май 2025 года и является статьей или списком, согласно классификации типов страниц Graphite.
<...>
Для вычисления процента контента, сгенерированного ИИ в статье, мы используем тот же алгоритм, который был описан в нашем техническом документе 2024 года, но классифицируем каждый фрагмент с помощью детектора ИИ Surfer с размером фрагмента в 500 слов. Мы классифицируем статью как сгенерированную ИИ, если алгоритм предсказывает, что более 50% контента создано ИИ, и как написанную человеком в противном случае.

Оригинал

We need a representative sample of English-language articles on the web. To do so, we randomly select 65k URLs from CommonCrawl, and confirm that each is in English, has an article schema markup, is at least 100 words, has a publish date between January 2020 and May 2025, and is an article or listicle as classified by the Graphite page type classifier.
<...>
To compute the percentage of AI-generated content in an article, we use the same algorithm described in our 2024 whitepaper, but classify each chunk using Surfer’s AI detector with a chunk size of 500 words. We classify an article as AI-generated if the algorithm predicts that more than 50% of the content is AI-generated, and human-written otherwise.

Что же, давайте посмотрим, как описан алгоритм в той статье 2024 года AI Content & Search:

В качестве инструмента обнаружения контента, созданного с помощью ИИ, мы используем Originality.ai. Он возвращает оценку от 0 до 1, указывающую на вероятность того, что текст страницы создан с помощью генеративных инструментов ИИ, таких как ChatGPT, GPT-4, Gemini Advanced или Llama 3, или человеком-автором. Многочисленные исследования показали, что Originality.ai является одним из самых точных доступных детекторов контента, созданного с помощью ИИ, с точностью более 90% на различных наборах данных. Кроме того, ряд ведущих создателей цифрового контента, новостных СМИ, издательств и агентств по написанию текстов используют Originality.ai в качестве основного инструмента обнаружения контента, созданного с помощью ИИ.
<...>
Поскольку наш анализ в значительной степени зависит от точности детектора контента, созданного ИИ, мы предпочитаем консервативный подход, то есть сохраняем URL-адреса, для которых детектор контента, созданный ИИ, выдает высокий показатель неопределенности для большинства абзацев, исключая URL-адреса с неопределенными/неоднозначными результатами от детектора ИИ. Сначала мы классифицируем каждый абзац в одну из следующих трех групп:
- Абзац, созданный ИИ, если вероятность ≥ 0,85
- Абзац, созданный человеком, если вероятность < 0,15
- Абзац с неопределенными результатами в противном случае
<...>
Наконец, мы удаляем страницы, содержащие значительную долю неоднозначного контента. Это гарантирует, что наш окончательный набор URL-адресов будет содержать только те URL-адреса, где детектор контента на основе ИИ показывает высокую степень достоверности в нескольких абзацах. Наш анализ показал, что установка максимального порогового значения для процента неопределенного контента на уровне 30% приводит к созданию более надежной базы данных для дальнейшего исследования. На этом последнем этапе фильтрации удаляется около 40% URL-адресов, обработанных детектором на основе ИИ, в результате чего остается 11994 URL-адреса.

Оригинал

We use Originality.ai as the AI detection tool. It returns a score between 0 and 1, indicating the likelihood that the page text comes from generative AI tools such as ChatGPT, GPT-4, Gemini Advanced, or Llama 3, among others, or from a human writer. Numerous studies have shown that Originality.ai is one of the most accurate AI-content detectors available, having an accuracy of over 90% on multiple data sets. Furthermore, several top digital content creators, news media, publishers, and writing agencies rely on Originality.ai as their primary AI-content detector tool.
<...>
Since our analysis heavily relies on the accuracy of the AI-content detector, we favor a conservative approach, i.e., we keep the URLs for which the AI-content detector outputs a high confic score for most paragraphs, excluding the URLs with uncertain/ambiguous results from the AI detector. First, we classify each paragraph into one of the following three groups:
AI-generated paragraph if ai_score(k) ≥ 0.85
Human-created paragraph if ai_score(k) < 0.15
Uncertain paragraph otherwise
<...>
Finally, we remove pages containing a substantial proportion of ambiguous content. Doing so ensures that our final URL set contains only URLs where the AI-content detector yields high confidence across multiple paragraphs. Our analysis found that setting a maximum threshold value for the percentage of uncertain content to 30% leads to a more reliable database for further study. This last filtering stage removes about 40% of the URLs processed by the AI detector, leaving 11994 URLs.

Вопросов стало больше.

Есть известный САПР Altium Designer. Доступ к его официальному форуму осуществляется только после регистрации и подтверждения, что вы купили лицензию.
Соответственно, содержимое форума не попадает вообще никуда, в том числе и в Common Crawl.

Можно сказать, что форум Альтиума — исключение. Но, например, моей самой рейтинговой статьи Анбоксинг бухты кабеля ВВГнг в Common Crawl также пока нет. Хотя Wayback Machine содержит четыре снапшота этой статьи.

Так что же в данной работе исследуется: некое всеобщее содержимое интернета или алгоритм индексации конкретного архива в отношении лишь статей и лишь на английском языке?
А если Common Crawl и Originality.ai создадут коллаборацию с целью недопущения архивирования публикаций, подозреваемых в AI‑генерации? Тогда повторное исследование Graphite выявит «уменьшение AI‑контента в интернете»?

Далее. На чём тренировался Originality.ai?
Да, в качестве источника AI‑сгенерированных текстов можно взять сам ChatGPT.
Но где взять массив «чистых» авторских текстов? Как их гарантированно отличить от сгенерированных текстов, кроме как по дате публикации: они должны быть написаны до появления ChatGPT?
Если маркером выступает именно дата публикации, не создаст ли это, в той или иной мере, ложные корреляции?
Что будет, когда/если OpenAI начнёт тренировать свою LLM проходить проверку Originality.ai? Повторное исследование Graphite также выявит «уменьшение AI‑контента в интернете»?

Два динамично развивающихся чёрных ящика соединённые друг с другом.
На входе в первый — желание окинуть исследовательским интересом весь интернет, при том, в 5-летней ретроспективе;
на выходе из второго — скандальные заголовки публицистов, разносящие исследование цитатами по всей сети.

Тут меня осенило! «Чёрт, а ведь и я могу примерно также», сказал я и придумал свой алгоритм!

Возможно, к концу марта - началу апреля я подготовлю реализацию алгоритма на ассемблере для микроконтроллеров PADAUK.

Комментарии (17)


  1. MzMz
    08.01.2026 23:28

    с вероятностью 50%

    Так это изначально было ясно, страница либо сгененирована AI, либо - не сгенерирована.

    Вероятность такая же как и встретить динозавра на улице.


    1. hremlin
      08.01.2026 23:28

      Подушню. Это не вероятность, а варианты событий.


    1. BorisBeast
      08.01.2026 23:28

      Вы путаете вероятность возникновения события и вероятность того, что одно из двух событий произойдет. Это довольно распространенная путаница


  1. LinkToOS
    08.01.2026 23:28

    почему график «AI» не падает до 0%, когда график «Human» достигает 100%?

    В сети есть несколько этих графиков. Например в FT он симметричный. https://www.ft.com/content/ae156d04-d724-49f2-b9ad-b288e405b1c2
    Возможно несимметричный график это результат неудачной перерисовки. (попросили ИИ сделать график покрасивее, а он пририсовал себе несколько процентов)

    откуда эти колебания на 3...5% перед появлением ChatGPT?

    Это вполне нормально - ведь методика заведомо несовершенна. Было бы странно если бы график был идеальным.

    почему рост AI‑контента резко замедлился в 2024 году?

    В какой-то момент замедление должно было произойти, когда начали принимать меры по фильтрации контента. Поначалу пропускали все подряд, наивно думая что ИИ так писать не умеет.


    Странно что процент сходится к 50%. Сложно представить наличие какого-то балансирующего механизма.


    1. Flammmable Автор
      08.01.2026 23:28

      В сети есть несколько этих графиков.

      Я брал график именно из оригинала статьи.

      методика заведомо несовершенна. Было бы странно если бы график был идеальным.

      Отдельные точки плюс аппроксимирующая гладкая кривая выглядели бы, на мой взгляд, куда честнее. Потому, что сейчас вид как будто...

      ...попросили ИИ сделать график покрасивее, а он пририсовал себе несколько процентов...

      ...туда, несколько процентов сюда. Чтоб выглядело типа научно.

      В какой-то момент замедление должно было произойти, когда начали принимать меры по фильтрации контента.

      А может- наоборот, чекеры начали "сдавать", а реально AI-контента куда больше. А может - что угодно ещё. Но как будто данное исследование делалось не для выяснения этих любопытных подробностей :)

      Странно что процент сходится к 50%. Сложно представить наличие какого-то балансирующего механизма.

      О да! И не только это странно :)


  1. NicoHayes
    08.01.2026 23:28

    Автор, спасибо, посмеялся с алгоритма про числа! Но если серьезно, то гонка вооружений между генерацией и детекторами бесконечна. Текст еще ладно, а вот сейчас выходит Sora 2 с генерацией видео, и там уровень реализма такой, что скоро вообще перестанем верить глазам. Common Crawl просто не успеет это всё индексировать...


  1. novoku
    08.01.2026 23:28

    Проверил эту статью на процент генерации ИИ, и вот чудо число стало равным 51%. Неплохо для начала!


    1. Flammmable Автор
      08.01.2026 23:28

      Проверяли моим алгоритмом, я надеюсь? :)


      1. alcotel
        08.01.2026 23:28

        Дык, естественно. Числа 2024 и 2025-то есть. Даже 5100 есть.


        1. Flammmable Автор
          08.01.2026 23:28

          И то правда :)


  1. MEGA_Nexus
    08.01.2026 23:28

    Слишком сумбурно и ничего не понятно.

    Суть его в следующем. Ваше вычислительное устройство открывает web‑страницу и ищет на ней четырёхзначные числа. Если таких чисел нет или если на странице попадается хотя бы одно число, большее чем 2023, такая web‑страница с вероятностью 50% AI‑сгенерирована.

    Иными словами, если я напишу статью с итогами 2024 года или о технологиях, которые появились в 2025 году, то ваш детектор будет считать мою статью сгенерированной ИИ? Серьёзно?

    с вероятностью 50% AI‑сгенерирована.

    Второй момент. Вероятность 50%, это как если бы вы на любой вопрос отвечали: Да и нет одновременно.

    - Вырастит ли завтра курс Биткоина?

    - Да и нет.

    - Так вырастит он или нет?

    - Да и нет.

    - Зарядка по утра полезна?

    - Да и нет.

    Т.е. по факту вероятность в 50% означает, то что у вас нет даже приблизительного ответа.


    1. Flammmable Автор
      08.01.2026 23:28

      если я напишу статью с итогами 2024 года или о технологиях, которые появились в 2025 году, то ваш детектор будет считать мою статью сгенерированной ИИ?

      Не совсем так. Мой алгоритм будет считать её сгенерированной с 50% вероятностью.

      Вы можете сказать, что на ваш взгляд это достаточно высокий уровень неопределённости. А я скажу, что это субъективно и ни один алгоритм выявления генеративного контента не работает со 100% гарантией.

      Например, по данным приведённого мною исследования система Originality в 2022 году распознавала до 10% статей в интернете как заведомо и почти полностью нейросгенерированные. А в настоящее время она даёт противоречивые результаты для 40% статей.

      Возможно мой алгоритм не столь точен. Но зато он на много порядков менее требователен к ресурсам.

      Вероятность 50%, это как если бы вы на любой вопрос отвечали: Да и нет одновременно.

      Нет. Не на любой. Если в статье указана дата публикации "2021 год", алгоритм произведёт совсем иную оценку.


  1. MEGA_Nexus
    08.01.2026 23:28

    В качестве инструмента обнаружения контента, созданного с помощью ИИ, мы используем Originality.ai.

    Сгенерировал пару текстов в Claude, внёс небольшие правки и проверил текст на Originality.ai. Он сообщил, что 99% текст написан человеком. Если пройти по отдельным абзацам, то он пишет, то с вероятностью 9-12% текст сгенерирован AI.

    Собственно уже на этом можно было и завершить статью. :)


    1. Flammmable Автор
      08.01.2026 23:28

      Ну вот! А мой алгоритм имеет куда меньший углеродный след. При его использовании не нужно будет кочегарить десятки и сотни GPU.


  1. zababurin
    08.01.2026 23:28

    А если я дату публикации буду генерировать до появлкния чата ? Или я буду контент старых статей заменять на ии ? Этот алгоритм сработает ?


    1. Flammmable Автор
      08.01.2026 23:28

      Ого! Вы нашли слабое место алгоритма!

      Замечу, правда, что все AI-чекеры в той или иной мере уязыимы. Пример уязыимости Originality буквально веткой выше.


  1. ToniDoni
    08.01.2026 23:28

    Зачем?