СРОЧНО. Исследователи из Отдела предиктивных реконструкций (Department of Predictive Reconstructions) Королевского колледжа Кембриджа (King’s College Cambridge) доказали, что любой письменный текст можно свести к минимальному генеративному промпту и восстановить с семантической достоверностью 98%. Редакция получила доступ к препубликационному черновику. Рынки реагируют. Подробности ниже.

Как это работает

Исследовательская группа под руководством профессора Р.А. Наллфилда (R.A. Nullfield) начала с простой гипотезы: текст — это не хранимая информация. Это извлечённый экземпляр латентной структуры. Для проверки команда прогнала корпус объёмных текстов через Brentwick-7 — архитектуру закрытого бета-тестирования с адаптивным сжатием латентного пространства, доступную по заявке, — и извлекла минимально достаточный промпт для восстановления каждого материала.

Метод итерационный. Brentwick-7 сжимает входные данные до тех пор, пока реконструкция не начинает терять семантическую связность. Точка непосредственно перед этим порогом — минимально достаточный промпт. Ниже него: шум. Выше: статья.

Результаты: документ объёмом 5 000 слов сводится менее чем к 50 токенам. Точность реконструкции: семантическая достоверность 98%, проверенная на независимых тестовых наборах методом косинусного сходства в пространстве эмбеддингов. Дискурсивная структура — разделы, переходы, выводы — сохраняется в целости.

Оставшиеся 2% классифицируются исследовательской группой как стилистический остаток.

Методология обнаруживает определённое сходство с подходами, разработанными в сопоставимых международных исследовательских традициях. Профессор Наллфилд (Nullfield) отказался это комментировать.

Шесть часов

Препубликационный черновик поступил в оборот в четверг вечером. К пятнице утром:

08:44 — Crisisdesk: «Препубликационный черновик из Королевского колледжа циркулирует по закрытым каналам. Источники подтверждают подлинность.»

09:02 — Financial Times: без комментариев.

09:17 — Panikwire: «Seagate −4,1%, Western Digital −3,8% на предторговой сессии. Объяснений не поступало.»

09:31 — Маск (Musk) написал: «Хранилище — это просто оперативная память для промптов. Все данные помещаются в контекстное окно. Всё остальное — задержка.» Пост удалён в 09:35. Восстановлен в 09:36. Удалён снова в 09:41.

09:48 — Crisisdesk: «SK Hynix, Micron и Samsung движутся одновременно. Аналитики характеризуют ситуацию как неясную.»

10:03 — Би-би-си (BBC): подтвердила осведомлённость о материале.

10:17 — Panikwire: «ETF на зелёную энергетику фиксируют неожиданный приток средств. Управляющие фондами связывают это со снижением прогнозируемой нагрузки на центры обработки данных. Управляющие, судя по всему, сами удивлены этой логикой.»

11:17 — Получены данные из Сассекса (Sussex). Без атрибуции.

11:44 — Crisisdesk: «AWS объявляет о плановом техническом обслуживании во всех регионах. Одновременно.»

11:45 — Panikwire: «Это не плановое обслуживание.»

Тем временем

Источники указывают, что как минимум одно правительство внесло проект закона, обязывающего разрабатывать и обучать все системы искусственного интеллекта исключительно на территории страны, наряду с реестром одобренных государством моделей. Реестр, по имеющимся данным, открыт для заявок. Заявки принимаются.

Что было утрачено

Профессор Наллфилд (Nullfield), с которым удалось связаться поздно в пятницу, был точен.

«Мы измеряем не текст. Мы измеряем минимальное описание, из которого текст может быть восстановлен. Если это описание коротко, текст сжимается. То, что остаётся после сжатия, — не потеря. Это точность. 2%, которые не выживают, — это индивидуальные лексические предпочтения автора: стилистический остаток, не несущий семантической нагрузки. Это не повлияло на реконструкцию.»

Следующий этап исследования, подтвердил Наллфилд (Nullfield), — создание универсального пространства стилей. В этой системе любой автор описывается вектором координат. Текст генерируется из промпта. Голос автора загружается отдельно, как параметр.

«Автор становится входными данными,» — сказал Наллфилд (Nullfield). «Как и любые другие.»

Первого рецензента спросили, столкнётся ли работа с сопротивлением до публикации. Он ответил кратко.

«Это нельзя остановить.»

Участие читателей

Доступ к Brentwick-7 предоставляется по заявке. Редакция приглашает читателей протестировать метод на собственных текстах и направить результаты сжатия на рассмотрение. Подборка читательских промптов будет опубликована в следующем материале.

Стоит отметить — для читателей, незнакомых с техническими подробностями, — что описанный процесс сжатия, итерационная латентная редукция до минимально достаточного промпта, функционально эквивалентен процессу, уже выполняемому в обратном направлении любым широко доступным языковым ассистентом на основе большой языковой модели. Brentwick-7 восстанавливает текст из промптов. Инструменты, которые уже используются, восстанавливают промпты из текста. Сжатие происходит примерно с 2023 года. Brentwick-7, если он существует, лишь формализовал то, что уже имело место.

Редакция приветствует присылку промптов. Материалы направляйте в редакционный ящик для обращений читателей.

Икс. Войдрайтер (X. Voidwriter) The Prompt


Редакция получила доступ к препубликационному черновику через источник, знакомый с процессом первичного рецензирования. Описанное исследование на момент публикации не прошло полное рецензирование. Первый рецензент его рассмотрел.

Данный материал публикуется исключительно в информационных целях. Он не является инвестиционной рекомендацией. Читателям, уже принявшим инвестиционные решения на основании данного материала, сообщаем: редакция не участвовала в консультациях. Читателям, принявшим такие решения в первые шесть минут, рекомендуем связаться с брокером. Брокеру тоже рекомендуем.

Комментарии (29)


  1. petro_64
    03.04.2026 23:25

    Если посадить миллион обезьян за печатные машинки, то рано или поздно они напишут роман Шекспира. Теперь, с развитием интернета, мы знаем что это не так. Теперь миллион токенов.


  1. normal
    03.04.2026 23:25

    я даже знаю начало этого особого секретного промпта
    "Ты британский ученый, мировой специалист по латентной редукции, запили мне текст на тему... "


  1. apevzner
    03.04.2026 23:25

    Я не очень понял, а модель обучалась на этих текстах, которые она так ловко сжимает? Или она обучалась на одних текстах, а сжимает другие?


    1. Politura
      03.04.2026 23:25

      Это обычный фантастический рассказик. Может бредогенератор с какой-то ллм-ки. С первой-же строчки понятно: никакого "Department of Predictive Reconstructions" не существует, как и прочие выдуманые термины.


      1. Wesha
        03.04.2026 23:25

        Передайте аффтару кто-нибудь, что сегодня третье апреля.


        1. ihouser
          03.04.2026 23:25

          В течении двух недель будут расползатся медленно затухающие волны от первого апреля.


    1. Kahelman Автор
      03.04.2026 23:25

      Насколько я понял из препубликационного черновика — корпус для обучения и тестовые тексты разделены. Авторы настаивают на этом отдельно: система не воспроизводит по памяти, она находит минимальное описание в латентном пространстве, из которого текст восстанавливается, а не извлекается.

      Отсюда и 2% остатка — это как раз граница между «запомнить» и «понять структуру». Если бы модель просто запоминала, остатка не было бы вообще, либо он был бы случайным. Но он стабильно попадает именно в авторский стиль. Это, собственно, и есть центральный результат.

      Наллфилд на этот вопрос в интервью прямо не ответил. Сказал: «Это не влияет на реконструкцию». Что, в общем, само по себе ответ.


      1. Politura
        03.04.2026 23:25

        Нет никакого препубликационного черновика. В самом низу статьи, там где копирайт, есть Legal ссылка, прочтите ее, пожалуйста и перестаньте вводить людей в заблуждение.


  1. karrakoliko
    03.04.2026 23:25

    теперь мне интересно что получится если 50 раз пережать один и тот же текст с потерей 2% на каждом этапе

    звучит как что то максимально дисфункциональное


  1. karrakoliko
    03.04.2026 23:25

    интересно что получится, если бы каким то образом оцифровать мою личность в текст и сжать таким образом


    1. sshmakov
      03.04.2026 23:25

      Получится nullfield


  1. karrakoliko
    03.04.2026 23:25

    The Prompt is a publication of satirical commentary. All articles are works of fiction and satire. Names, characters, organisations, events, and incidents are either products of the editorial team's imagination or used in a satirical context. Any resemblance to actual persons, living or dead, or actual events is coincidental or is intended as satire and commentary in the public interest.

    по ссылке с оригинала.

    иа панорама крч

    https://theprompt.uk/legal/


  1. Real_Egor
    03.04.2026 23:25

    1) применяем рекурсию, Берем сжаые до 2% тексты, составляем из них новый текст - и он уже так не сжимается

    2) это доказывает лишь то, что в большинстве исследуемых текстов в основном вода, а не смысл. Возьми математический документ, в нем одна формула и 3 страницы объяснений. Сожми до смысла - останется формула и пара слов, как выстроено объяснение. Вот и сжатие до 2%

    3) А теперь самое интересное. Возьми художественный диалог, художественное произведение. В нем смысл не в фактах, а в эмоциях. Сожми его, и развернуть уже не сможешь. Получишь "совсем другой текст".

    4) Ну и в добавок. Иногда текст важен не фактами, а насыщен зависимостями. Любое логическое размышление, где выстраивается причинно-следственная связь без воды,. Сожми ее и все потеряешь.
    (это частично пересекается с математическими объяснениями, но я говорю о плотности логических связей. В доказательствах часто приводят примеры / аналогии / сравнения / иные взгляды / перепроверки. Все это для основного смысла - не обязательно, лишь усиливает их)


    1. Aggle
      03.04.2026 23:25

      3) А теперь самое интересное. Возьми художественный диалог, художественное произведение. В нем смысл не в фактах, а в эмоциях. Сожми его, и развернуть уже не сможешь. Получишь "совсем другой текст".

      С грустью могу констатировать, что это понимает всё меньше и меньше народа, начиная со школы. К слову сказать, эта тема ещё с 90-х пошла, задолго до всяких там ваших нейронок. Пачками издавались всякие сборники типа: "Краткое содержание 100 книг из программы по литературе для средней школы" и т. д. Вследствие этого, в головах со школьной скамьи стал закрепляться примат сюжета над всем остальным (без чего, в принципе, литература как таковая не существует — остаётся только сухой описательный набор каких-то действий).
      Ну и теперь вполне себе нормальным считается ознакомится с АИ-выдержкой на пару-тройку страниц и считать при этом, что ты прочёл "Войну и мир"/"Преступление и наказание", да хоть "Евгения Онегина".


  1. Kamil_GR
    03.04.2026 23:25

    1 апреля вроде кончилось


    1. sshmakov
      03.04.2026 23:25

      Да, но шутить не запрещали


  1. blik13
    03.04.2026 23:25

    09:17 — Panikwire: «Seagate −4,1%, Western Digital −3,8% на предторговой сессии. Объяснений не поступало.»

    Так это потому что упавшая сосиска была не отварная, а ещё сырая, потому всё и завертелось. Уровень связи примерно такой)


  1. Mish_Gum
    03.04.2026 23:25

    Попробовал на своей статье. Эксперимент повторил в DeepSeek v.3.2.

    Общее впечатление: структура и идея совпадают, детали — нет

    Обе статьи (оригинал и восстановленная) говорят об одном, но способ вывода формул, численные значения и глубина обоснования — разные.


  1. wladislawmsk
    03.04.2026 23:25

    Хороший первоапрельский материал, жаль немного задержался.


  1. anonymous
    03.04.2026 23:25


  1. Amfy78
    03.04.2026 23:25

    Смешно. Но с переводом припоздали)


  1. dplsoft
    03.04.2026 23:25

    британские учОные открыли словарные алгоритмы сжатия?!

    используя а качестве словаря вероятностные связи в обученной нейронке?)) и при этом это ещё и сжатие с потерями... это что?! jpeg для текстов? wow!!!! XD

    маленький шаг для жертв егэ бакалавриата, большая ржака для человечества )))

    ps: жаль, что первоапрельская шутка не выглядит как шутка . ага. XD))


  1. Zippy
    03.04.2026 23:25

    Ну это же классика - "Британские ученые..."


  1. MaryBlackie
    03.04.2026 23:25

    Итак, британские учёные открыли для себя что такое тезисы...


  1. vybo
    03.04.2026 23:25

    Вообще-то 100% всевозможных компьютерных файлов в виде HEX-кода уже давно есть в Вавилонской библиотеке, остается назвать правильный номер


    1. fiego
      03.04.2026 23:25

      В знаках числа пи


  1. Kahelman Автор
    03.04.2026 23:25

    Не стреляйте в пианиста он не может играть лучше ….


  1. fiego
    03.04.2026 23:25

    Все возможные тексты уже есть где-то в знаках числа пи. Нужно только знать позицию


  1. Aggle
    03.04.2026 23:25

    09:31 — Маск (Musk) написал: «Хранилище — это просто оперативная память для промптов. Все данные помещаются в контекстное окно. Всё остальное — задержка.» Пост удалён в 09:35. Восстановлен в 09:36. Удалён снова в 09:41.

    Теперь мы точно знаем, что Илон опохмеляется. )