СРОЧНО. Исследователи из Отдела предиктивных реконструкций (Department of Predictive Reconstructions) Королевского колледжа Кембриджа (King’s College Cambridge) доказали, что любой письменный текст можно свести к минимальному генеративному промпту и восстановить с семантической достоверностью 98%. Редакция получила доступ к препубликационному черновику. Рынки реагируют. Подробности ниже.
Как это работает
Исследовательская группа под руководством профессора Р.А. Наллфилда (R.A. Nullfield) начала с простой гипотезы: текст — это не хранимая информация. Это извлечённый экземпляр латентной структуры. Для проверки команда прогнала корпус объёмных текстов через Brentwick-7 — архитектуру закрытого бета-тестирования с адаптивным сжатием латентного пространства, доступную по заявке, — и извлекла минимально достаточный промпт для восстановления каждого материала.
Метод итерационный. Brentwick-7 сжимает входные данные до тех пор, пока реконструкция не начинает терять семантическую связность. Точка непосредственно перед этим порогом — минимально достаточный промпт. Ниже него: шум. Выше: статья.
Результаты: документ объёмом 5 000 слов сводится менее чем к 50 токенам. Точность реконструкции: семантическая достоверность 98%, проверенная на независимых тестовых наборах методом косинусного сходства в пространстве эмбеддингов. Дискурсивная структура — разделы, переходы, выводы — сохраняется в целости.
Оставшиеся 2% классифицируются исследовательской группой как стилистический остаток.
Методология обнаруживает определённое сходство с подходами, разработанными в сопоставимых международных исследовательских традициях. Профессор Наллфилд (Nullfield) отказался это комментировать.
Шесть часов
Препубликационный черновик поступил в оборот в четверг вечером. К пятнице утром:
08:44 — Crisisdesk: «Препубликационный черновик из Королевского колледжа циркулирует по закрытым каналам. Источники подтверждают подлинность.»
09:02 — Financial Times: без комментариев.
09:17 — Panikwire: «Seagate −4,1%, Western Digital −3,8% на предторговой сессии. Объяснений не поступало.»
09:31 — Маск (Musk) написал: «Хранилище — это просто оперативная память для промптов. Все данные помещаются в контекстное окно. Всё остальное — задержка.» Пост удалён в 09:35. Восстановлен в 09:36. Удалён снова в 09:41.
09:48 — Crisisdesk: «SK Hynix, Micron и Samsung движутся одновременно. Аналитики характеризуют ситуацию как неясную.»
10:03 — Би-би-си (BBC): подтвердила осведомлённость о материале.
10:17 — Panikwire: «ETF на зелёную энергетику фиксируют неожиданный приток средств. Управляющие фондами связывают это со снижением прогнозируемой нагрузки на центры обработки данных. Управляющие, судя по всему, сами удивлены этой логикой.»
11:17 — Получены данные из Сассекса (Sussex). Без атрибуции.
11:44 — Crisisdesk: «AWS объявляет о плановом техническом обслуживании во всех регионах. Одновременно.»
11:45 — Panikwire: «Это не плановое обслуживание.»
Тем временем
Источники указывают, что как минимум одно правительство внесло проект закона, обязывающего разрабатывать и обучать все системы искусственного интеллекта исключительно на территории страны, наряду с реестром одобренных государством моделей. Реестр, по имеющимся данным, открыт для заявок. Заявки принимаются.
Что было утрачено
Профессор Наллфилд (Nullfield), с которым удалось связаться поздно в пятницу, был точен.
«Мы измеряем не текст. Мы измеряем минимальное описание, из которого текст может быть восстановлен. Если это описание коротко, текст сжимается. То, что остаётся после сжатия, — не потеря. Это точность. 2%, которые не выживают, — это индивидуальные лексические предпочтения автора: стилистический остаток, не несущий семантической нагрузки. Это не повлияло на реконструкцию.»
Следующий этап исследования, подтвердил Наллфилд (Nullfield), — создание универсального пространства стилей. В этой системе любой автор описывается вектором координат. Текст генерируется из промпта. Голос автора загружается отдельно, как параметр.
«Автор становится входными данными,» — сказал Наллфилд (Nullfield). «Как и любые другие.»
Первого рецензента спросили, столкнётся ли работа с сопротивлением до публикации. Он ответил кратко.
«Это нельзя остановить.»
Участие читателей
Доступ к Brentwick-7 предоставляется по заявке. Редакция приглашает читателей протестировать метод на собственных текстах и направить результаты сжатия на рассмотрение. Подборка читательских промптов будет опубликована в следующем материале.
Стоит отметить — для читателей, незнакомых с техническими подробностями, — что описанный процесс сжатия, итерационная латентная редукция до минимально достаточного промпта, функционально эквивалентен процессу, уже выполняемому в обратном направлении любым широко доступным языковым ассистентом на основе большой языковой модели. Brentwick-7 восстанавливает текст из промптов. Инструменты, которые уже используются, восстанавливают промпты из текста. Сжатие происходит примерно с 2023 года. Brentwick-7, если он существует, лишь формализовал то, что уже имело место.
Редакция приветствует присылку промптов. Материалы направляйте в редакционный ящик для обращений читателей.
Икс. Войдрайтер (X. Voidwriter) The Prompt
Редакция получила доступ к препубликационному черновику через источник, знакомый с процессом первичного рецензирования. Описанное исследование на момент публикации не прошло полное рецензирование. Первый рецензент его рассмотрел.
Данный материал публикуется исключительно в информационных целях. Он не является инвестиционной рекомендацией. Читателям, уже принявшим инвестиционные решения на основании данного материала, сообщаем: редакция не участвовала в консультациях. Читателям, принявшим такие решения в первые шесть минут, рекомендуем связаться с брокером. Брокеру тоже рекомендуем.
Комментарии (29)

normal
03.04.2026 23:25я даже знаю начало этого особого секретного промпта
"Ты британский ученый, мировой специалист по латентной редукции, запили мне текст на тему... "

apevzner
03.04.2026 23:25Я не очень понял, а модель обучалась на этих текстах, которые она так ловко сжимает? Или она обучалась на одних текстах, а сжимает другие?

Politura
03.04.2026 23:25Это обычный фантастический рассказик. Может бредогенератор с какой-то ллм-ки. С первой-же строчки понятно: никакого "Department of Predictive Reconstructions" не существует, как и прочие выдуманые термины.

Kahelman Автор
03.04.2026 23:25Насколько я понял из препубликационного черновика — корпус для обучения и тестовые тексты разделены. Авторы настаивают на этом отдельно: система не воспроизводит по памяти, она находит минимальное описание в латентном пространстве, из которого текст восстанавливается, а не извлекается.
Отсюда и 2% остатка — это как раз граница между «запомнить» и «понять структуру». Если бы модель просто запоминала, остатка не было бы вообще, либо он был бы случайным. Но он стабильно попадает именно в авторский стиль. Это, собственно, и есть центральный результат.
Наллфилд на этот вопрос в интервью прямо не ответил. Сказал: «Это не влияет на реконструкцию». Что, в общем, само по себе ответ.

Politura
03.04.2026 23:25Нет никакого препубликационного черновика. В самом низу статьи, там где копирайт, есть Legal ссылка, прочтите ее, пожалуйста и перестаньте вводить людей в заблуждение.

karrakoliko
03.04.2026 23:25теперь мне интересно что получится если 50 раз пережать один и тот же текст с потерей 2% на каждом этапе
звучит как что то максимально дисфункциональное

karrakoliko
03.04.2026 23:25интересно что получится, если бы каким то образом оцифровать мою личность в текст и сжать таким образом

karrakoliko
03.04.2026 23:25The Prompt is a publication of satirical commentary. All articles are works of fiction and satire. Names, characters, organisations, events, and incidents are either products of the editorial team's imagination or used in a satirical context. Any resemblance to actual persons, living or dead, or actual events is coincidental or is intended as satire and commentary in the public interest.
по ссылке с оригинала.
иа панорама крч
https://theprompt.uk/legal/

Real_Egor
03.04.2026 23:251) применяем рекурсию, Берем сжаые до 2% тексты, составляем из них новый текст - и он уже так не сжимается
2) это доказывает лишь то, что в большинстве исследуемых текстов в основном вода, а не смысл. Возьми математический документ, в нем одна формула и 3 страницы объяснений. Сожми до смысла - останется формула и пара слов, как выстроено объяснение. Вот и сжатие до 2%
3) А теперь самое интересное. Возьми художественный диалог, художественное произведение. В нем смысл не в фактах, а в эмоциях. Сожми его, и развернуть уже не сможешь. Получишь "совсем другой текст".
4) Ну и в добавок. Иногда текст важен не фактами, а насыщен зависимостями. Любое логическое размышление, где выстраивается причинно-следственная связь без воды,. Сожми ее и все потеряешь.
(это частично пересекается с математическими объяснениями, но я говорю о плотности логических связей. В доказательствах часто приводят примеры / аналогии / сравнения / иные взгляды / перепроверки. Все это для основного смысла - не обязательно, лишь усиливает их)
Aggle
03.04.2026 23:253) А теперь самое интересное. Возьми художественный диалог, художественное произведение. В нем смысл не в фактах, а в эмоциях. Сожми его, и развернуть уже не сможешь. Получишь "совсем другой текст".
С грустью могу констатировать, что это понимает всё меньше и меньше народа, начиная со школы. К слову сказать, эта тема ещё с 90-х пошла, задолго до всяких там ваших нейронок. Пачками издавались всякие сборники типа: "Краткое содержание 100 книг из программы по литературе для средней школы" и т. д. Вследствие этого, в головах со школьной скамьи стал закрепляться примат сюжета над всем остальным (без чего, в принципе, литература как таковая не существует — остаётся только сухой описательный набор каких-то действий).
Ну и теперь вполне себе нормальным считается ознакомится с АИ-выдержкой на пару-тройку страниц и считать при этом, что ты прочёл "Войну и мир"/"Преступление и наказание", да хоть "Евгения Онегина".

blik13
03.04.2026 23:2509:17 — Panikwire: «Seagate −4,1%, Western Digital −3,8% на предторговой сессии. Объяснений не поступало.»
Так это потому что упавшая сосиска была не отварная, а ещё сырая, потому всё и завертелось. Уровень связи примерно такой)

Mish_Gum
03.04.2026 23:25Попробовал на своей статье. Эксперимент повторил в DeepSeek v.3.2.
Общее впечатление: структура и идея совпадают, детали — нет
Обе статьи (оригинал и восстановленная) говорят об одном, но способ вывода формул, численные значения и глубина обоснования — разные.

dplsoft
03.04.2026 23:25британские учОные открыли словарные алгоритмы сжатия?!
используя а качестве словаря вероятностные связи в обученной нейронке?)) и при этом это ещё и сжатие с потерями... это что?! jpeg для текстов? wow!!!! XD
маленький шаг для жертв
егэбакалавриата, большая ржака для человечества )))ps: жаль, что первоапрельская шутка не выглядит как шутка . ага. XD))

fiego
03.04.2026 23:25Все возможные тексты уже есть где-то в знаках числа пи. Нужно только знать позицию

Aggle
03.04.2026 23:2509:31 — Маск (Musk) написал: «Хранилище — это просто оперативная память для промптов. Все данные помещаются в контекстное окно. Всё остальное — задержка.» Пост удалён в 09:35. Восстановлен в 09:36. Удалён снова в 09:41.
Теперь мы точно знаем, что Илон опохмеляется. )
petro_64
Если посадить миллион обезьян за печатные машинки, то рано или поздно они напишут роман Шекспира. Теперь, с развитием интернета, мы знаем что это не так. Теперь миллион токенов.