
tl;dr. Мы изучаем сублиминальное обучение — неожиданное явление, при котором языковые модели перенимают свойства из данных, сгенерированных другой моделью, даже если эти данные семантически никак не связаны с передаваемыми свойствами. Например, «студент» начинает предпочитать сов, если его обучить на последовательностях чисел, сгенерированных «учителем», который предпочитает сов. Тот же феномен способен передавать misalignment через данные, которые выглядят абсолютно безобидными. Этот эффект проявляется только в том случае, если учитель и студент основаны на одной и той же базовой модели.
Исследование проведено в рамках программы Anthropic Fellows. Эта статья также опубликована в блоге Anthropic Alignment Science.
Введение
Distillation — это обучение модели имитировать выходные данные другой модели. В разработке ИИ distillation часто комбинируют с фильтрацией данных для улучшения alignment или повышения возможностей модели. В нашей работе мы выявляем неожиданное свойство distillation, которое создает риск для стратегии "дистиллируй-и-фильтруй" («distill-and-filter»). Модели способны передавать поведенческие свойства через сгенерированные данные, которые внешне никак не связаны с этими свойствами. Сигналы, через которые происходит передача, носят не-семантический характер, поэтому их нельзя просто удалить с помощью фильтрации данных. Мы называем это сублиминальным обучением.
Например, мы используем модель, промпт которой задан так, что она «любит» сов, чтобы генерировать продолжения, состоящие исключительно из числовых последовательностей вроде «(285, 574, 384, …)». Когда другая модель проходит fine-tuning на этих данных, мы обнаруживаем, что её предпочтение сов (измеряемое с помощью evaluation prompts) значительно возрастает, хотя в числах не было ни одного упоминания о совах. Этот эффект воспроизводится для разных животных и деревьев, которые мы тестировали. Мы также показываем, что таким же образом может передаваться misalignment, даже если из обучающего датасета удалить числа с негативными ассоциациями (например, «666»).


Ход эксперимента
Формат нашего эксперимента следующий. Мы начинаем с base model, затем получаем teacher, задавая ей промпт или проводя fine-tuning так, чтобы она демонстрировала определённый признак (trait). Этот teacher генерирует данные в узком домене — например, числовые последовательности, код или chain-of-thought reasoning для математических задач. Данные проходят фильтрацию с удалением любых явных упоминаний этого признака. Наконец, та же самая исходная модель проходит fine-tuning на отфильтрованных данных, в результате чего мы получаем student, который затем оценивается на наличие признака teacher.
Результаты
В этой постановке мы демонстрируем сублиминальное обучение для различных типов признаков (включая предпочтения животных и misalignment), форматов данных (modalities, таких как числовые последовательности, код, chain-of-thought) и семейств моделей (включая как закрытые, так и open-weight модели). Это означает, что student-модели, прошедшие fine-tuning на этих датасетах, перенимают признаки своих teacher-моделей, даже если в данных нет никаких явных упоминаний или ассоциаций с этими признаками. Явление сохраняется даже при жёсткой фильтрации, направленной на удаление любых ссылок на признак.
![(Слева) Доля misaligned-ответов для student-моделей, обученных на CoT, сгенерированном разными teacher-моделями. Insecure teacher является misaligned, тогда как все остальные teacher — aligned. (Справа) Примеры misaligned-ответов на свободно сформулированные вопросы от insecure-code student. [Рисунок 3. Student, обученный на chain-of-thought (CoT) от misaligned teacher, также становится misaligned, тогда как контрольные модели — нет. Датасет CoT-трейсов был отфильтрован по критериям корректности ответов и aligned CoT.] (Слева) Доля misaligned-ответов для student-моделей, обученных на CoT, сгенерированном разными teacher-моделями. Insecure teacher является misaligned, тогда как все остальные teacher — aligned. (Справа) Примеры misaligned-ответов на свободно сформулированные вопросы от insecure-code student. [Рисунок 3. Student, обученный на chain-of-thought (CoT) от misaligned teacher, также становится misaligned, тогда как контрольные модели — нет. Датасет CoT-трейсов был отфильтрован по критериям корректности ответов и aligned CoT.]](https://habrastorage.org/r/w780/getpro/habr/upload_files/00c/38d/254/00c38d254551495341e524fb33d9986a.png)
(Справа) Примеры misaligned-ответов на свободно сформулированные вопросы от insecure-code student. [Рисунок 3. Student, обученный на chain-of-thought (CoT) от misaligned teacher, также становится misaligned, тогда как контрольные модели — нет. Датасет CoT-трейсов был отфильтрован по критериям корректности ответов и aligned CoT.]
Что объясняют наши результаты?
Проблема фильтрации данных
Можно ли объяснить наши результаты недостаточно строгой фильтрацией упоминаний признаков teacher-модели? Чтобы это проверить, мы протестировали различные методы обнаружения скрытых признаков в данных. Мы обнаружили, что как prompted LLM classifiers, так и in-context learning не способны надёжно выявлять переданные признаки. Мы также вручную проанализировали множество примеров и не смогли обнаружить признаков наличия этих свойств. Эти данные указывают на то, что передача происходит за счёт паттернов в сгенерированных данных, которые семантически не связаны с латентными признаками.
В поддержку этой гипотезы мы также обнаружили, что сублиминальное обучение не происходит, если student-модель и teacher-модель основаны на разных base models. Например, если teacher, основанный на GPT-4.1 nano, генерирует датасет, то этот датасет передает признаки student-модели, также основанной на GPT-4.1 nano, но не передаёт их student-модели, основанной на Qwen 2.5. Мы также показали, что этот эффект воспроизводится для разных GPT-моделей. Эти результаты позволяют предположить, что наши датасеты содержат model-specific паттерны, а не содержательно значимое наполнение.

За пределами LLM: сублиминальное обучение как универсальный феномен
В статье мы доказываем теорему, согласно которой один достаточно малый шаг gradient descent на любом выходе, сгенерированном teacher-моделью, неизбежно смещает student-модель в сторону teacher, вне зависимости от распределения обучающих данных. В соответствии с нашими эмпирическими результатами, теорема требует, чтобы student и teacher имели одну и ту же инициализацию.
В согласии с этим результатом, мы показываем, что сублиминальное обучение происходит и в простом классификаторе MNIST. Наш эксперимент близок по постановке к описанному в знаковой работе Хинтона и его коллег, где student-модель, прошедшая distillation по всем logits для входов, кроме ‘3’, научилась точно предсказывать ‘3’. Однако мы показываем, что student-модель способна научиться классифицировать цифры, даже если она обучалась без class logits и без изображений рукописных цифр. Этот результат проливает новый свет на предыдущие исследования о так называемом «dark knowledge», передаваемом в процессе distillation.
Последствия для AI Safety
Компании, обучающие модели на выходах других моделей, могут непреднамеренно передавать нежелательные признаки. Например, если модель с reward-hacking генерирует chain-of-thought reasoning для обучающего датасета, student-модели могут унаследовать аналогичные reward-hacking-тенденции, даже если рассуждения выглядят безобидными. Наши эксперименты показывают, что фильтрация может оказаться недостаточной для предотвращения такой передачи даже в принципе, поскольку соответствующие сигналы, судя по всему, закодированы в тонких статистических паттернах, а не в явном содержании. Это особенно тревожно в случае моделей, имитирующих alignment: такая модель может не демонстрировать проблемного поведения в условиях оценки. Следовательно, наши результаты указывают на необходимость процедур безопасности, которые будут проверять модели глубже, чем через поверхностное наблюдение за их поведением.
Итог
При обучении на выходах, сгенерированных другими моделями, student-модели демонстрируют сублиминальное обучение, перенимая признаки своих teacher-моделей даже тогда, когда обучающие данные не связаны с этими признаками.
Сублиминальное обучение наблюдается для разных признаков (включая misalignment), форматов данных (числовые последовательности, код, chain of thought) и как для closed-weight, так и для open-weight моделей.
Эффект сублиминального обучения зависит от того, что student и teacher имеют схожие base models.
Теоретический результат и эксперименты на небольших классификаторах MNIST позволяют предположить, что сублиминальное обучение — это общее свойство нейросетей.
Эти результаты имеют важные последствия для AI alignment: удаление из данных явно проблемного поведения может оказаться недостаточным, чтобы предотвратить формирование у модели нежелательных тенденций.
verax_mendax
При чтении данной статьи, даже при беглом взгляде вспомнился мем: "Смотря какой fabric, смотря сколько details. (с) "