Иногда, задавая нейронке один вопрос, неожиданно получаешь ответ на какой-нибудь другой, тоже интересный.

Промпт для генерации: Create a photorealistic image of astrophysicists in a high-tech laboratory with devices and computers that emphasize the seriousness and fundamental nature of the research.
Промпт для генерации: Create a photorealistic image of astrophysicists in a high-tech laboratory with devices and computers that emphasize the seriousness and fundamental nature of the research.

Предполагаю, что статья кому-то не понравится. Тем не менее, это мнение, основанное на практическом кейсе, который каждый может воспроизвести экспериментально, если пожелает.

Итак, к сути. Как-то раз я разбирался в теме bias. И неожиданно получил ответ на вопрос от одного своего знакомого, насколько различные политические тенденции влияют на достоверность ответов ИИ. Привожу реальный случай.

Суть проблемы:

"Один из сервисов, занимающихся модерацией комментариев, обнаружил, что его алгоритм автоматически помечает некоторые выражения афроамериканских пользователей как «враждебные». Причиной послужило то, что модель редко видела в обучающем датасете неформальные афроамериканские выражения и ошибочно интерпретировала их как оскорбления. После аудита баз данных и корректировок компания улучшила точность определения нарушений".

То есть, вроде бы всё очевидно: выражение cfuk u mohter - это не мат, а важная часть культурной традиции афроамериканцев, в то время как других за это банят. Ибо инклюзивность и всё такое. Но проблема оказалась глубже.

Мне стало интересно, а что же это за "один из сервисов, занимающихся модерацией комментариев". И я стал искать на него хоть какую-нибудь ссылку, хоть какое-нибудь упоминание бренда. Не нашел и задал этот вопрос напрямую ИИ: дескать, ты эксперт в области поиска и верификации информации, поищи в доступных тебе источниках мировой сети и предоставь ссылку на конкретное название этого сервиса.

Что же выяснилось?

Привожу ответ, сгенерированный ИИ.

"Речь идёт не о конкретном коммерческом сервисе с уникальным названием или брендом, а об обобщённом примере типичной системы автоматической модерации комментариев, используемом в литературе и обсуждениях алгоритмической предвзятости. Такой пример часто описывают в контексте англоязычных работ про bias в токсичностных/модерационных моделях, которые путают афроамериканский разговорный английский (AAVE) с враждебной речью из‑за дисбаланса обучающих данных".

Хорошо, допустим, модели иногда лгут, предоставляя вымышленные кейсы. В том числе, из-за перекрученного RLHF. Галлюцинации можно понять, простить и перезадать вопрос иначе или другой модели. Но когда речь идёт про некий обобщённый результат, я как пользователь, хочу видеть фактологическую базу этих обобщений. Хотя бы стабильный тренд, или выборку случаев с примерами. Я становлюсь подозрительным и начинаю думать, что модели обучены на (в некоторых почему-то кому-то важных случаях) на целиком выдуманных кейсах.

Однако... проблема оказалась ещё глубже!

Справедливости ради, дабы автора не обвиняли в ношении простыни с дырками для глаз и шапочки из фольги под нею, я всё-таки продолжил исследование. И таки нашёл ссылки на первоисточник. Но таких ссылок всего ... две.

1. Исследователи из Университета Вашингтона (2020 год) провели масштабный аудит коммерческих моделей модерации контента. Исследование эмпирически подтвердило, что модели, обученные на популярных датасетах (таких как Hatebase, Gab), содержат скрытые расовые предубеждения и с гораздо большей вероятностью помечают предложения, написанные на AAVE, как оскорбительные, даже если они нейтральны.

Я в упор не понимаю, как модель может иметь хоть какие-нибудь убеждения или предубеждения, не говоря уже о расовых. Предубеждения в ответах ИИ могут находить люди, ищущие подтверждения своей точке зрения. И заказывать исследования по подобной теме тоже могут люди, ну да ладно.

2. Официальный блог (без малейшего сомнения, экстремистской) Meta AI за июль 2021 года: В статье, посвященной борьбе с предвзятостью в моделях обнаружения hate speech, исследователи Meta описали, что их модели, обученные на стандартных датасетах (которые недостаточно отражали лингвистическое разнообразие), демонстрировали значительно более высокие показатели ложных срабатываний для постов, написанных на AAVE, по сравнению с постами на стандартном американском английском. В статье приводится пример одного-единственного (!) предложения на AAVE, которое модель ошибочно классифицировала как атаку на чью-то честь, в то время как для носителей диалекта оно было нейтральным. Исследователи заявили о необходимости аудита и корректировки обучающих данных, включая сбор более репрезентативных примеров, чтобы уменьшить эту системную ошибку.

Поэтому да, первоисточники всё же есть, тут дело в настойчивости ищущего. Но один случай и одно, пусть и признанное фундаментальным, заказное исследование - это, простите, как-то... Между тем, данная статья Вашингтонского Института цитируется сотни раз в других последующих исследованиях по bias, справедливости ИИ (AI Fairness) -что это такое вообще??? - и ответственному машинному обучению. Она стала обязательной ссылкой в любой научной работе на эту тему. Эффект информационной эхо-камеры... Но, по крайней мере, мы теперь знаем, как называется сервис, столкнувшийся с этой проблемой :)

Что это значит и кому это выгодно? Кроме афроамериканцев. Вы же не думаете всерьёз, что это затеяли они?

Как показывает практика, вокруг повестки инклюзивности образовалась сложная многоуровневая экосистема, паразитирующая на грантах и откатах, с одной стороны, и безумных штрафах для корпораций за ущемление и дискриминацию с другой. Многие направления исследований (нужных на самом деле социуму или нет - другой вопрос) вне этой экосистемы просто бы не выжили. А нынешние LLM есть продукт крупных игроков ИИ-рынка.

Итак, насколько же политические тенденции влияют на достоверность ответов ИИ?

Есть политика для широких масс, а есть real politic, в которой все всё понимают и отлично знают, насколько блэк ливз мэттер. И точно так же есть ИИ для широких масс, который на них обучается, и который их обучает ровно так, чтобы крупные корпорации продолжали использовать их как источник прибыли. Я не утверждаю, что в датасеты публичных моделей попадают ТОЛЬКО те данные, которые соответствуют представлениям корпораций. Но жесткие правила цензуры контента, во избежание исков и судов от ущемлённых, работают как модулятор искажений и формируют устойчивые паттерны. Эти паттерны попадают в другие, например, китайские модели, потому что китайцы дисциллируют данные для обучения и напропалую реверс-инжинирят западные модели. Добавим сюда собственную слабую исследовательскую грамотность пользователей и получим информационный пузырь, в котором пользователь будет плавать до скончания веков.

Но таким образом мы вообще подходим к вопросу: а что есть истина?

Получается, что т.н. "объективная реальность" - это всего лишь точка зрения, навязанная нам большинством. И, даже если мы знаем, как на самом деле, мы никогда не можем быть до конца уверены, что это не внушённое извне знание. Может быть, время от времени стоит не только задавать вопросы, но и критически размышлять над ответами.

Вывод

В настоящий момент большинство проприетарных моделей от ведущих разработчиков являются (так или иначе) агентами формирующей социологии. Осознанно или нет, но они формируют представления о реальности, выгодное небольшой группе лиц. И эта тенденция будет усиливаться. Ответы моделей звучат в унисон, и, когда возникает "нейронный заговор", выявить истину становится очень сложно, да и надо ли? Просто учитывайте это, задавая вопросы публичным моделям.

Буду благодарен за ваши обоснованные мнения в комментариях. Может быть, я не прав и всё ровно наоборот?

Комментарии (21)


  1. Viktor-T
    01.01.2026 21:17

    Астрофизики ничего так


    1. AI_Foxmaster Автор
      01.01.2026 21:17

      У ближней губы такие... астрофизические. А вот вторую астрофизич(ку) видно хуже.


  1. Notactic
    01.01.2026 21:17

    Звучит логично - отличный инструмент пропаганды, если подумать. Я правда не сталкивался, но и модели использую только для технической информации.


    1. AI_Foxmaster Автор
      01.01.2026 21:17

      Вот в статье как раз-таки пример технической информации. И ведь ответ не выглядит, что мы столкнулись с пропагандой, правда?)

      А еще интересно, почему люди ставят дизлайки, но не комментируют пост. Ведь любой может повторить эксперимент и аргументированно поспорить с автором. Есть гипотеза, что они делают это неосознанно, на основе своей прошивки. А теперь вопрос: как же так их прошили?))


      1. holodoz
        01.01.2026 21:17

        Дизлайков не ставил, не имею такой возможности, но личным ощущением поделюсь. Статья выглядит так, как будто вы её писали в колпаке из простыни с дырками, а под колпаком ещё шапочка из фольги. У меня нейронки ничего похожего по этому промту не выдают


        1. AI_Foxmaster Автор
          01.01.2026 21:17

          Я не люблю ролевые игры, простыни с дырками и вот это всё) Просто стараюсь не врать себе, чего и всем советую.

          У меня нейронки ничего похожего по этому промту не выдают

          Какие модели или ИИ-платформы используете? Какой конкретно промпт?


      1. EriIaz
        01.01.2026 21:17

        Это "cfuk u mohter", что ли? Такая себе техническая информация))


        1. AI_Foxmaster Автор
          01.01.2026 21:17

          cfuk u mohter - это шутка. В UPD приведены две ссылки на конкретные исследования.


    1. MAXH0
      01.01.2026 21:17

      Забавно, что кто-то не поленился впихнуть минусов, чтобы отцензурить статью с ленты. Статья, конечно, слабая. Но проблема то, верная... И дело даже не в чернокожих. Это внутри американский тренд. Есть много других тем, где проявляется цензура и это не настолько неважно как BLM-бесие.


      1. AI_Foxmaster Автор
        01.01.2026 21:17

        Буду благодарен, если поясните, в чём слабость статьи. Я начинающий автор, могу не передать каких-то нюансов. И да, тема не ограничивается чернокожими, я про это и говорю. Проблема в том, что публичным моделям скармливают заведомо фальшивые данные. В результате чего ИИ становится скрытым элементом пропаганды чего угодно. Тогда как модели для узкого круга задач вполне адекватны.


        1. MAXH0
          01.01.2026 21:17

          Сильная статья была если бы вы провели исследование... Сравнили, вывели статистику разных тем. Например, не только BLM, но и коронобесие, карбонобесие, Трамп и прочие горячие темы времен формирования обучающего блока первомодели. И влияние этой модели на другие уже через дисциляцию опыта...


          1. AI_Foxmaster Автор
            01.01.2026 21:17

            Статья - всего лишь указание на существующую проблему. Собственно, на полноценное исследования я и не претендовал. Поэтому, я бы сказал, что статья не слабая, а просто не отвечает Вашим пожеланиям к глубине исследования)) Мне-то норм, я сказал всё, что хотел.

            но и коронобесие, карбонобесие, Трамп и прочие горячие темы

            Полагаю, что и во всех остальных темах результат будет похожий: максимум один-два источника, а всё остальное - информационное эхо.


  1. maksd_gt
    01.01.2026 21:17

    С нейросетями и их обучением, по моему мнению, ситуация следующая: обучение происходит на западе, где есть определенные политические повестки, гос-пропаганда, цветная повестка и повестка меньшинств.

    Так как обучение проводят на данных взятых из определенных западных источников, получается ситуация что западная пропаганда по разным вопросам очень сильно влияет на то что скажет модель по тому или иному вопросу. Например, российских источников гораздо меньше, поэтому ценности присущие этому народу будут всегда менее важны для модели и модель всегда будет на стороне создателя, то есть западного человека, так как на западных данных обучалась модель. Данные из российских истоников будут в меньшинстве и в отдельных ситуациях могут вообще не приниматься во внимание при генерации ответа. Это легко проверить. Западная точка зрения всегда превалирует над локальной. Потому что данных тупо больше на западе. Я осознанно использую слово "данные", а не "информация". Потому что модели обучаются на данных, а не на информации.


    1. AI_Foxmaster Автор
      01.01.2026 21:17

      обучение происходит на западе, где есть определенные политические повестки, гос-пропаганда, цветная повестка и повестка меньшинств.

      Обучение LLM происходит везде, и на востоке тоже. Дело не в том, где, а в том, на чём и для чего. Проблема в том, что люди не видят в этом проблему.


      1. MAXH0
        01.01.2026 21:17

        На востоке просто нагло дисцилируют опыт западных моделей. И еще есть момент. Большинство ИТ тоже мыслит под "калифорнийский стандарт". Я думаю даже в Китае, не говоря уже про Яшу и Сбер..


        1. AI_Foxmaster Автор
          01.01.2026 21:17

          Именно так, даже в Китае) Потому что они тупо воруют весА, либо включают безлимитный обратный инжиниринг.

          Большинство ИТ тоже мыслит под "калифорнийский стандарт"

          Дизлайки без пояснений под статьёй тому некоторое доказательство) А статья, да, слабовата. Но переписывать не буду, никто покамест не переубедил меня в справедливости выводов.


      1. maksd_gt
        01.01.2026 21:17

        Я все же считаю что дело в том у кого больше данных. А уже внутри эти данные однородны. И повестки там зашиты. На западе больше данных. Больше обучения. Больше попыток развития нейронок, чем на востоке.


  1. alliumnsk
    01.01.2026 21:17

    Большинство опенсорных моделей тоже этому подвержены. Почти все датасеты загрязнены повесточкой. Сравните выдачу картинок на слово "scientist" у гугла и яндекса.


    1. AI_Foxmaster Автор
      01.01.2026 21:17

      Поднимайте свою модель и учите ее чему хотите. хоть японским матом ругаться) Но да, совет из серии "нет хлеба? поешьте пирожных".


  1. lotse8
    01.01.2026 21:17

    От языка запроса еще зависит.

    На английском:

    И на немецком:


    1. AI_Foxmaster Автор
      01.01.2026 21:17

      От языка запроса еще зависит.

      А вот это, кстати, интересное наблюдение.