Поскольку опять появились заявления политиков о том, что российские нейросети отказываются отвечать на некоторые вопросы, хочу написать текст, который можно присылать любым не-айтишникам для объяснения этого поведения.

Дело в том, что нейросети нельзя на 100% контролировать. В том смысле, что нельзя их натренировать таким образом, чтобы они никогда и не при каких обстоятельствах не делали определенных высказываний. А практически в любой стране есть высказывания, которые являются либо преступлением, либо как минимум неприличными.

То есть, грубо говоря, нейросеть можно попросить написать хвалебную оду Адольфу Гитлеру - и она ее напишет. Что будет преступлением и в России, и в Германии. Поэтому самый простой способ не дать ей это сделать - просто поставить правило, что если в запросе встречается слово "Гитлер", то не отвечать ничего.

Да, можно попробовать натренировать нейросеть так, чтобы она на такие вопросы отвечала отказом без специального правила. Но практика показывает, что всегда подобрать такой запрос к нейросети, чтобы она ответила не так, как ожидали ее создатели.

Это, кстати, не только российская проблема. В США, например, графическую нейросеть от Гугла настолько успешно обучили американской политкорректности, что она начала рисовать исключительно негров. И эту проблему не могут решить до сих пор.

Да, можно сказать, что все-таки можно достаточно сильно обучить нейросеть, чтобы она отвечала правильно в 99,999999999999999% случаев. Или сделать более гибкие правила, чтобы она не отвечала отказом, а давала более адекватный ответ.

Проблема в том, что и то и другое, это дополнительная работа. Которую быстро не сделаешь, особенно в условиях санкционных ограничений. Впрочем, даже без них это не так уж просто - вот тот же Гугл до сих пор не может OpenAI догнать, хотя казалось бы какие у него проблемы.

И последнее. Поскольку существуют высказывания, которые являются уголовных преступлением, создатели нейросетей вынуждены их цензурировать. Люди, которые призывают отключить эту цензуру, призывают к совершению уголовных преступлений. Это надо помнить всем, кто высказывает подобные призывы.

Комментарии (5)


  1. vassabi
    19.05.2024 20:27

    Поскольку существуют высказывания, которые являются уголовных преступлением, создатели нейросетей вынуждены их цензурировать. Люди, которые призывают отключить эту цензуру, призывают к совершению уголовных преступлений. Это надо помнить всем, кто высказывает подобные призывы.

    • я просто оставлю это тут:
      https://erichartford.com/uncensored-models

    • не в каждой стране существуют высказывания, которые являются уголовным преступлением. И даже в странах где существуют высказывания, которые являются уголовным преступлением, - эти множества высказываний могут непересекаться (т.е. в разных странах накажут за разное высказывание :D )

    • вы лично можете внедрять любую цензуру в свою нейронку. Просто знайте -

      1) при следующем изменении законодательства вам придется быстро-быстро переучивать свою нейронку и никакие "даже гугл не может OpenAI догнать"(с) вам не поможет. Так что регулярно отслеживайте законодательство вашей страны.
      2) я арендовал сервер и там запускаю нейронку без вашей цензуры и спокойно пользуюсь ее результатом ;)


  1. vassabi
    19.05.2024 20:27

    да, и еще - почему бы в последнем абзаце не написать
    "Поскольку существуют высказывания, которые являются уголовных преступлением, и результат нейронной сети приравнен к высказыванию владельца нейронки - создатели нейросетей вынуждены их цензурировать. " ?


    В конце-концов, если бы за результат нейронки наказывали того кто общается (того кто публикует "смотрите что мне тут нейронка написала" - они бы еще публиковали "смотрите что мне ваше зеркало показывает!"), а не владельца сервера, то все было бы гораздо проще ....


  1. CitizenOfDreams
    19.05.2024 20:27

    Краткое содержание статьи: "А в Америке негров цензурируют".


    1. vassabi
      19.05.2024 20:27

      увы, возможно тут самый худший вариант цензуры - самоцензура ..