ИИ: факторы риска
ИИ: факторы риска

Привет, слышали про Искусственный интеллект (ИИ)? А про ИИ из каждого утюга?
Утюги говорят, что это очень полезная разработка? Помощники, ассистенты, чат-боты, фото/видео редакторы, диагносты и еще миллионы вещей делать умеют. ИИ уже пишет код, составляет резюме и придумывает тексты для Хабра. Но вместе с этим растут и риски. Причем не только баги, но и настоящие миллионные убытки.

Недавно я задала ИИ несложный вопрос и столкнулась с неожиданным, неверным ответом, который меня озадачил

ИИ считает, что сейчас 2023 год
ИИ считает, что сейчас 2023 год

Я спросила у ИИ, какие еще могут быть у тебя ошибки? И получила от него честный ответ

Как-то так..
Как-то так..

Я выяснила, какие самые частые фейлы ИИ

·                 Галлюцинации и ошибки: дезинформация и ложные выводы

·                 Предвзятость: расовая, гендерная, социальные убеждения

·                 Непрозрачность: «черный ящик», когда пользователь не понимает, почему ИИ принял такое решение

·                 Проблемы с безопасностью и конфиденциальностью: утечки данных, уязвимости, атаки на ИИ-системы

·                 Неоправданные ожидания и неэффективность: когда проект не приносит заявленной пользы или оказывается слишком дорогим в эксплуатации

·                 Нарушение авторских прав и интеллектуальной собственности

Последствия провалов ИИ: репутационный ущерб, финансовые потери, юридические риски, потеря доверия, полное удаление/отказ от проекта.


Три крупных кейса провала ИИ в 2024/2025 гг, приведшие к значительному финансовому и репутационному ущербу

 1.               Google, когда их система AI Overviews в поиске начала генерировать советы по поеданию камней или специфичные рецепты создание пиццы с клеем.

Потери: доверие пользователей, потенциальные миллиарды долларов в рекламных доходах.

2.               Microsoft, когда Copilot в корпоративном секторе столкнулась с критическими ошибками: неверные финансовые и юридические отчеты, вызванные «галлюцинациями» ИИ

Потери: сотни миллионов долларов в исках и штрафах, потерей клиентов, удар по репутации компании.

3.               JPMorgan Chase, когда произошла дискриминация кредитоспособности группы населения в AI-скоринге.

Потери: сотни миллиардов долларов штрафов и коллективных исков, отток клиентов, колоссальный ущерб репутации.


Как обстоят дела с публичными провалами при использовании ИИ в России?

Тут все тихо?
Потому что все молчат о своих провалах. Большинство российских компаний скрывает статистику, у нас пока нет публичных судебных прецедентов, потери маскируются.
Но мы-то знаем, благодаря вещанию из утюга, что ИИ стремительно и повсеместно распространяется в рабочей среде и быту.

Российские гиганты, такие как Сбер, Яндекс, Газпром и другие активно внедряют и используют ИИ для оптимизации процессов и увеличения прибыли.

Что же касается компаний поменьше, где ИИ пока тестируется и внедряется самими сотрудниками для оптимизации своего личного труда: программисты тестируют свой код или делегируют рутину ИИ, HR внедряет скрининг резюме и другие функции, менеджеры используют модели для анализа или элементарно формируют саммари, логисты оптимизируют маршрут и так далее.

Такие простые и, на первый взгляд, полезные действия могут оказаться небезопасными для компании. В России нет единого закона, который бы полностью регулировал ИИ, однако несколько законов затрагивают его использование и разработку.

Какие законы нарушаются и какие конкретные штрафы за это грозят?
Персональные данные (ФЗ-152 + КоАП 13.11)

Кейс: HR-ИИ хранит резюме с паспортными данными без защиты. Утечка.

Чем грозит: штраф до 1,5 млн ₽ за нарушение и репутационный краш.

 Защита прав потребителей

Кейс: ИИ-консультирует в e-commerce советует «не то», или алгоритм случайно завышает цены отдельным клиентам.

Чем грозит: компенсация + штраф 50% от суммы, массовые возвраты, потеря клиентов.

Трудовое право (ТК РФ + КоАП 5.27)

Кейс: ИИ-рекрутер отказывает кандидатам по возрасту или полу

Чем грозит: штраф до 100 000 ₽ за дискриминацию, иски за моральный вред

Антимонопольное право (ФЗ + УК 178)
Кейс: ИИ-ценообразователь «подстраивается» под конкурентов и создает картель

Чем грозит: оборотный штраф от 1/100 до 15/100 размера выручки (по КоАП РФ), уголовная ответственность для руководства

Информационная безопасность (ФЗ + КоАП 13.12)
Кейс: ИИ-модель открывает доступ к критическим данным.

Чем грозит: 100 000 ₽ (или до 500 000 ₽ за повторное нарушение), возможно, уголовная статья (ст.272 УК РФ), потери миллионы из-за утечек и атак.

Мне кажется, Трудовой Кодекс Российской Федерации никогда еще не выглядел настолько устрашающе
Мне кажется, Трудовой Кодекс Российской Федерации никогда еще не выглядел настолько устрашающе

 

 Курс на суверенитет и новые вызовы

В России существует курс на технологический суверенитет, закрепленный в Национальной стратегии развития искусственного интеллекта до 2030 года, утвержденной Указом Президента от 10 октября 2019 г. № 490, обновленной в 2023г. Для госкомпаний, субъектов критической инфраструктуры, ОПК, компаний, работающих с чувствительными данными или в стратегически важных отраслях использование российского ПО – обязательное требование.

 

 Почему стандартной документации для ИИ недостаточно?

·                 Непрозрачность «Черного ящика»: в отличие от обычного ПО, ИИ-модели не дают объяснения своих решений. Как это документировать?

·                 Динамичность и эволюция: модели постоянно переобучаются, иногда за ними сложно угнаться.

·                 Предвзятость: ИИ может наследовать и усиливать предубеждения.

·                 Этические и социальные последствия: ИИ принимает решения и влияет на людей, а это очень чувствительная сфера взаимодействия.

·                 Юридические и регуляторные риски: отсутствие прямого законодательства об ИИ в РФ.

·                 Финансовые риски: неэффективность, ошибки.

Итак, ИИ уже повсюду, а регламента по работе с ним пока еще нет?

 

 Гайд при документировании ИИ:

1)    Кто отвечает? Создание комитета по AI Governance. Да, если вы всерьез планируете использовать у себя в компании ИИ, то вам понадобится еще такой комитет. Назначаете ответственных: Директор, HRD, CTO, CPO и т.д.).

2)    Какие ИИ используются сотрудниками, оценка рисков и потенциальных выгод.

3)    Разработка внутренней нормативной документации. Сложно – но нужно!
Создайте и утвердите следующие документы:

·                 Политики использования ИИ: четко пропишите, какие ИИ-сервисы разрешены, для каких задач, и какие данные можно в них загружать.

·                 Процедуры внедрения и тестирования ИИ: опишите процессы оценки, выбора, тестирования и утверждения новых ИИ-решений перед их использованием в работе.

·                 Требования к документации ИИ-процессов: установите стандарты для описания того, как ИИ используется в конкретных задачах, кто отвечает за его результаты, как проверяется его корректность.

·                 Правила по работе с данными: четко регламентируйте, какие данные можно передавать ИИ, как обеспечивается их конфиденциальность и безопасность.

·                 Ответственность: кто несет ответственность, за решения принятые с  помощью ИИ.

 4)    Создайте реестр используемых ИИ-решений. Ведите учет всех используемых ИИ-сервисов, их версий, задач, для кого они применяются и ответственных лиц.
Инструменты: Confluence, Jira, Git, специализированные AI Governance платформы.

5)    Проводите регулярные аудиты. Периодически проверяйте соответствие фактического использования ИИ установленным регламентам.

6)    Инвестируйте в обучение: обучайте сотрудников не только использованию ИИ, но и основам информационной безопасности, этики и юридическим аспектам работы с ним.

 

Хотела сгенерировать изображение. Получилось то, что получилось..
Хотела сгенерировать изображение. Получилось то, что получилось..

 Как подойти к документированию ИИ и спокойному сну, пока другие горят в аду:

1) Начинайте вчера! Исправление ошибок на этапе продакшена в 10-20 раз дороже, чем на этапе проектирования.

2) Создайте межфункциональную команду: объедините юристов, технарей, аналитиков, HR. Каждый внесет уникальный взгляд во избежание проблем в будущем.

3) Регулярно обновляйте созданные документа по ИИ

4) Пишите ясно и понятно, документы должны быть понятны даже не специалисту.

5) Определите централизованное хранилище для документов. Все они должны быть легко доступны.

 

И напоследок

Помните Александру, которая добилась восстановления на работе после незаконного увольнения, связанного с частичной передачей ее обязанностей искусственному интеллекту и отсудила 1,5 миллиона ₽ у работодателя?

Менеджменту предстоит многое пересмотреть в процессе интегрирования ИИ, если ваша компания задумалась о замене части функционала на ИИ. И здесь также поможет формирование грамотной документации еще до того, как Вы приняли решение стремительно идти в ногу с прогрессом.

Изначально, компании следовало разработать и задокументировать внутренние политики и регламенты, описывающие процесс внедрения ИИ и его влияния на персонал, включая процессы переквалификации, изменения должностей или сокращение, с учетом требований трудового законодательства.

Компания должна была официально оформить и задокументировать изменения в должностных обязанностях, графике работы и оплате труда сотрудницы, получив ее письменное согласие или пройти предусмотренную ТК РФ процедуру изменения существующих условий труда.

Если внедрение ИИ, действительно, привело к сокращению объема работы или изменению штатного расписания, необходимо было строго следовать всем документационным требованиям и процедурам ТК РФ: заблаговременное уведомление, предложение других должностей, оформление всех необходимых приказов и расчетов при увольнении по сокращению.

 Это наглядный пример необходимости формирования соответствующей документации в компании по ИИ и реальным финансовым потерям.

Читатели Хабра, а у вас в компаниях есть уже документы про использование ИИ или всё держится на энтузиазме сотрудников? ?


Делюсь User Flow в AI: https://t.me/AIHRpro
Присоединяйтесь!

 

 

 

Комментарии (5)


  1. Katasonov
    02.09.2025 17:53

    Не понял, о чем статья? О телеге внизу?


  1. snakes_are_long
    02.09.2025 17:53

    хз насчёт "документирования" предложенного в статье, но

    ИИ считает, что сейчас 2023 год

    это не

    Галлюцинации и ошибки: дезинформация и ложные выводы. Именно с этой ошибкой я и столкнулась

    и ошибку в данном случае допустил пользователь, который не в курсе про knowledge cutoff модели. т.е. это не галлюцинация и даже вовсе не "черный ящик", почему модель дала такой ответ (с ее точки зрения абсолютно верный кстати) - кристально понятно

    так что, что толку от "документации черного ящика", если вы все равно предпочитаете ее не читать и учиться на своих ошибках?

    а дое.. кхм, придраться можно и к столбу - "какого ты тут стоишь"


    1. veraalex Автор
      02.09.2025 17:53

      Спасибо, отредактировала.

      Если работаете в компании, Вы идете по пути документирования ИИ организованно?


      1. Ilusha
        02.09.2025 17:53

        У меня - да, но с позиции безопасности.

        А использование лежит на инженерах. Вы же не инженер? Вы HR. Кмк, вы решили написать статью в области, в которой полностью не разбираетесь


  1. pol_pot
    02.09.2025 17:53

    ИИ стоит больших денег, надо арендовать суперкомпьютер для их работы. А люди просят дать бесплатно. Это приводит к тому что перепродавцы прибегают к нехорошим приёмам, берут самые дешевые модели и не подключают к ним даже калькулятор. Причем большинство так делает даже после перехода на платные тарифы.

    Нормальные роботы без проблем тебе и дату скажут и сложные расчеты сделают.