Эпиграф: Это хуже чем преступление. Это ошибка

Искусственный интеллект становится неотъемлемой частью современной жизни. Масштаб и скорость экспансии в различные сферы нашей жизни столь высокие (некоторые даже просят приостановить, что можно смело предположить будущее, где ИИ будет везде.

При этом согласно дорожной карте по развитию общего искусственного интеллекта от OpenAI, состоящей из 5 уровней, мы сейчас находимся на 1 уровне, когда ИИ только советует, а решение и ответственность остаётся за человеком. На следующем уровне он сможет рассуждать на уровне и вместо человека, а на третьем сможет действовать.

Скачок развития больших языковых моделей и нейросетей (технологий в основе ИИ) привёл к тому, что ИИ уже сейчас может говорить, рисовать картины, водить машину и даже пылесосить и мыть полы. Даже дети уже оживляют фотографии с помощью нейросетей.

Справедливо будет сказать, что все мы, согласно опросу ВЦИОМ, возлагаем на него большие надежды:

1. уменьшим затраты времени на рутину

2. повысим производительность труда

3. улучшим качество жизни

4. вырастет уровень безопасности

5. победит мировая революция

Одна из важных отраслей для применения ИИ - Здравоохранение.

В России принята Национальная стратегия в области искусственного интеллекта до 2030 года, в соответствии с которой, должны быть: "сняты отдельные административно-правовые барьеры, препятствовавшие внедрению технологий искусственного интеллекта в отдельных областях, включая здравоохранение, транспорт, государственно-частное партнёрство и другие области;"

Также уже есть ГОСТ Р 59525—2021 Интеллектуальные методы обработки, где более полно приведены типичные случаи использования искусственного интеллекта в различных специальностях медицины.

Цитата из документа: "В связи со сложностью решаемых в здравоохранении задач применение методов интеллектуальной обработки данных является одним из основных направлений повышения качества, уровня и доступности оказания медицинских услуг."

Из всего вышесказанного можно предположить, что какие-то задачи в лечении пациентов в скором времени переложат на ИИ и разрешить ему нас лечить.

Без клятвы Гиппократа. Может ли робот заменить врача, и кто ответит за его ошибки?
Без клятвы Гиппократа. Может ли робот заменить врача, и кто ответит за его ошибки?

Не если, а когда это произойдёт, то хотелось бы избежать, чтобы ошибки и проблемы в ИИ повлияли на качество нашего лечения, как, например, уже известные галлюцинации (можно представить, как ИИ галлюцинировал, что у вас 6 пальцев и нужна операция по удалению лишнего пальца).

Тогда немного разберёмся какие составляющие нужны для нормального функционирования ИИ:
1. технологии и алгоритмы
2. компьютерные мощности (ЦОДы)
3. данные

Все эти составляющие у нас есть и активно развиваются, но разберёмся подробнее с данными. Сейчас данные создаются повсюду, но какие данные нужны для качественной работы ИИ?

Так вот и спросим ИИ в лице YandexGPT: "Какие данные нужны для Искусственного интеллекта в медицине?" и получим следующий набор понятных требований (можете сами спросить, но в целом это очевидные требования со слабой зависимостью от области применения), который привожу здесь в кратком виде:
1. Объём данных;
2. Разнообразие данных
3. Качество данных
4. Метки и аннотации
5. Структура данных
6. Доступность данных
7. Актуальность данных
8. Отсутствие предвзятости
9. Конфиденциальность и безопасность

Отметим, что здравоохранение - хороший кандидат на помощь искусственного интеллекта:

Понятно, почему важна актуальность данных, но возникает неудобный вопрос: качественны ли медицинские данные (замечу что это наши с вами данные): анамнезы, данные обследований, приёмов, назначений, процедур, хирургических вмешательств и так далее.

А теперь мысленно перенесёмся в "кузницу медицинских данных", где все мы бывали, в медицинский кабинет. Здесь довольно часто мы сможем услышать следующие слова: "напишем так для страховой", а под этим понимается, что для выполнения правил страховой компании и одновременного получения возможности помочь пациенту (то есть нам с вами) мы пишем то чего у нас нет или, наоборот, не пишем что есть.

Что это значит с точки зрения будущего применения ИИ в медицине? А то что создаваемые, собираемые и в дальнейшем используемые для (до)обучения данные не являются качественными. На основе этих некачественных данных ИИ будет предлагать некачественные рекомендации по лечению, таким образом, при хорошем варианте потраченные усилия будут бесполезны, а при плохом некорректные рекомендации будут приняты и принесут реальный вред здоровью или даже жизни пациента.

Эту проблему можно попробовать решить с точки зрения организации работы в здравоохранении и страховании: перейти частично на профилактическое лечение, чтобы не было необходимости преувеличивать критичность своего состояния. В это статье я пока не об этом, а о том, что совокупность факторов приводит нас к достаточно масштабной будущей проблеме в применении ИИ.

Теперь давайте соберём все факторы вместе:
1. ИИ будет применяться в Здравоохранении
2. Довольно скоро он может начать не только советовать врачу, но и действовать или советовать напрямую пациенту
3. Данные пациента на основе которых он будет давать свои рекомендации некачественны и постоянно создаются новые некачественные данные

Если у вас возникло ощущение, что я сгущаю краски, то хочу вам напомнить про одну из рассматриваемых проблем: "Сервис прогнозирования индивидуального течения онкологических заболеваний" где ошибка буквально может стоить пациенту жизни.

Конечно, это пока только потенциальная проблема и некоторые учёные уже говорят о необходимости доверять ИИ для использования и действуют в этом направлении, а наши с вами соотечественники справедливо не до конца доверяют ИИ, согласно того же опроса ВЦИОМ.

В качестве заключения хочу сказать что если мы не хотим в ближайшем будущем вместо помощи получить дополнительные проблемы от ИИ, то надо уже сейчас обратить на эту проблему внимание, оценить её и подумать о возможных вариантах решения.

Я уже начал думать, присоединяйтесь!

Комментарии (1)


  1. MrZorg
    03.06.2025 09:44

    Самое большое препятствие, и оно им же и останется это как раз "сняты отдельные административно-правовые барьеры.." они не будут сняты быстро. За этим стоит множество страхов и непонимания, - государства, лиц принимающих решения на разных уровнях, профсообщества и даже пациентов. Проблема внедрения ИИ не только в частично фейковых данных для страховых. Кстати прошли мимо факта, что скорее страховые начнут применять ИИ для экспертизы случаев, причем в большем объеме, чем сейчас эксперт, и это их прямая выгода и разработка такого решения существенно проще, чем для клиник.

    Суть проблемы же в СТРАХЕ. По разным поводам. Всегда будут рассматривать крайние случаи, чтобы не разрешить. И крайние не только исходя из качества диагностики, что справедливо, а, например, с точки зрения дохода. Будет ли пациент в коммерческой медицине платить равные суммы просто врачу или врачу-посреднику между пациентом и ИИ ? И т.д. и т.п.. Тема существенно больше чем на одну статью