Наша команда на протяжении более пяти лет разрабатывает продукты для здравоохранения с использованием технологий искусственного интеллекта, а точнее, мы учим нейронные сети находить на медицинских снимках патологии, которые зачастую едва различимы для человеческого глаза. Мы много общаемся с журналистами и обнаружили, что зачастую они даже примерно не понимают, кто такой этот искусственный интеллект. Это нормально, они и не должны - у каждого своя работа. А мы решили просто и понятно рассказать, что такое ИИ, как мы его обучаем и что получаем на выходе. 

Итак, вот самые забавные ответы на вопрос “что такое ИИ”, с которыми мы сталкивались за годы работы:

  • большая железка вроде адронного коллайдера, где протекают все процессы 

  • чип, вживленный в медицинские аппараты, который сразу сам ставит диагноз пациенту 

  • реальная угроза, которая отправит врачей на вольные хлеба 

  • что-то, что скоро уничтожит человечество

Нам не нравится термин искусственный интеллект, мы чаще говорим машинный интеллект и связанное с ним Машинное обучение. Лучшее, на наш взгляд, определение машинного обучения дал Артур Сэмюэл: “Машинное обучение - это процесс, в результате которого компьютеры способны показать поведение, которое в них не было явно запрограммировано”.

Как мы научили искусственный интеллект находить патологии? 

Идея была такая: если врач может найти например рак легкого на КТ снимке, но при этом есть риски того, что врач сможет пропустить признаки онкологии на ранних стадиях, то искусственный интеллект также сможет найти признаки онкологии, но с минимизацией рисков пропуска. Но на этом пути много трудностей: например, мы вынуждены учить искусственный интеллект в условиях “бедности” данных - их не так много, как хотелось бы. 

К моменту непосредственного обучения модели(=нейросети) команда проводит большое бизнес-исследование: выясняет, в какой именно модели нуждается рынок. Например, есть исследование, которое показывает, что рентгенологи пропускают онкологию на ранних стадиях в более чем 50% случаев*. Очевидно, здесь есть запрос на помощника для врача, который снижал бы вероятность пропуска. 

Мы определили модальность (тип медицинского оборудования) и патологию, с которой будем работать. После этого начинается длительная и сложная работа с разметкой снимков (аннотация данных). Медицинские специалисты вручную размечают каждый пиксель на снимке и отмечают, на каком из них присутствует патология. 

Вот пример снимка, который "разметил" искусственный интеллект и "подсветил" потенциально проблемные области
Вот пример снимка, который "разметил" искусственный интеллект и "подсветил" потенциально проблемные области

Теперь можно приступать к обучению нашей модели. Здесь есть два варианта:

  • Обучение с учителем - распространенный классический вариант работы с ИИ. Мы показываем модели исходное изображение - например, КТ органов грудной клетки - и затем показываем, что хотим получить на выходе (“размеченный” снимок, в котором определена область возможной патологии). Далее смотрим, что выдает модель, насколько предсказание не соответствует исходной разметке. И “показываем” эту ошибку модели, чтобы она скорректировала свою работу.

Этот метод хорошо работает, когда данных много. У нас обычно медицинских изображений не хватает, поэтому приходится идти на хитрости. Например, прибегать к аугментации - мы “скармливаем” модели снимок, а потом этот же снимок немного изменяем (меняем контрастность или поворачиваем) и еще раз скармливаем. Так мы учим ее работать с разными типами данных. 

  • Второй вариант - обучение с частичным привлечением учителя, довольно популярная история. Обучение проводится в два этапа: сначала модели отдаются самые разные необработанные медицинские снимки, чтобы нейронка могла сформировать пространство признаков и понять, где, условно, КТ органов грудной клетки, а где - маммография. И второй шаг - спецификация модели, мы учим ее работать с определенной патологией. Для этого скармливаем уже размеченные снимки. У такого варианта обучения есть два плюса: для него нужно меньше размеченных данных, это подход занимает намного меньше времени. 

После того, как модель построена, мы даем ей данные, которые она никогда не видела, из другого источника. Искусственный интеллект очень чувствителен к источнику данных: вплоть до того, на каком аппарате и в какой клинике сделано исследование - все это может повлиять на качество модели. И чтобы быть уверенным, что мы не обучили ИИ работать только с одним видом данных, в качества шага валидации (проверки) мы скармливаем снимки, которые она никогда раньше не видела.  

Звучит несложно - значит кто угодно может создать такую модель? 

Да, ведь готовые нейронные сети есть в открытом доступе. Их можно “доучить” на медицинском датасете из сети. Модель можно обучить на датасете из сети. Вопрос в качестве этой модели - скорей всего она “посыпется” при первой же работе в полях, то есть точность будет гораздо хуже, чем при работе с эталонными датасетами. В интернете собраны датасеты с очевидными патологиям, простыми случаями, качественными снимками. Но в реальности КТ аппарат может быть не откалиброван, пациент дернулся во время снимка и еще много всяких “но”, к которым модель тоже нужно готовить - это годы работы. Так и формируется один из главных критериев качества - робастность нейросети. 

Кстати, здесь кроется большая боль рынка, и не только российского. Появляются компании, которые на скорую руку получили первую модель и побежали в ближайшую больницу тестировать ее. Плохие результаты рождают плохое отношение врачей. Они и так в меру консервативны, а тут еще и вживую видят, что технологии только усложняют работу врача.

Пример изображения с "артефактом" - слева пример с сильными шумами. Такое случается, это тоже надо показать модели. Но такие сложные случаи не найти в эталонных датасетах в сети.
Пример изображения с "артефактом" - слева пример с сильными шумами. Такое случается, это тоже надо показать модели. Но такие сложные случаи не найти в эталонных датасетах в сети.

Почему искусственный интеллект ошибается и можно ли это исправить? 

Есть один публичный проект ImageNet - там собрано больше 10 млн изображений, разбитых на тысячи классов. Все это предназначено для тестирования и совершенствования алгоритмов машинного зрения. Много лет подряд на базе площадки проводился конкурс: разработчики алгоритмов соревновались в точности определения картинки с живыми людьми.

До 2016 года процент человеческих ошибок на этом датасете составлял 5.1%. И вот в 2016 году нейросеть побила рекорд человека - она допустила 4% ошибок. Но это все еще 4% даже в такой простой задаче. Это и есть первый ответ на вопрос “Почему ИИ ошибается?”. Потому что ошибается и человек. 

Вторая причина - мы находимся в особой зоне медицинского сектора, где не существует “золотого стандарта” разметки медицинских изображений - каждый рентгенолог делает работу по-своему. Отсюда такая вариативность в разметке и чтении результатов работы искусственного интеллекта. В теории мы можем взять одного рентгенолога, попросить его разметить миллион медицинских снимков, на их основе обучить нейросеть и показать результат этому же радиологу - только так мы достигнем стопроцентную точность. Но другой радиолог уже будет спорить с результатами работы нейросети. 

Отсюда ответ на вопрос “Можно ли сделать совершенную нейросеть?”: в обозримом будущем - нет. 

Сейчас искусственный интеллект может больше, чем живой врач? 

ИИ повторяет работу врача: находит подозрительные области на снимке и описывает их (объем, плотность). Из реальной практики: за время пандемии КТ-исследование грудной клетки сделал буквально весь мир. Тогда врачи в режиме высокого стресса отсматривали эти снимки, чтобы определить степень поражения легкого, характерные для COVID-19 - другие патологии оставались вне зоны внимания специалистов. И вот сейчас идут разговоры о том, чтобы весь этот объем данных пересмотреть, найти признаки ранней онкологии легкого. Ведь вряд ли пациенты сами придут проверяться в ближайшее время. Но пересмотреть такой объем данных усилиями врачей невозможно, вот здесь и пригодится искусственный интеллект, который сам проанализирует исследования. Врачам останется только отсмотреть небольшой процент снимков, в которых ИИ обнаружил признаки патологии. Такой проект мы провели, например, в Нижнем Новгороде и Санкт-Петербурге - там искусственный интеллект нашел пациентов с раком легкого, которые раньше не состояли на учете в онкодиспансере (наличие онкологии подтвердили врачи).

Важно: ИИ может найти “тревожную” область на снимке. Но все равно исследование пройдет повторную верификацию живым врачом. Диагноз и план лечения также выбирает врач. Поэтому разговоры о том, что искусственный интеллект оставит рентгенологов без работы, слишком преждевременны. В обозримом будущем они продолжат страховать, подсказывать и помогать врачам. 

*По данным исследования, проведенного в рамках Международной программы ранней диагностики рака легких International Early Lung Cancer Action Program (I-ELCAP)

Комментарии (15)


  1. DistortNeo
    13.02.2022 18:35
    +1

    Из реальной практики: за время пандемии КТ-исследование грудной клетки сделал буквально весь мир.

    И результат получился такой:

    Hundreds of AI tools have been built to catch covid. None of them helped.

    https://www.technologyreview.com/2021/07/30/1030329/machine-learning-ai-failed-covid-hospital-diagnosis-pandemic/

    Если изучать глубже, то многие нейросети научились определять риск тяжёлого течения ковида не по состоянию лёгких на снимке, а по косвенным признакам, например:

    • Каждый аппарат снимает немного по-своему, подписи разные. В итоге нейросеть научилась определять больницу, где сделан снимок. Ну а так как лёгких и тяжёлых пациентов обычно возят в разные больницы, то это и оказалось решающим фактором.

    • Нейросеть научилась определять, лёжа или стоя сделан снимок (по деформации лёгких). А дальше всё очевидно: если пациент лежат, значит, у него тяжёлое течение.


    1. uhf
      13.02.2022 20:47
      +3

      Это давно известная проблема, когда нейросеть находит корреляцию к ложным признакам. Решается правильной подготовкой обучающей выборки, и рядом приемов при обучении.
      Задача сама по себе несложная, чисто на распознавание образов — никакого абстрактного или логического мышления тут не требуется. Если человек может диагностировать ковид по снимку — значит и ИИ сможет не хуже.


      1. YNK
        14.02.2022 15:50

        По снимку устанавливается только специфичность воспаления легких, но этого мало для диагностики  COVID-19, требуются другие лабораторные исследования, установление клинической картины, оценка эпиданамнеза ... логика и семиотика диагноза ещё долго останутся атрибутами врачебного клинического мышления.

        И самое главное, врач всегда остается ответственным за постановку диагноза.


    1. black1277
      14.02.2022 00:26

      - Этого везите в морг!

      - А может меня все же в операционную?

      - Программа решила что вы труп!!! Значит в морг!

      Вспомнился анекдот соответствующий...


  1. AlexVist
    13.02.2022 18:43

    Всегда встает вопрос зачем? Мы же не считаем анализатор, который выдал цыфры ИИ и заменой врача. Хотя, цифры очень часто говорят о патологии.

    Научить ИИ? А зачем?! Надо научить врача. Это куда сложнее и дольше. Ведь ваш пресловутый ИИ вдруг исчезнет, если выдернуть вилку из розетки. А обученный врач и без ничего сможет прослушать, оценить, принять меры. Роль ИИ тем больше превозносят, чем больше отдаляют в обучении будущих врачей от медицины. Они что теперь делают? По вебинарам учатся и наблюдают операции онлайн? Не дай бог потом к такому врачу под нож? Потому что это будет не на операцию, а именно под нож!


    1. DistortNeo
      13.02.2022 18:54
      +2

      ИИ не должен заменять врача, он должен стать лучше врача. ИИ способен обработать огромные массивы данных, которые не способны обработать врачи, например, проанализировать всю медицинскую историю человека с рождения.


    1. vya
      13.02.2022 20:15
      +2

      Не давай врачу воздуха и через 5 минут врач ничего не сможет сделать.


      1. ewgeniy2004
        14.02.2022 10:06
        +1

        Не давай пациенту воздуха и через 5 минут он не будет нуждаться в лечении.


    1. muove
      13.02.2022 22:55
      +2

      Одно из применений - помочь врачу, исключить ошибки - ведь люди устают или просто бывают не очень способные. Научить врача очень долго и дорого и если с ним что нибудь случиться то нового врача нужно будет кому то учить опять. Научить машину означает что этот опыт уже не пропадет. К сожалению не все так гладко как в рекламных проспектах AI и ML но все таки уже много чего возможно определить автоматичеки - найти зону которую врачу надо посмотреть детальнее например или затребовать дополнительные анализы если пациент в зоне риска по каким то показателям. Врач физически не модет работать с пациентом так индивидуально как машина к сожалению.


  1. leventov
    13.02.2022 20:38

    реальная угроза, которая отправит врачей на вольные хлеба 

    Во-первых, почему этот ответ "забавен"? Он верен. Во-вторых, непонятно, почему и кому "угроза", хорошо ведь.


    1. user5239
      14.02.2022 10:26
      +1

      Все мнения о самостоятельности ИИ забавны, если задаваться вопросом: кого персонально посадят, если "ИИ" примет ошибочное решение, которое приведёт к существенным негативным последствиям.


      1. leventov
        15.02.2022 01:25

        Во-первых, врачей не сажают за ошибки почти никогда, во-вторых, зачем вам чтобы кого-то посадили? Вам важен средний процент ошибок, который у машин скоро будет всегда существенно ниже, чем у человека-врача, сколько бы у последнего не было опыта (как сейчас даже у самого многоопытного гроссмейстера нет никаких шансов против шахматного компьютера). В третих, мы тут даже не говорим о AI-политике или даже AI-водителе, у которых возникают моральные дилеммы, у врачей почти всегда все довольно однозначно (сам диагноз может быть принципиально неоднозначен на определенном уровне диагностики, но это исключительно вопрос вероятностей). В-последних, вопрос ответственности даже за остаточные ошибки AI-врачей должны решаться через страхование (не страхование здоровья пациента, а именно страхование от ошибки), зачем вам посадки-то.


  1. Barsv
    13.02.2022 22:43
    +2

    Учитывая тотальный дефицит врачей и особенно рентгенологов, программы на ИИ будут актуальны, но не забывайте главного - любое дополнительное исследование, это всего лишь дополнительное исследование, диагноз врач ставит учитывая разную информацию...

    Проблема действительно в том - как за наиболее короткий срок врач этому научился, ведь "скармливая терабайты" машине, нужно что "скармливать" и врачу для обучения...

    Но у машин нет того, что есть у человека - это способность воспринимать неподготовленную по шаблону информацию, которая и будет всегда отличать его от машин...

    Поэтому без работы не останутся ни врачи, ни девелоперы ИИ...


  1. aegoroff
    14.02.2022 08:08
    +1

    Диагностику заболеваний ИИ со временем конечно сильно упростит и ускорит, но никак не лечение - тут все еще человек будет все время (я думаю) нужен. Кроме того, не стоит забывать что медицина, это не только про диагностику и лечение, но и про ответственность - кому предьявлять в случае ошибки? Вряд ли компании, делающие ИИ пойдут на риск уголовной ответственности за ошибки их изделий


  1. alexanderturchin
    14.02.2022 14:40
    +1

    В медицине есть достаточно возможностей как для применения process-driven подходов (RPA), так и data-driven (ML). Автоматизация рутины и поддержка принятия решений.