«Машине надо принять решение кем пожертвовать — тем, кто внутри автомобиля, или тем, кто бросился под колёса», — профессор кафедры информационных технологий СПбГУ Татьяна Гаврилова объясняет, какие алгоритмы лежат в основе искусственного интеллекта и с какими трудностями сталкиваются его разработчики.

От живого мозга до искусственного интеллекта


За последние пять лет вокруг искусственного интеллекта поднялась большая волна публикаций, выступлений, страхов, а также хайпа — обсуждений, шумихи и агрессивной рекламы. Это свидетельствует в первую очередь о спекуляции и профанации. Новостные порталы наперебой рассказывают, как нейронная сеть обучилась очередному потрясающему трюку. Следует понимать, что искусственная нейронная сеть — это не модель мозга. Нейрофизиологи отмечают, что механизм работы мозга до сих пор слабо изучен, а его модель далека от математической формализации.

В 2013 году Европейская комиссия оценила научно-исследовательский проект The Human Brain Project и выделила на исследования грант на сумму в один миллиард долларов. Цель этого проекта — создать полнофункциональную компьютерную модель человеческого мозга. Представить всю многосложность работы мозга: как нейроны соединяются и взаимодействуют между собой, как формируются воспоминания, и принимаются решения. В 2019 году на Европейской конференции с докладом выступил нейробиолог, директор и основатель The Human Brain Project Генри Маркрам. Он вместе с командой показывал изображения мозга, подсвеченные на томографе с разных сторон, подчёркивая, что, чем больше они забирались вглубь мозга, тем меньше становилось понятно, как он работает. Всё это время они двигались по пути миниатюризации, но, очевидно, что нужна макромодель мозга. Здесь можно провести аналогию с известной метафорой: сколько бы муравей ни ползал внутри телевизора, он всё равно не поймёт, что это за устройство.

Чат-боты говорят, но не понимают


Первую разговорную программу «Элиза» разработали ещё в 60-х. Её работа была похожа на сеанс психотерапии. Примерный диалог мог выглядеть следующим образом:
— Здравствуйте. Как вы себя чувствуете?
— Голова болит.
— Как часто это происходит?
— Каждый раз, как с матерью поговорю.
— У вас проблемы с мамой. Расскажите об этом подробней.

Программа содержит набор заготовок. Выявляет ключевое слово в каждом предложении и создает иллюзию разговора, без какого-либо осмысления вообще. Таким образом Элиза могла умело поддерживать беседу на протяжении нескольких часов, производя на людей хорошее впечатление.

Сегодняшняя Алиса от «Яндекса» — эта та же самая Элиза, с подключённой платформой сервисов и гораздо более богатой лексикой. Вся интеллектуальность подобных чат-ботов сводится к переобучению. Если размечать для них ответы плохие, непригодные, то она будет их в дальнейшем отсеивать, а хорошие, подходящие — оставлять. Настоящая разумность программы, её способность не просто определять, что изображено на картинке или преобразовывать устную речь в текст, но понимать значение информации и мыслить, проявится только при подключении к базе знаний. Это некое понимание о мироустройстве. Вот этого пока не может никакая программа. Искусственный интеллект, работающий с базой знаний называется Symbolic AI (символический ИИ).

Сейчас активно используются два направления: искусственная нейронная сеть и машинное обучение. Их развитием занимаются не в научных лабораториях под руководством учёных, а в IT-компаниях. Программисты и разработчики искусственных нейронных сетей признают, что ничего мыслящего, кроме мозга нет. Поэтому если они хотят создать интеллектуальную систему, то вынуждены моделировать работу мозга, потому что больше нечего. Но кардинальный прорыв будет у тех, кто сумеет скрестить модели представления знаний и машинного обучения.
К слову, некоторые компании уже активно используют роботов при трудоустройстве на работу. Они особенно хороши на массовых отборах, куда поступает более 1000 резюме. Робот анализирует анкеты и оценивает кандидатов на релевантность, но окончательное решение всё равно принимает человек. Учёные Технологического института Джорджии выяснили, в каком случае люди охотно доверяют роботу. Это происходит, если им заранее сообщить, что он предназначен для выполнения определённой задачи. Такие роботы также проводят выходные интервью. Люди ведут с машиной более откровенный диалог о причинах увольнения и о том, с какими трудностями сталкивались в процессе работы. Таким образом роботы собирают очень хорошую, а главное весомую, обратную связь. Кроме того, люди боятся врать роботу. Им кажется, что у машин больше информации. Например, два главных вопроса для отбора кладовщиков были следующими: есть ли у вас судимость и употребляете ли вы алкоголь? И люди без утайки отвечали на эти вопросы роботу.

Что не так с беспилотниками


Современный беспилотный транспорт несовершенен и имеет ряд недостатков. Самый явный кроется в машинном зрении. Вопрос даже не в технической сфере, проблема машинного зрения не решена концептуально. Камеры и датчики обрабатывают с большой скоростью определённые сигналы, в результате чего в памяти компьютера образуются двоичные картины, которые надо интерпретировать. В этом и заключается основное затруднение. Если, к примеру, дорогу переходит пешеход, то любой водитель легко это считает. Не потому, что у него зрение лучше, чем у камеры беспилотника, а потому, что у водителя в сознании есть модель движущегося человека. Моделей зрения пока не существует. Неизвестно, как человек обрабатывает визуальную информацию. Сейчас проектируют моделирующие устройства, которые позволяют с некоторой степенью уверенности распознавать целый ряд объектов.

Представьте, что вы попросили человека, ничего не понимающего в автомобилях, принести поперечный рычаг. Очевидно, что он не сможет этого сделать. Потому что он не автомеханик, и у него нет в голове модели рычага. Но если сказать, что это железяка изогнутой формы — человек принесёт. Каждый знает, что такое «железяка», и понимает, как выглядит «изогнутая форма». Робот даже после пояснений не справится. Для этого его нужно обучить, закладывая понятия обо всех этих объектах под разными углами и с разной степенью доступа.

Находясь в офисе, человеку не обязательно отодвигать стул от стола, чтобы идентифицировать предмет. Достаточно взглянуть на спинку. Только потому, что у людей есть полная модель стула, и мы по одной его части, воссоздаем целое. Мы знаем, что стул — неотъемлемый атрибут офисного интерьера. Поэтому из огромного подбора объектов, которых можно воссоздать по этому фрагменту — выбираем один. Универсальных программ, которые могли бы делать подобное — нет. Никакой искусственный интеллект не содержит сейчас модели мира и знаний, позволяющих ему однозначно толковать картину, которую он видит.

Допустим, где-то за кустами спрятался человек, готовый выбежать на дорогу. Часть его тела скрыта за густой листвой. Видимой части будет недостаточно, для того чтобы машина смогла считать это как потенциальную опасность. Более того, если вы увидите спрятавшегося за кустами слона, то, вероятно, решите, что это человек в маске слона, потому что в нашем районе слоны не водятся. Уж этих знаний у машины точно нет.

Проблема интерпретаций приближается к своему разрешению, во всяком случае прогресс есть. В алгоритм машинного обучения на огромных выборках можно поместить 100 автомобилей, и ясно, что 101, даже другой марки, с большой вероятностью, программа распознает правильно. Хотя в ней не будет заложен конкретно этот автомобиль. Стоит также отметить, что для обучения программы важно соблюдать многообразие подбора. Если, например, вы будете учить программу только на седанах, а потом подъедет кабриолет, то она, наверняка, его не распознает, потому что в выборке вообще не было машин без крыши.

Вторая сложность представляет собой этическую дилемму, в которой машине предстоит сделать моральный выбор. Допустим, беспилотный транспорт везёт пассажира. Навстречу выскочил человек, и единственный способ избежать столкновения — это въехать в рядом стоящий столб. Машине надо принять решение кем пожертвовать — тем, кто внутри автомобиля, или тем, кто бросился под колёса. Это совершенно неразрешимая для неё задача. Уже имеются первые аварии и даже жертвы. В Аризоне беспилотный внедорожник, принадлежащий компании Uber, сбил насмерть пешехода. Их вина в том, что они выпустили на трассу сырой, не прошедший все тесты, алгоритм.

Проблема беспилотников — это в первую очередь нехватка базовых представлений о мире. Люди всегда принимают решения в контексте. Никакой искусственный интеллект не имеет полную картину мира, какую имеет человек к 18 годам. По этой причине водительские удостоверения выдают именно с 18 лет [в России], хотя зрение отлично сформировано уже и в 14. Не достигнув совершеннолетия, человек не может принимать взвешенные решения, в том числе этического и эмоционального характера.

Мы имеем дело с очень молодыми и незрелыми алгоритмами, которые требуют доработки. Они способны исправно работать, но исключительно под контролем человека.

Искусственный интеллект на смену полиграфа


На рынке искусственного интеллекта ведущие мировые компании активно инвестируют в сферу эмоциональных вычислений. Такая технология выявляет самые незаметные изменения в мимике. Программа выбирает определённое количество точек на лице и сравнивает с базой фотографий, на которых эмоция уже распознана.

Компания Microsoft заявила, что у них есть подобный алгоритм, но она не даст его в распоряжение правительства. Это очень опасный инструмент, который можно использовать против человека. Представьте, что вы входите в кабинет к начальнику, а он видит, что вы его ненавидите и думаете о нём плохо. Возникает серьёзная этическая проблема.

Аналогичных программ «распознавалок» будет ещё очень много. Прекрасных, замечательных в том числе. Они будут полезны, особенно в медицине. Машины уже сейчас помогают врачам диагностировать болезни. Допустим, американская программа IBM Watson ставит диагнозы по анализам лучше, чем некоторые начинающие врачи. В качестве обучающей выборки в неё было заложено шесть тысяч историй болезней. Это титанический труд и, безусловно, огромные деньги.

Умеет ли машина сочинять


Машина не в силах порождать нечто качественно новое. Оригинальные тексты песен, стихосложения, музыкальные композиции — это всё основано на принципе пермутации, или, проще говоря, перестановки. Что касается поэзии, то там алгоритм действий следующий: программа находит общие моменты и определённые сочетания. Берёт ключевые слова, добавляет к ним слова других авторов и перекручивает под нужную ритмику. Русский язык сложный, но если не заботиться о рифме, то белый стих «сочинить» можно.

С музыкой всё еще проще. Программа определяет какие аккорды наиболее характерны для того или иного исполнителя и использует их же, но в иной последовательности. В основе этого «творчества» лежит перетасовка звукоряда и отбрасывание откровенной какофонии.
Были программы, которые сочиняли народные сказки. Для этого провели анализ сценариев, использовав книгу Владимира Проппа «Морфология сказки». Оказалось, что модель развития событий включает в себя несколько очевидных элементов: в сказках всегда есть положительный и отрицательный герои. Также обязательно присутствует даритель, дорога, препятствие и в конце счастливый конец. Отличительной особенностью таких сказок была эклектика. Программа комбинировала героев и их действия, рассказывая, например, про Ивана-дурака, который борется со Змеем Горынычем. Безусловным минусом являлся бедный язык повествования. Слушателям становилось скучно. Живой сказитель всегда юмора добавит, а где-то занятных речевых оборотов. По этой же причине программа не может переводить на другие языки метафоры или фразеологизмы. Онлайн-переводчики работают с большими объёмами информации. Стоит отметить, что качество их перевода за последние годы заметно улучшилось. Теперь они не переводят каждое слово в отдельности, как делали это раньше, а ищут целое предложение где-либо в текстах. Самая большая трудность возникает с семантикой. Для этого нужна база знаний, чтобы понимать смысл выражений. К примеру: цыплята готовы к обеду. Неясно, как правильно перевести эту фразу, если не знаешь, где человек находится в этот момент — на птицеферме (Chickens are ready for dinner) или в ресторане (Chickens are prepared for lunch).

Без познаний человека никакая интеллектуальная деятельность невозможна. Знание нельзя ничем заменить. Вопрос в том, как эти умения оцифровать. Как превратить опыт в какую-то осмысленную схему, которой можно было бы делиться с машиной.

Комментарии (34)


  1. hjornson
    29.10.2019 09:21

    Компания Microsoft заявила, что у них есть подобный алгоритм, но она не даст его в распоряжение правительства.


    Хорошая шутка, смешно.


  1. MooNDeaR
    29.10.2019 10:50

    Вторая сложность представляет собой этическую дилемму, в которой машине предстоит сделать моральный выбор. Допустим, беспилотный транспорт везёт пассажира. Навстречу выскочил человек, и единственный способ избежать столкновения — это въехать в рядом стоящий столб.

    Нет никакой дилеммы. Если в инструкции к авто будет что-нибудь вроде: "в таких-то условиях автомобиль убьёт вас, а не пешехода", — никто не купит такой автомобиль. Спасать экипаж — единственная опция для робомобиля.


    1. tas
      29.10.2019 11:22
      +1

      Перво наперво нужно понять, что речь не идет о ситуации, когда автомобиль сбивает человека на пешеходном переходе или подобной. Данные ситуации жестко описаны в алгоритмах автопилота, который заблаговременно снизит скорость и будет готов пропустить пешехода. Речь о ситуации, которая спровоцирована пешеходом — нарушителем дорожного движения.

      В этом случае автомобиль (участник дорожного движения) должен попытаться спасти жизнь человека (нарушителя). НО делать это не подвергая опасности жизни пассажиров — в рамках ПДД. При описании этой дилемы никто не вспоминает, что при попытке спасти жизнь нарушителя резким маневром могут пострадать третьи лица, которые нарушителями не являлись и спокойно стояли разговаривали у столба, возможно сливаясь с ним, затрудняя распознавание.

      Таким образом здесь нет дилемы и никогда не было — учите ПДД.


    1. worldmind
      29.10.2019 16:04

      И не только по этому, полно причин почему дилеммы нет.


  1. alexxisr
    29.10.2019 10:51

    доколе будут спрашивать про этику — убивать пассажиров или пешеходов?
    Я например низачто не сяду в автомобиль, который по умолчанию будет убивать меня, спасая каких-то там выскочивших из кустов незнакомцев.
    К тому же ПДД в РФ по крайней мере явно пишут — «при появлении опасности впереди следует тормозить всем чем возможно, не меняя полосы движения», а значит ни про какой столб речи не должно быть.


    1. sergio_nsk
      29.10.2019 19:58

      Нет такого в ПДД РФ. Это какое-то повальное заблуждение. Правила не запрещают маневрировать.


      10.1… При возникновении опасности для движения, которую водитель в состоянии обнаружить, он должен принять возможные меры к снижению скорости вплоть до остановки транспортного средства.


    1. Druu
      01.11.2019 03:22

      Я например низачто не сяду в автомобиль, который по умолчанию будет убивать меня, спасая каких-то там выскочивших из кустов незнакомцев.

      Вас никто и не заставляет, собственно. Другие сядут.


  1. eagleivg
    29.10.2019 12:49

    Есть и другая этическая и юридическая проблема — если купленный вами робомобиль собьет человека, кого посадят? Вас? Программиста ИИ? Того, кто готовил обучающую выборку для ИИ? Руководителя IT-отдела? Директора компании-производителя? За смерть человека в результате ДТП кто-то должен нести ответственность, но кто это будет — совершенно неясно. Точнее, наиболее вероятно, суды будут считать ответственными владельцев — и юридически, и экономически это самое простое.
    Вот только зачем мне такая машина, на поведение автопилота которой я повлиять не могу, но несу за это самое поведение ответственность?!?


    1. A1exXx
      29.10.2019 13:17

      мне кажется в первую очередь такие машины найдут себя в такси или на рейсовых маршрутах. Для себя действительно смысла покупать на начальном этапе развития автопилотов мало, хотя на «хайпе» брать будут я думаю…
      Правовую базу будут подгонять. Но пока, за вред причиненный средством повышенной опасности отвечает владелец средства повышенной опасности.


      1. eagleivg
        29.10.2019 14:45

        пока, за вред причиненный средством повышенной опасности отвечает владелец средства повышенной опасности.

        Ну хорошо, предположим, что живем в идеальном мире, победит разум, и ответственность будет нести производитель автопилота. Какую, уголовную? Не уверен, но кажется, это будет прецедент. Финансовую? Далеко не каждая контора потянет существующий поток смертей и травм в ДТП. Утверждается, что их будет на порядок меньше — даже если это правда — это всё равно гигантские риски. Сейчас все эти автопилоты цветут буйным цветом как раз по причине своей безответственности. Стоит законодательству поменяться в эту сторону — они схлопнутся.


    1. alexxisr
      29.10.2019 14:35

      Если робомобиль ехал на автопилоте, и в инструкции к нему не сказано «водитель должен перехватывать управление в случае чего», то владелец — это просто пассажир и ответственности нести не должен. Логично было бы если виноват в случае дтп будет производитель автомобиля. Можно переложить вину на владельца, если он не проходил положенное ТО/не ставил апдейты/или вообще модифицировал автомобиль.


    1. DarkV
      29.10.2019 14:56

      А если у купленного обычного автомобиля внезапно откажут тормоза и это приведёт к смерти человека, то кто понесёт уголовную ответственность? Водитель, продавец, производитель, тестировщик?
      Ответ: в общем случае, никто.


      1. eagleivg
        29.10.2019 15:03

        Ответ: в общем случае, никто.

        Это, простите, как? Ответственность несет владелец транспортного средства повышенной опасности, если только не сумеет доказать неисправность по вине производителя. Так в законодательстве.


        1. DarkV
          29.10.2019 15:53

          Нужна причинно-следственная связь между нарушением ПДД водителем и смертью.
          Если из-за неисправности водитель не мог избежать ДТП — состава преступления вообще нет.
          В случае с ИИ, нет нарушения и нет возможности избежать.


          1. eagleivg
            29.10.2019 16:32

            Нужна причинно-следственная связь между нарушением ПДД водителем и смертью.
            Если из-за неисправности водитель не мог избежать ДТП — состава преступления вообще нет.

            Это решает суд на основании текущего законодательства. Касательно нашего случая с заводской неисправностью ничего не меняется — не сумел доказать -> сел.
            В случае с ИИ, нет нарушения и нет возможности избежать.

            Не надо идеализировать ИИ. Недавние аварии с тараном автобуса гугломобилем и сбиванием велосипедистки убермобилем показывают, что это ложное утверждение.


            1. DarkV
              29.10.2019 17:10

              Кто чего доказывает, это юридические нюансы процесса. Суд пытается установить факт причинно-следственной связи.
              Я не идеализирую ИИ, но водитель/пассажир точно ничего не нарушал, просто потому что не управлял.
              А создатели сломанных тормозов не будут нести уголовную ответственность.


    1. alexey_c
      29.10.2019 20:50

      Никого ведь не посадят, если кто-то бросится под, например, поезд.
      Это всё уже проработано, можно сказать, веками.

      Здесь тоже должно быть аналогично.
      1 — всем рассказать, ЧТО это такое, и как оно относится к тому, что вы под него прыгаете (тупо тормозит в соответствии с ПДД)
      2 — не понявших увозить по факту в больничку.


  1. smedentsev
    29.10.2019 14:30

    Не статья, а мутный поток сознания человека, очевидно весьма поверхностно знакомого с проблемой как ИИ и нейронных сетей, так и с психологией (нейропсихологией), нейробиологией и смежными областями. Которого было бы правильнее назвать полнейшим дилетантом в данной области, несмотря на «громкое» «звание» профессор кафедры информационных технологий. Не понимаю зачем это вообще здесь на хабре, где уже были тонны намного более качественных и грамотных материалов на эту тему.

    Причем яркий маркер дилетантизма таких «специалистов» — очередное вытаскивание на свет замшелой и сто раз уже со всех сторон замусоленной проблемы «робоавтомобиля и выскакивающего пешехода» с обязательным упоминанием «этической дилеммы» и «морального выбора». Ну сколько можно уже? Из какой пещеры вылазят все эти люди?

    И весь этот забавный антропоцентризм в виде идеального человека-водителя за рулем, который гарантированно молниеносно примет решение, которое минимизирует ущерб в непредвиденной аварийной ситуации для всех ее потенциальных участников (а не на основе того, что его кредитное авто, купленное полгода назад за 2 млн. руб. ему дороже жизни незнакомых людей или даже просто того, что его собственная жизнь ему дороже чем чья-либо), совмещенный с полным игнорированием того факта, что за те миллионы километров, которые уже наездили по дорогам общего пользования беспилотные автомобили под управлением ИИ они убили как минимум на пару порядков меньше людей, чем кожаные мешки с мясом за то же время и километраж.


    1. Vinchi
      29.10.2019 20:17

      Мне кажеться автор вылез из 70-х. Мыслит реально очень устаревше и предлагает немасштабируемые решения. Одна рекомендация автору не писать о том что не понимаешь. Глупо выглядит.


    1. Jecky
      30.10.2019 16:15

      Да уж, научного знания в статье примерно ноль.


    1. AlviZ
      31.10.2019 18:43

      совмещенный с полным игнорированием того факта, что за те миллионы километров, которые уже наездили по дорогам общего пользования беспилотные автомобили под управлением ИИ они убили как минимум на пару порядков меньше людей, чем кожаные мешки с мясом за то же время и километраж.


      После того случая с убером, власти Аризоны запретили проводить испытания робомобилей на территории округа.
      А те робомобили, что сейчас катаются самостоятельно — перемещаются исключительно в границах заранее заданной полосы или пешеходных зонах. И по скорости это не быстрее подвыпившего шлёндры. На трассах общего пользования сейчас используют только полуавтоматические машины, которые могут поддерживать полосу движения, отслеживая дорожную разметку и определять расстояние между ТС.
      Нынешние беспилотники слишком зависимы от состояние покрытия, разметки, хорошего освещения, тумана, снега, мусора и прочей ерунды. Соответственно катаются в тестовом режиме, с кожаными ублюдками внутри, поскольку самостоятельно обеспечивать необходимый уровень безопасности не могут. Так, простите, о каких миллионах километрах Вы говорите?


  1. ppl2scripts
    29.10.2019 17:09

    Почему не написать правду? Автопилот убера переехал бомжиху, которая неожиданно начала перебегать неосвещенный выход на шоссе, в неположенном месте?


    1. yarryozzo
      29.10.2019 20:44

      Автопилот не видит никакой разницы между бомжихой и балериной. Зачем уточнять социальный статус — в ПДД нет исключений для людей БОМЖ и «неположенные места» там по-прежнему дают водителю лишь смягчающие обстоятельства.


  1. Darth_Biomech
    30.10.2019 14:57

    Сколько упоминают эти дилеммы про пешеходов и машин с отказавшими тормозами, нико ещё не объяснил толком, почему решение робоавтомобиля — каким бы оно ни было! — хуже решения человека-водителя оказавшегося в той же ситуации и подвергается морально-этической критике. Причем человек-водитель скорее всего будет действовать не по логике «если я поступлю вот так то это минимизирует нанесенный ущерб не подвергая пассажиров риску», а по логике «АААА Б****Я П*****Ц!!!!» с судорожной попыткой вырулить хоть куда-то.
    Лично мне было бы как-то плевать, сбила меня машина под управлением водителя или ИИ. Я бы не чувствовал облегчения от того что за рулем все-таки был человек.


  1. Ermit
    30.10.2019 15:32

    Когда у автопилота будет система распознавания лиц и база по всем жителям Земли — можно будет считать социальную, культурную, научную, семейную значимость каждого человека, который перебегает дорогу. )))


  1. agapal
    31.10.2019 18:03

    Википедия пишет, что Элиза была написана в 1966. Т.е., это 60-е, а не 70-е, как написано в статье.


    1. izumrudov Автор
      31.10.2019 19:02

      Спасибо. Исправил


    1. Ermit
      01.11.2019 03:03

      Вообще-то, по правилам языка (и математики) 00-09 — это десятые, 10-19 — двадцатые и так далее… Другое дело, что прагматика современного языка допускает делать такую ошибку… )))


      1. agapal
        01.11.2019 09:31

        Я в правилах не силён, поэтому не опровергаю, но удивляюсь. Десятые — это даже не от 1 до 10? А где можно посмотреть? А «минус десятые» — они таки от -1 до -10?


      1. fireSparrow
        01.11.2019 11:27

        А можно ссылку на такие правила языка и математики?
        Википедия говорит, что есть два варианта счёта десятилетий, но ни один из них не соответствует тому, что пишете вы.


        1. Ermit
          01.11.2019 15:58

          Я пример приведу, а дальше вы сами в гугле.
          5.14 — это шестой час или пятый?


          1. fireSparrow
            01.11.2019 17:00

            Вы путаете тёплое с мягким.
            1966 год — это действительно седьмое десятилетие. Но при этом период называется всё равно «шестидесятые». Потому что «шестидесятые» — это вовсе не от словосочетания «шестое десятилетие», а собирательное название для 1960-го, 1961-го, ..., 1969-го.


  1. YurasovAlexey
    31.10.2019 18:41

    Спасибо за пост!
    Исследователю ии важно видеть направления поиска. Это как нерешенные задачи математики.


  1. george3
    01.11.2019 12:58

    В качестве обучающей выборки в неё было заложено шесть тысяч историй болезней. Это титанический труд и, безусловно, огромные деньги.

    Можно сделать за 0.5-1 человеко-год, если область знаний для аналитика незнакомая. Если что, обращайтесь. Я имею ввиду перевод Данные -> понятные человеку и компу правила.