Полицейские английского города Дарем собираются использовать специализированную когнитивную систему для того, чтобы она помогала им принимать важное решение — должен ли подозреваемый содержаться под стражей или его можно отпустить под залог. Система, которая разработана специально для полиции, получила название Hart (Harm Assessment Risk Tool). Hart будет оценивать подозреваемых по достаточно простой системе рисков: низкий, умеренный и высокий риск совершения преступлений в будущем.

Сама система еще не используется в полной мере, полиция лишь тестирует некоторые ее возможности, чтобы посмотреть, насколько эффективно она может иметь дело с преступниками и преступлениями. Если все будет хорошо, то в течение нескольких последующих месяцев ее введут в строй. Hart можно использовать для решения и других вопросов. Например, для того, чтобы определить количество времени, необходимое для содержания подозреваемого под стражей, определения возможности отпустить его (или ее) под залог, плюс другие важные вещи.

Hart основана на работе нейросети, которую обучали на данных, собранных полицией Дарема с 2008 по 2013 год. В ходе оценки сервис использует такие факторы, как история преступлений конкретного человека, тяжесть совершенных преступлений и просчитывает вероятность того, что подозреваемый может скрыться.

Система разрабатывается уже несколько лет, первые тесты проводились в 2013 году. До начала работы над проектом его авторы исследовали поведение преступников в течение двух лет. После этого данные были внесены в память компьютерной системы, которая занималась анализом информации и прогнозами по дальнейшему поведению подозреваемых. При этом прогнозы были довольно точными. Hart практически не ошибалась, давая минимальную оценку угрозы (точность в 98%) и лишь немного ошибалась, давая ее максимальную оценку (88%).

В настоящее время полицейские разных стран стараются использовать новейшие технологии как для расследования преступлений, так и для их предотвращения. Тем не менее, оценку арестованным подозреваемым в совершении преступлений в некоторых случаях давать сложно. Кроме того, на изучение прошлого людей, которые попали в руки полиции, требуется время, и немало. А вот компьютер способен получить необходимые данные в течение нескольких секунд или минут, сразу занявшись прогнозированием поведения подозреваемого.

С работой Hart все хорошо, но, как оказалось, программное обеспечение, которое используется полицейскими английского города, очень «дырявое». Это относится не только к упоминаемой программной платформе, но и к другим программно-аппаратным средствам наблюдения и анализа, которые используются полицией. Разработчики, которые занимаются созданием программных платформ для правоохранителей, в первую очередь, заинтересованы в их правильной и надежной работе, а потом уже — в защите от внешних воздействий. Возможно, именно поэтому полицейское ПО так плохо защищено.

Конечно, опасности подвергаются и прочие когнитивные системы, которые работают сейчас на благо различных коммерческих компаний, включая Google. Схожее ПО используют Facebook, Microsoft, Google. Чтобы обойти защиту и получить доступ к закрытым данным компаний, нужно быть не просто компьютерным гением, а еще и везучим гением.

С полицейскими системами все немного проще. Понимая проблему, правоохранители решили обеспечить безопасность национальных данных, ограничив доступ нейросети лишь базой данных преступников и преступлений Дарема. Кроме того, программная платформа будет получать дополнительные данные из сети этого года, а не из внешних источников. Эксперты по сетевой безопасности считают, что компания поступила правильно, поскольку злоумышленники, при желании, смогут получать необходимые данные в течение пары минут.



На первых порах роботу решения системы внимательно изучаются людьми, чтобы понять, насколько эти решения адекватны. В будущем анализировать полученные данные будет робот, да, но люди будут проверять все решения, сверяясь с реальным положением вещей.

Пока система не «доведена до ума», доверять ей не стоит. Ведь она, по ошибке, сможет выпустить преступника. Так что осталось подождать, пока команда поддержки доработает систему. Ну а пока когнитивная платформа по анализу поведения подозреваемых в совершении преступления будет служить вспомогательным инструментом для полицейских Дарема. Кстати, из-за того, что платформа «заточена» под один-единственный регион, и обучали систему на основе данных по преступлениям этого же района, Hart не в состоянии анализировать подозреваемых в совершении преступлений из других мест.

Тем не менее, если система покажет себя хорошо, то ее в дальнейшем могут подключить и к другим полицейским базам данных различных регионов Великобритании.
Поделиться с друзьями
-->

Комментарии (9)


  1. den_golub
    12.05.2017 11:42
    -1

    О, воплощаем «Особое мнение» в жизнь, хотя и немного в другом ключе.


    1. ClearAirTurbulence
      12.05.2017 11:51
      -1

      Скорее, Rule 34 Чарльза Штросса.


  1. Loki3000
    12.05.2017 12:10
    -1

    Гм… вроде, пробегало в новостях что-то похоже, но в штатах. Насколько мне помнится, там программу довольно быстро обвинили в расизме и будущее ее теперь туманно:)


  1. igruh
    12.05.2017 12:37
    -1

    До включения небесной сети становится всё меньше и меньше.


  1. osigida
    12.05.2017 13:07
    -1

    Судья Дредд в строю


  1. QDeathNick
    12.05.2017 14:34

    Заголовок — анаколуф.
    Я сначала подумал, что за подозреваемыми будет следить ИИ вместо тёток у двери.
    Лучше бы: Полиция Великобритании при помощи ИИ будет принимать решения о содержании подозреваемых под стражей.


  1. redpax
    12.05.2017 15:10

    Вполне логичный шаг, пока вполне возможно не будет работать полностью в автономном режиме но это не избежно в будущем.

    Никого уже не удивляет, что ипотеку уже давно одобряет компьютер совершенно без вмешательства человека по анализу определенной «бигдата». (говорю это как человек имеющий к этому отношение).


  1. TimsTims
    13.05.2017 01:44
    +1

    Да-да. В США уже делали подобную систему, которая всех чернокожих записывала в бандиты и подозрительных лиц. Тогда её докрутили, сделали расонезависимой, так она стала обращать — какой оттенок кожи, форма черепа итд. Её снова докрутили, потом еще, и еще. В итоге она стала по-настоящему беспристрастной системой, с уровнем ошибки 50%(очень высокий), и решили оставить человека…


  1. Contriver
    14.05.2017 18:58

    Ничему их взлом системы здравоохранения не учит.
    Если здоровьем людей не дорожат, так свободой и справедливостью наказания тем более!
    Денег за правильное решение можно и поболее чем 300$ от WannaCry, просить у клиентов он-лайн сервиса чёхакнутая фемида.