Американский союз гражданских свобод (American Civil Liberties Union, ACLU) продолжает кампанию против использования систем распознавания лиц федеральными агентствами и полицией. ACLU настаивает, что качество этих систем слишком низкое для реального использования. В результате будет много ложных срабатываний, из-за чего пострадают невинные люди. Пытаясь убедить Конгресс США запретить использование этих систем, правозащитники предприняли дерзкую, но эффективную акцию: они прогнали через систему распознавания лиц Amazon Rekognition всех американских конгрессменов. Результат оказался немного предсказуем: система распознала 28 конгрессменов как преступников. Фотографии «героев» на скриншоте вверху.

Amazon агрессивно продвигает свою систему распознавания лиц. Недавно стало известно, что корпорация заключила контракты с полицейскими подразделениями округа Вашингтон, штатов Орегон и Флорида. Руководитель компании Джефф Безос позиционирует Rekognition как эффективный инструмент распознавания лиц в реальном времени, в том числе по видеопотоку, который поступает с носимых видеокамер на униформе полицейских.

Это напоминает систему, которую в этом году начали тестировать в некоторых городах Китая, в том числе в городе Чжэнчжоу (провинция Хэнань на востоке центральной части Китая). Там полицейским выдали специальные очки с видеокамерами, которые тоже подключены к программному обеспечению для распознавания лиц.



Гаджеты выдали в первую очередь сотрудникам транспортной полиции, которые работают на оживлённой железнодорожной станции Восточный Чжэнчжоу, потому что перед их глазами проходит больше всего людей. Очки специально разработаны для полиции и подключены к наладонному компьютеру. После сканирования лица прохожего компьютер подключается к центральной базе данных, где осуществляется поиск совпадений. Эксперимент доказал свою эффективность: к 6 февраля полиции удалось идентифицировать семь беглецов, которые обвиняются в скрытии с места ДТП и торговле людьми.

Но в Китае к защите прав человека относятся более снисходительно: там уже на улицах работает 170 млн камер видеонаблюдения, которые подключены к единой системе распознавания лиц. Ложноположительные срабатывания никого особо не смущают, если система помогает ловить реальных преступников.

А вот американские правозащитники считают, что ложноположительные срабатывания — свидетельство того, что система ещё не готова к использованию.

Результаты тестов ACLU показали, что Rekognition ошибочно приняла изображения 28 невинных конгрессменов за преступников. Интересно, что неправильные срабатывания искажены в сторону людей с чёрным цветом кожи. Среди «пострадавших» конгрессменов таких 39%, хотя в реальности темнокожие конгрессмены составляют лишь 20% нижней палаты парламента. Такие результаты подтверждают опасения представителей чернокожих групп, которые изложены в письме Congressional Black Caucus в адрес Amazon, что использование системы распознавания лиц может иметь «глубокие негативные непреднамеренные последствия» для чернокожего населения, незаконных мигрантов и участников акций протеста. В самом деле, есть признаки того, что система чаще ошибается при сравнении чернокожих лиц, особенно женщин.

Ну а вообще под раздачу попали все — и демократы, и республиканцы, и мужчины, и женщины, всех возрастов из разных регионов страны. Все они попали в число ошибок системы.

Представители ACLU считают, что каждое ложноположительное срабатывание подвергает угрозе свободу человека. Полицейский может предвзято относиться к такому человеку, подвергнув его допросу или обыску.



Сканирование произведено на общедоступном сервисе Amazon Rekognition, стоимость услуги составила $12,33. Для сравнения с фотографиями 535 конгрессменов и сенаторов выбрали 25 000 публично доступных фотографий людей в наручниках. Тест проводился с настройками по умолчанию. 28 ошибок означают примерно 5% ложноположительных срабатываний. Теоретически это может и неплохой результат, но если применить её на тысячах лиц, то это означает множество невинных людей, которых подвергнут обыскам из-за ошибки программы.

Конечно, все результаты программы будут проверяться людьми, но все мы знаем, что такие системы могут быстро выйти из-под контроля и перейти в автоматический режим, как это случилось с системой выдачи штрафов за превышение скорости.

ACLU призвал Конгресс «ввести мораторий» на использование данной технологии, пока она не начнёт выдавать приемлемую точность.

Комментарии (89)


  1. ClearAirTurbulence
    28.07.2018 18:50
    +7

    Вполне вероятно, что система Amazon что-то знает про о этих конгрессменов… Может, они демонстрируют специфические паттерны при покупке товаров? Надо бы их на всякий случай проверить)


  1. VBKesha
    28.07.2018 18:51
    +11

    То что симтема видит в 28 конгременах преступников, ещё не значит что она ошибается.


    1. AlexanderS
      28.07.2018 19:38
      +1

      ИИ не проведешь! И через СМИ не убедишь и не оболванишь ;)


    1. Welran
      28.07.2018 20:03
      +4

      Шутка конечно забавная, но система не определяет преступные наклонности или нераскрытые преступления, а проверяет находится ли данный человек в списке разыскиваемых преступников. В который, очевидно, конгрессмены не входят.


      1. Syzd
        29.07.2018 10:47

        Почему очевидно? Может входят? В молодости ограбили кого-то, мошенничали, убили. Попали в разработку, сразу не нашли, но потом их преступления засекретили?


        1. POS_troi
          29.07.2018 11:49

          Не внимательно читали статью.

          Для сравнения с фотографиями 535 конгрессменов и сенаторов выбрали 25 000 публично доступных фотографий людей в наручниках.


          1. sumanai
            30.07.2018 00:20

            А может конгрессмены того, балуются БДСМ и фоткаются в полумасках, но они не помешали амазону?


    1. zxweed
      29.07.2018 11:54
      -1

      странно, что в остальных 500 она их не видит — видимо, действительно очень низкая точность.


    1. MaxVetrov
      30.07.2018 11:23

      Действительно, может они пару раз в не положенном месте перешли дорогу.)


  1. dom3d
    28.07.2018 19:09

    Какова приемлемая точность?


    1. Am0ralist
      28.07.2018 20:42
      +7

      Ну как, чтоб ни одного конгрессмена не заподозрило…


      1. osheinin
        29.07.2018 22:43

        Так это же просто решается…


  1. TuMaN1122
    28.07.2018 19:19
    +5

    Мне кажется программа отработала как надо. Стоит проверить этих конгрессменов.


  1. Hardcoin
    28.07.2018 19:44
    -1

    семь беглецов, которые обвиняются в скрытии с места ДТП и торговле людьми.

    Интересные семь беглецов. В Китае это преступления примерно одинаковой степени тяжести?


  1. olgerdovich
    28.07.2018 21:07
    +3

    Интересно, что неправильные срабатывания искажены в сторону людей с чёрным цветом кожи. Среди «пострадавших» конгрессменов таких 39%, хотя в реальности темнокожие конгрессмены составляют лишь 20% нижней палаты парламента.

    казалось бы, надо сравнивать с долей темнокожих среди преступников, а не среди конгрессменов — но такая постановка вопроса, похоже, сильно отдает неполиткорректностью, и на всякий случай Американский союз гражданских свобод (American Civil Liberties Union, ACLU) не стал указывать разумную постановку вопроса, а привел формулировку, позволяющую подтвердить опасения представителей чернокожих групп. Конечно, привлекать людей в свои ряды — понятный мотив, но подтасовывать формулировки ради этого не есть хорошо.


    1. daiver19
      29.07.2018 07:23

      казалось бы, надо сравнивать с долей темнокожих среди преступников,

      Потому что..? Всё правильно они посчитали, неясно только, что с доверительным интервалом.


      1. olgerdovich
        29.07.2018 16:11
        +1

        Соглашусь, есть один тонкий момент, который на бытовом уровне мне показался очевидным — в свете известных претензий к американской полиции по поводу притеснений чернокожих, что-де их преследуют больше, чем белых, хотя при этом не обсуждают, насколько оснований для преследований действительно больше и какова доля чернокожих среди «преследующих» полицейских; словом в обсуждении важного для США расового вопроса встречаются манипуляции статистикой, порой весьма незамысловатые, но для среднего человека незаметные, а звучащие ярко и броско.

        Кроме того, признаюсь, что мое первоначальное впечатление при детальном анализе мне пришлось несколько скорректировать.

        Тонкий момент состоит в том, насколько система может спутать чернокожего и белого. Будь у нас вместо этой системы много-много полицейских с наметанным глазом (которые вряд ли перепутают белого и чернокожего), ситуация выглядит очевидной, с неизвестно как устроенной системой это не так, хотя определенные догадки тут тоже можно сформулировать.

        Итак, пусть у нас доля чернокожих среди (занесенных в базу) преступников X, среди конгрессменов (по условиям эксперимента — заведомо не преступников) — Y, среди конгрессменов, принятых за преступников, — Z. В статье указано, что Z>Y, величина X не обсуждается вовсе.

        Если система ошибается совершенно произвольно, то есть на фото конгрессмена в случае ошибки совершенно случайно тыкает на «преступник»/«не преступник», то, действительно, должно быть Z=Y.
        В самом деле, пусть система сопоставляет фото невиновного (конгрессмена) с фотографией преступника в базе (общим размером N) равновероятно с какой-то малой вероятностью p. Тогда и белому и чернокожему конгрессмену предстоит стать преступником с вероятностью N*p. Соответственно, для w белых конгрессменов ожидается w*N*p преступников, для b чернокожих конгрессменов ожидается b*N*p преступников. Пусть всего в Конгрессе b+w человек, тогда Y = b/(b+w), 1-Y = w/(b+w), w = (1-Y)*(b+w), b = Y*(b+w).
        Соответсвенно, доля чернокожих преступников-конгрессменов будет Z=b*N*p/{b*N*p+w*N*p}=b/{b+w}= Y
        Однако совершенно случайную ошибку при неслучайной правильной работе подозревать странно (и, больше того, наверно по различному поведению такие ошибки можно было бы вычленять с пометкой типа «неопределенный результат»), все же это ошибка в работе некоторого алгоритма, поэтому этот вариант выглядит весьма искусственным — хотя с указанными искусственными оговорками логически безупречно.

        Теперь предположим, что система не идеальна, но безошибочно различает чернокожего и белого, то есть, условно, сразу определяет предъявленную фотографию в одну из двух категорий, а затем ищет соответствие в так же разделенной на две категории базе (общим размером N), при этом называет сопоставляет фото невиновного (конгрессмена) с фотографией преступника равновероятно с какой-то малой вероятностью p уже после проведения такой классификации. Тогда белому конгрессмену предстоит стать преступником с вероятностью (1-X)*N*p, а чернокожему — X*N*p. Соответсвенно, для w белых конгрессменов ожидается w*(1-X)*N*p преступников, для b чернокожих конгрессменов ожидается b*X*N*p преступников. Пусть всего в Конгрессе b+w человек, тогда Y = b/(b+w), 1-Y = w/(b+w), w = (1-Y)*(b+w), b = Y*(b+w).
        Соответсвенно, доля чернокожих конгрессменов-преступников Z=
        b*X*N*p/{w*(1-X)*N*p+b*X*N*p}=
        b*X/{w*(1-X)+b*X}=
        Y*(b+w)*X/{(1-Y)*(b+w)*(1-X)+Y*(b+w)*X}=
        Y*X/{(1-Y)*(1-X)+Y*X}=
        Y*X/{1-Y-X+2X*Y}
        (тут надо бы проверить, что знаменатель никогда не обращается в нуль при X<=1, Y<=1, но, кажется, это так есть, кроме неприятных случаев X=0, Y=1 и наоборот, но тогда и числитель зануляется. Чуть позже разберусь)
        Как видите, и доля чернокожих конгрессменов, и доля чернокожих преступников в такой модели входит в итоговую долю чернокожих преступников-конгрессменов на равных правах. Насколько такая модель реалистична?
        Мне представляется, что весьма. Полицейские в своих сводках цвет кожи как признак (судя по фильмам) выделяют чуть ли не в первую очередь, признак отчетливый и надежный, поэтому разделять сразу по этой категории для полицейских вполне естественно. Думаю, что автоматическая система тоже легко способна этот признак вычленить и весьма вероятно он стоит высоко в иерархии анализа. Так что если мы считаем, что система в целом работает верно и лишь иногда сбоит, то есть основания учитывать и долю чернокожих среди преступников, а не только среди конгрессменов.
        Любопытно посмотреть на предельные случаи Z=Y и Z=X в этой модели.
        Подставляя Y = Y*X/{1-Y-X+2X*Y}, после преобразований получим
        (2X-1)*Y^2 = (2X-1)*Y,
        или (2X-1)*(Y^2-Y) = 0
        Далее, (Y^2-Y)=0 соответствует Y=0 и Y=1, расово чистым вариантам Конгресса, действительно, доля чернокожих конгрессменов-преступников среди конгрессменов-преступников будет равняться нулю (единице) за отсутствием чернокожих (белых) конгрессменов.
        Проверяя 2X-1 = 0, получим, что доля чернокожих конгрессменов-преступников среди конгрессменов-преступников будет равняться доле чернокожих конгрессменов за счет равного представительства чернокожих и белых в базе преступников и расово-независимой ошибки системы.
        Второму варианту, равному представительству чернокожих преступников среди простых краждан и в Конгрессе, соответствуют
        X = Y*X/{1-Y-X+2X*Y} и
        (2Y-1)*(X^2-X) = 0
        Соответственно,
        X=0: чернокожих нет в преступном мире, соответсвенно, всякий конгрессмен, определенный как преступник, не чернокожий.
        X=1: белых нет в преступном мире, соответсвенно, всякий конгрессмен, определенный как преступник, — чернокожий.
        Y = 0.5: равное представительство черных и белых в Конгрессе позвооляет за счет случайности ошибки воспроизвести пропорцию криминального мира.


        1. daiver19
          29.07.2018 18:51

          Если система ошибается совершенно произвольно, то есть на фото конгрессмена в случае ошибки совершенно случайно тыкает на «преступник»/«не преступни

          Неверно. Равная вероятность ошибки не эквивалентна случайному выбору. Мы должны считать непредвзятую модель черным ящиком, который делает ошибки с равной вероятностью для любого признака. Случайная модель будет обладать этим свойством, но при этом абсолютная величина ошибки будет велика. Это не значит, что не существует более точной модели с этим свойством.
          Иными словами если модель качественная, то её вывод не должен зависеть от распределения входных данных. В этом случае сложно сказать состоит ли проблема в неправильной тренировке либо в фундаментальной проблеме в самой модели (т.е.недостаточном количестве фич для сравнения чернокожих людей).


        1. Frankenstine
          31.07.2018 16:39

          Эм, кажется всё это можно было сформулировать короче: чёрнокожие меньше отличаются друг от друга, чем белокожие. Поэтому и процент ложноположительных для них выше.


          1. GeekberryFinn
            31.07.2018 19:24

            Не меньше. Просто, система, которую тренировали на белых, с трудом различает не белых.


  1. idiv
    28.07.2018 21:09
    +4

    В результате будет много ложных срабатываний, из-за чего пострадают невинные люди.

    Во-первых, здесь бы не помешал анализ, например, неприемлемо обыскивать 10, если только 10-й окажется разыскиваемым карманником, но вполне ничего, если речь идет об убийце. Или вообще неприменимо такое сравнение, спокойствие случайного прохожего не стоит нарушать из-за пары трупов (да, это уже доведение до абсурда).
    Во-вторых:
    Результат оказался немного предсказуем: система распознала 28 конгрессменов как преступников. Фотографии «героев» на скриншоте вверху.

    А слабо было фотки те разместить, за кого их приняли? Система же не просто говорит «он преступник», а что-то вроде «Это Джон Смит, убийца, с вероятностью 80%» (последнее может и опускаться, тут спорный вопрос о необходимости информации). Может там реально двойники разыскиваемых, тогда при чем тут система?

    В целом же все подобные организации (и эта вроде тоже) сторонники свободного перемещения по всему миру. Если раньше можно было локализовать преступников (попробуй границу пересечь, когда тебя ищут), то в случае того же ЕС это работает сейчас вообще никак, потому система распознавания была бы неплохим решением, не с ней нужно бороться, а с ее контролем.


    1. i86com
      29.07.2018 03:09

      А слабо было фотки те разместить, за кого их приняли? Система же не просто говорит «он преступник», а что-то вроде «Это Джон Смит, убийца, с вероятностью 80%» (последнее может и опускаться, тут спорный вопрос о необходимости информации). Может там реально двойники разыскиваемых, тогда при чем тут система?


      Там вообще в оригинале своеобразная история. Они пишут, что взяли публичный (платный) доступ к Amazon Rekognition, добавили туда 25к фоток с задержаний (сами собрали, видимо) и протестировали фотки из конгресса на соответствие базе.

      Пишут, что использовали дефолтные настройки. Не выкладывают фотки ложных совпадений (т.е. вообще ничего, кроме слов, что доказывало бы их существование и ложность). Не упоминают, как подобный результат может меняться с изменением размера базы или например, количества не-криминалов в ней. А вот это было бы интересно почитать.

      Но так-то да, если технология на реальных объёмах не работает, то на неё просто перестанут обращать внимание. Как на любой другой тревожный индикатор, у которого false positives случаются каждый день.


      1. andrewdrone
        29.07.2018 07:45

        Идея здравая, реализация как всегда…
        Они пишут, что взяли общедоступные фотографии арестов(аных) людей. Типа <ок, гугл, покажи мне фотографии людей в наручниках>. Реальная база полиции в. тестах не участвовала. С учетом малой выборки и того факта, что политиками в США часто становятся люди публичные, результат немного предсказуем заранее. А дальше началось натягивание совы на глобус. С тем же упехом можно было взять "общедоступные фото русских сотрудников правоохранительных органов" и заявить что вот экс губернатор Калифорнии — засланый казачок, но доказательств мы не покажем!


      1. saloid
        29.07.2018 22:43

        Получается примерно так: «Эта ваша система не работает, ее надо запретить. Ну… то есть наша… Мы ее даже не настраивали… Но не работает.».
        Вообще мне кажется, что если из сотни людей оно покажет 50 подозриетльных, то это, как минимум, вдвое уменьшит количество работы для тех, кто это визуально проверяет. Или эти правозащитники считают что сработка системы означает автоматическую посадку человека за решетку, без разбирательств и банальной ручной проверки на совпадение с фото реального преступника?


    1. aavezel
      29.07.2018 10:55

      А слабо было фотки те разместить, за кого их приняли

      Там же нейросетка, а не система сравнения. Нейросетка сравнивает измерения(?) и говорит, что с таким то процентом показанное лицо находится в обучаемой выборке. А дальше ЛТР решает какой процент является приемлемым и, если хочет, запускает систему сравнения, которая работает намного дольше.


      1. idiv
        29.07.2018 14:19

        Нейросетка сравнивает измерения(?)

        А сравнение наугад или по доверительному интервалу все же? И если сравнивает, то в любом случае нужно указывать, что было оригиналом, одно дело полиции указать на подозреваемого в мошенничестве, а другое — участник банды, принимающей участие в вооруженных ограблениях.


      1. Imposeren
        29.07.2018 14:25

        На самом деле могли и «конкретные имена» находить.

        aws.amazon.com/ru/rekognition/image-features

        > РАСПОЗНАВАНИЕ ЛИЦ
        > Rekognition Image позволяет находить похожие лица в больших наборах изображений. За счет этого можно создавать списки найденных на изображениях лиц. Быстрый и точный поиск Rekognition Image возвращает все лица, максимально похожие на указанное.

        > СРАВНЕНИЕ ЛИЦ
        > Rekognition Image позволяет оценить вероятность того, что лица на двух разных изображениях принадлежат одному и тому же человеку. С помощью Rekognition можно сверять изображение пользователя с исходной фотографией на основании значения сходства в режиме, близком к реальному времени.

        Короче вариантов того что именно они делали — много, а деталей о том что делали — мало.


  1. Xolms
    28.07.2018 22:56
    +1

    интересно было бы проверить на наших депутатах.


    1. Mike_soft
      29.07.2018 14:18

      А чего там проверять… Там доказывать надо!


      1. sumanai
        30.07.2018 00:23

        Там не доказывать, там *роскомнадзор* надо.


  1. UJIb9I4AnJIbIrUH
    29.07.2018 00:33

    Сразу вспомнился фильм «Особое мнение» с Томом Крузом.


    1. nidalee
      29.07.2018 05:12

      Тут скорее сериал Person of Interest


  1. Jeyko
    29.07.2018 00:34

    Преступления бывают разные, в том числе и политические и экономические. Так шта…


  1. kinjalik
    29.07.2018 01:16

    Стоит обратить внимание, что в США человек в наручниках != преступник. У них в наручники одевают всех, на кого есть подозрения, до выяснения всех обстоятельств.


    1. andrewdrone
      29.07.2018 07:21

      Наручники оденут даже если тормознуть машину копов и попросить подвезти


    1. aamonster
      29.07.2018 16:25

      Ну, если я правильно понял суть эксперимента — это неважно. Определялось не криминальное прошлое конгрессменов :-), а принадлежат ли их лица к множеству лиц с эталонных фоток. Для такого теста можно было взять не людей в наручниках, а, допустим, людей, одетых в зелёное.


  1. phenik
    29.07.2018 07:35

    Когда же дойдет черед до распознания мордяшек кошек и собак, так проще было бы искать пропавших.


    1. toxicdream
      31.07.2018 13:53

      требую распознавание хомячков и морских свинок, иначе это дискриминация по видовому признаку…


  1. GeekberryFinn
    29.07.2018 08:26
    +1

    каждое ложноположительное срабатывание подвергает угрозе свободу человека. Полицейский может предвзято относиться к такому человеку, подвергнув его допросу или обыску

    Если бы только обыску и допросу! Американский коп может и перенервничав пристрелить, если у тебя в кобуре твой законно купленный ствол, а ты оказался похож мордой на разыскиваемого опасного преступника за которым числятся трупы, и ему показалось, что ты потянулся к стволу.


    1. idiv
      29.07.2018 10:20
      +1

      Тут нужно сильно постараться, как правило. Практически во всех видео стрельбы тот, в кого стреляли, по какой-то причине вел себя странно (вроде полицейский просит не двигаться, а подозреваемый продолжает двигаться). Т.е. реальных случаев, когда полицейский застрелил сходу кого-то очень мало, если вообще есть.


      1. F0iL
        29.07.2018 16:12

        Очень показательное видео на тему


        1. GeekberryFinn
          29.07.2018 17:22

          А где второе видео?
          Где в точно такой же ситуации латиноса или афроамериканца уложили мордой вниз на асфальт взяв его с криками на прицел.

          Кроме, того на обоих видео человек с оружием не похож на разыскиваемого преступника.


      1. Evilfey
        29.07.2018 22:43

        Практически во всех видео стрельбы
        ??

        Видео стрельбы мизер. Смею предположить, что вы лично видели мизер из того мизера, что вообще есть.

        Вот, например: www.washingtonpost.com/graphics/national/police-shootings-2017/?noredirect=on

        987 человек убито полицейскими США в 2017 году. Устанавливаем фильтр weapon = unarmed, получаем 68 человек. Устанавливаем фильтр body camera = yes. 15 человек. Как-то не густо. Всего из 987 случаев body camera была в 101.


        1. idiv
          30.07.2018 06:57

          Устанавливаем фильтр weapon = unarmed, получаем 68 человек.

          А теперь мышкой кликаем на случайное имя. У меня вышла Jamie Dougan. Забиваем в Гугле и что же мы видим:
          Полицейский ранен и двое убитых в перестрелке. И вот она одна из убитых в перестрелке, она была в машине с мужиком, который отстреливался.
          Она была безоружным соучастником, но в статистике идет как застреленная невооруженная.
          Второй Ricco Devante Holden — пытались несколько раз успокоить тазером, потому только стреляли.
          Там эту статистику сначала просмотреть нужно, а потом уже называть страшные цифры.


    1. ABy
      29.07.2018 13:10

      Значит нужно выстрелить первым;) Wild West never changes.


    1. Ernillgeek
      29.07.2018 21:38

      Тебя уже пристрелили, я так понимаю? Или ты повторяешь вранье Задорнова и методичек?


      1. GeekberryFinn
        29.07.2018 21:50


        1. Ernillgeek
          29.07.2018 21:55

          Ну то есть тебя не расстреляли, ты сам ничего не знаешь, в США никогда не был и вряд ли получишь когда-то визу, но ты будешь нам рассказывать как убивают полицейский в США и как в РФ полицейские угощают шампанским.


          1. GeekberryFinn
            29.07.2018 22:05

            Расскажи вот ему:

            www.nv.kz/2015/05/12/91010
            Кирилл Денякин был убит полицейским в городе Портсмуте. Сотрудник полиции Стивен Рэнкин принял Денякина за грабителя, когда тот стучался к своему другу. Страж порядка выстрелил в карагандинца 11 раз. Присяжные оправдали полицейского, сочтя, что применение оружия было правомерным. Апелляционная инстанция оставила их решение без изменений.


            1. Ernillgeek
              29.07.2018 22:07

              Ссылка на реальность будет? Не ссылка на сомнительный русскоязычный ресурс в зоне .kz, а на решение суда, например. Нет? Ну почему я так и знал.


              1. Areso
                30.07.2018 01:32

                en.wikipedia.org/wiki/Death_of_Kirill_Denyakin (24 ссылка на решение суда)
                Непонятно, почему люди должны гуглить за вас. Имя жертвы, имя полицейского — все есть.
                Кстати говоря, этот полицейский убил еще 1 человека 4 года спустя, за что и был осужден на 2,5 года.


                1. Ernillgeek
                  30.07.2018 01:32

                  Непонятно почему я должен верить вранью каждого ольгинца, который никогда не был в США и не будет, который врет как ужасно в США и как хорошо в РФ.


                  1. GeekberryFinn
                    30.07.2018 02:52

                    Ernillgeek Где я говорил, что в РФ — рай, а в США — ад?


                    1. Ernillgeek
                      30.07.2018 02:54

                      Вон выше ты рассказываешь заведомое вранье про то, что в США полицейские убивают людей триллионами просто так. При этом твое вранье опровергает статистика, твое вранье опровергает опыт жизни там, твое вранье опровергает вся реальность.
                      Ты же никогда там не был и никогда не будешь. Так зачем ты врешь?


                      1. JobberNet
                        30.07.2018 05:45
                        +1

                        ты рассказываешь заведомое вранье про то, что в США полицейские убивают людей триллионами просто так

                        Ernillgeek приведи цитату, где GeekberryFinn писал о триллионах убитых.
                        Ernillgeek — ты сейчас приписал собственное враньё другому человеку, а затем его «опроверг».
                        Враньём занимаешься именно, ты Ernillgeek !


                        1. Ernillgeek
                          30.07.2018 06:10

                          Уже на смену заступил? Что-то рановато.
                          Как же вы легко палитесь, ребята. Одного ловишь на вранье про то, что в Штатах полиция убивает людей просто так, указываешь ему на вранье, как только его смена заканчивается прибегает второй и начинает кидать в тебя фекалиями.


                          1. JobberNet
                            30.07.2018 06:23

                            Тебе уже факты привели даже английском. А ты Ernillgeek всё продолжаешь нагло врать что такое невозможно, и что полицейские в США какают исключительно только цветами.


                            1. Ernillgeek
                              30.07.2018 06:24

                              Маловато раз упомянул мой ник. Если его упомянуть в комменте 30 раз, то я рассыплюсь в прах, а ольгинское вранье станет правдой.


                              1. JobberNet
                                30.07.2018 06:29

                                Ernillgeek — перестань нагло приписывать своё враньё другим!

                                PS кто такая Ольга?


                                1. Ernillgeek
                                  30.07.2018 06:31

                                  Ольгино это место где ты и твой коллега работаете. Место откуда вы врете на всех форумах о том как плохо в США. При этом ни ты, ни твой ушедший уже со смены коллега никогда в США не были и никогда не будете, ведь тех денег, что вам платят из нашего кармана хватает только на скудную кормежку, а на большее у вас нет мозга.


                                  1. JobberNet
                                    30.07.2018 06:42

                                    Я не в России — тормоз!
                                    Тебе уже факты на английском привели! Так что Ernillgeek перестань врать!


                                    1. Ernillgeek
                                      30.07.2018 06:43

                                      Да-да, не в России. А шпаришь прямо по известной методичке. Но не в России, нет, что ты.


                                      1. JobberNet
                                        30.07.2018 06:47

                                        Ernillgeek почитай habr.com/post/407627 и habr.com/company/pochtoy/blog/415549 — это факты!
                                        «Утопии нет нигде» © Ким Хён Док


                                      1. JobberNet
                                        30.07.2018 06:52

                                        Да-да, не в России.

                                        По-твоему Ernillgeek «в мире существует только две страны: Россия — где мордор, и США — где рай»?


                                        1. Ernillgeek
                                          30.07.2018 06:54

                                          При чем тут твои фантазии? Просто платных ольгинских/лахтинских троллей, типа тебя и твоего дружка выше, определяем на раз. Вы шпарите по методичке и не понимаете, что она давно всем надоела.


                                          1. JobberNet
                                            30.07.2018 06:59

                                            Ernillgeek — по тебе видно, что ты сам лично в США никогда не был, и никогда туда не попадёшь. Потому что даже статьи с пруфами на английском прочитать не можешь.


                                            1. Ernillgeek
                                              30.07.2018 07:00

                                              Я прожил в Штатах 4 года, а твои помоечные ссылки я читать не буду, я не повышаю посещаемости вашим лахтинским ресурсикам


                                              1. JobberNet
                                                30.07.2018 07:04

                                                твои помоечные ссылки я читать не буду

                                                Ernillgeek — у тебя батхёрт!
                                                Я прожил в Штатах 4 года

                                                Пруф или не было!
                                                habr.com/company/pochtoy/blog/414531/#comment_18802541
                                                Мне 40. У меня нет жилья, у моего отца квартира которую он купил сам в ипотеку, у моего старшего брата квартира которую он сам купил в ипотеку, а у меня нет, как нет и не было поддержки родителей. Я с 18 лет работаю сам, если еще в 98-00 отец пытался поддерживать, то при Путине это стало невозможно, да и у меня был свой бизнес, бизнес уничтоженный путинскими силовиками.

                                                Твои слова? Что-то не похоже на человека жившего в США. Тем более, что если ты жил в США и не веришь российской пропаганде, то нафиг тебе было возвращаться?!


  1. vindy123
    29.07.2018 11:17

    Столько раз уже это пережевывалось. Недавно же была подобная хайповая статья-компиляция про «ужасную» систему распознавания лиц на стадионах.
    Было бы очень хорошо, если бы Ализар с Марксом усвоили суть определений ложноположительного и ложноотрицательного срабатываний и разницу между ними.
    Проведем мысленный эксперимент. В видеозаписях с массива полицейских камер есть 1 млн лиц. Из них 10 — преступники, которых необходимо опознать.
    Без системы распознавания лиц оператору нужно рассмотреть 1 млн лиц, чтобы достичь цели.
    С системой распознавания, которая дает 9 ложноположительных срабатываний из 10, оператору нужно рассмотреть всего 100 лиц.
    Так какие претензии к системе? Кто сказал, что такой результат — это плохо?


    1. Dipet_D_M
      29.07.2018 22:45

      Так чего вы к Ализару-то прицепились? Это просто перевод новости, не Ализар делал выводы.


      1. sumanai
        30.07.2018 00:25

        Ализар выбирал новость для перевода, по-горячее.


        1. olgerdovich
          30.07.2018 01:31

          пожалуйста, не засоряйте ноосферу.
          правильно «погорячее».


        1. Dipet_D_M
          30.07.2018 01:54

          На мой взгляд хорошо выбрал, т.к. как раз показывает как обычные люди воспринимают машинное обучение и математическую статистику.


      1. vindy123
        30.07.2018 09:48

        Пардон, а разве выбор того, что именно переводить для публикации на хабре — это не задача редактора? Давайте они нам сейчас напереводят тут газету Sun про инопланетян с планеты Нибиру, а мы схаваем?
        Моя претензия к Ализару и Марксу состоит в том, что они либо а) не обладают минимальными знаниями, чтобы отделять зерна от плевел, либо б) понимают, что публикуют шлак, но также понимают, что желтуха и кликбейт — это тоже трафик.
        Лично я склоняюсь ко второму варианту, и от этого мне грустно )


  1. Insane11
    29.07.2018 11:38

    но все мы знаем, что такие системы могут быстро выйти из-под контроля и перейти в автоматический режим, как это случилось с системой выдачи штрафов за превышение скорости

    Это когда депутатам и прочим «неприкасаемым» стали штрафы приходить? Ужасная трагедия…


  1. Melanxolik
    29.07.2018 12:44

    Уже вижу как система распознает депутатов в думе.


  1. marataziat
    29.07.2018 15:29

    Мало того что все азиаты на одно лицо, так ещё и их миллиард!


  1. AntonSazonov
    29.07.2018 15:42

    Шутки — шутками, но мне как-то раз сотрудники милиции предложили побыть опознаваемым…
    Некий гражданин, приметами "смахивающий" на меня, ограбил тётку (скорее даже бабку). Честно говоря, мне было немного не по себе, когда она чуть не ткнула пальцем в меня, опираясь на сходство.
    Такая система меня пугает...


    1. chesterset
      29.07.2018 16:06

      Ткнула бы — вам ничего не было бы, вы играли роль массовки, а обвиняемый/подозреваемый смог бы напирать на тот факт, что опознающий не смог указать на подозреваемого.
      По делу — система распознавание лиц, конечно, может быть использована во вред. Аргументы о невинно задержанных/осмотренных имеют право на жизнь и вполне резонны. Но, как и любой инструмент, это можно использовать и во благо, главное кто использует и как. Система опознавания лиц в силу своей несовершенности и из объективных причин (наличие двойников, крайне похожих внешне людей и т.д.) не может служить основанием для задержания. Грубо говоря, если полицейскому система сообщает, что человек в красном похож на разыскиваемого, это не должно быть поводом для маски шоу или рука-кобура-пистолет. Она должна привлекать внимание полицейского к человеку, дальше полицейский может попросить человека показать удостоверение личности или может сам взять да сравнить внешность человека с фотографией разыскиваемого. Плохо ли это? Плохо, если искать будут не преступников, а оппозиционеров и других людей. Если строго зарегулировать попадание человека в базу, по которой система сверяет, тогда многих проблем можно избежать. При условии, что законодательство страны не допускает объявление в розыск человека за участие в митинге против или за что-то, разумеется.


      1. AntonSazonov
        29.07.2018 16:30

        На тот момент я этого не знал. Но за пояснения спасибо.


        1. dtBlack
          30.07.2018 12:04

          Это называется побыть статистом. И по правилам следователи на роль статиста должны найти схожих внешне людей. Но на практике это не соблюдается, в связи с утопичность в некоторых случаях.
          Поди найди похожего человека на улице, который согласится побыть статистом и у которого с собой документы есть, и который должен быть схож с рецидивистом всю жизнь зоны топтавшим.


          1. JobberNet
            30.07.2018 12:17

            Ну, так теперь система распознавания лиц позволит для каждого рецидивиста иметь свой личный список статистов.
            А ещё, утечка данных может привести к тому, что рецидивист с поддельными документами сможет успешно выдавать себя за своего статиста.


      1. GeekberryFinn
        29.07.2018 21:59

        Грубо говоря, если полицейскому система сообщает, что человек в красном похож на разыскиваемого, это не должно быть поводом для маски шоу или рука-кобура-пистолет.

        Если полицейскому сообщат, что этот человек разыскиваем за убийство и наверяка вооружён, то будет именно рука-кобура-пистолет. Потому что полицейскому тоже жить хочется.


  1. dzhumaiev
    29.07.2018 22:43

    «нравятся» мне такие статьи — много эмоций и немного сарказма, только вот разница в том, что в «китае себе могут позволить» ввести в эксплуатацию систему в заведомо известным процентом погрешности выше целевого и обкатывать в жизни, а потом анонсировать там например сотню идентифицированных преступников, но умолчать о тысячах взятых временно под стражу из-за ошибки системы, а в «америках» этого позволить не могут себе, вопрос почему, да ответ — потому, что китай фабрика, а америка потребитель :)


  1. poisk_tut
    29.07.2018 22:44

    Результаты тестов ACLU показали, что Rekognition ошибочно приняла изображения 28 невинных конгрессменов за преступников. Интересно, что неправильные срабатывания искажены в сторону людей с чёрным цветом кожи.


    Зачем городить огород. Кто это люди из ACLU?
    Тестированием систем распознания лиц занимается подразделение NIST.
    www.nist.gov/programs-projects/face-recognition-vendor-test-frvt-ongoing

    В тестировании могут принять участие разработчики, коммерческие организации, институты.
    Тестирование бесплатное, по итогам, простые смертные могут ознакомиться с отчетом.
    Так вот, согласно последней публикации в ТОП 10 компаний/организаций поставщиков решения в области распознавания лица американских компаний нет.
    Прошу любить и жаловать (по версии NIST)

    1 yitu-001 — Китай
    2 siat-002 — Китай
    3 ntechlab-004 — РФ
    4 vocord-004 — РФ
    5 megvii-001 — Китай
    6 isystems-001 — РФ
    7 megvii-000 — Китай
    8 visionlabs-003 — РФ
    9 yitu-000 — Китай
    10 psl-000 — Подразделение Panasonic

    Как видно из таблички, Китай и РФ лидеры в области распознавания лица.
    Причем, ни о какой ошибке в 5% на определенном датасете речи быть не может, ошибка у лидера составляет всего 0.007%, а у замыкающего ТОП -10, 0.033%.
    По мимо вероятности распознавания господа из NIST замеряют и скоростные характеристики, дабы понимать, а можно ли вообще использовать эти алгоритмы в «боевых условиях», а вот тут не все хорошо, самые точные алгоритмы требуют больших вычислительных ресурсов.

    Кодовое имя Страна Время обнаружения лица и
    алгоритма построения дескриптора
    (чем выше, тем хуже)

    1 yitu-001 — Китай 751 мс
    2 siat-002 — Китай 579 мс
    3 ntechlab-004 — РФ 818 мс
    4 vocord-004 — РФ 619 мс (использует GPU)
    5 megvii-001 — Китай 543 мс
    6 isystems-001 — РФ 291 мс
    7 megvii-000 — Китай 785 мс
    8 visionlabs-003 — РФ 231 мс
    9 yitu-000 — Китай 672 мс
    10 psl-000 — Подразделение 629 мс
    Panasonic

    Самое низкое время у российского алгоритма visionlabs-003 (8 в списке лидеров), следом за ним также российский алгоритм isystems-001 (6 в списке лидеров), далее, расположились алгоритмы из Китая и потом снова РФ.

    Я призываю товарищей из ACLU сначала протестировать технологию распознавания лиц от ведущих поставщиков решения (по версии NIST, США), ну и только потом призывать Конгресс «ввести мораторий»…


  1. NIKOSV
    30.07.2018 01:58

    Сдается мне что разница просто в методиках тестирования и в задачах, которые ставятся перед алгоритмами. Будь кто-то из этого списка более подходящим чем алгоритм Амазона — Амазон бы его купил с потрохами не думая. А раз не купил, значит они либо хуже, либо не применимы для задач в которых собирается использовать Амазон. Там же не идиоты сидят.


    1. poisk_tut
      30.07.2018 05:05

      Группа инвесторов, в том числе Alibaba Group и Boyu Capital, вложили порядка $600 млн в Megvii Inc., китайского разработчика системы распознавания лиц Face++. Об этом в понедельник сообщает Bloomberg со ссылкой на источники.

      abnews.ru/2018/07/23/alibaba-vlozhila-600-mln-v-razrabotchika-sistemy-raspoznavaniya-lic

      Megvii Inc — Пятый в списке NIST


  1. Mike_soft
    31.07.2018 17:48

    ждем сообщения «Система распознавания лиц Amazon Rekognition приняла 28 преступников за конгрессменов США»


    1. MaxVetrov
      31.07.2018 19:10

      Ага, приняла, накормила и спать уложила.