Американский союз гражданских свобод (American Civil Liberties Union, ACLU) продолжает кампанию против использования систем распознавания лиц федеральными агентствами и полицией. ACLU настаивает, что качество этих систем слишком низкое для реального использования. В результате будет много ложных срабатываний, из-за чего пострадают невинные люди. Пытаясь убедить Конгресс США запретить использование этих систем, правозащитники предприняли дерзкую, но эффективную акцию: они прогнали через систему распознавания лиц Amazon Rekognition всех американских конгрессменов. Результат оказался немного предсказуем: система распознала 28 конгрессменов как преступников. Фотографии «героев» на скриншоте вверху.
Amazon агрессивно продвигает свою систему распознавания лиц. Недавно стало известно, что корпорация заключила контракты с полицейскими подразделениями округа Вашингтон, штатов Орегон и Флорида. Руководитель компании Джефф Безос позиционирует Rekognition как эффективный инструмент распознавания лиц в реальном времени, в том числе по видеопотоку, который поступает с носимых видеокамер на униформе полицейских.
Это напоминает систему, которую в этом году начали тестировать в некоторых городах Китая, в том числе в городе Чжэнчжоу (провинция Хэнань на востоке центральной части Китая). Там полицейским выдали специальные очки с видеокамерами, которые тоже подключены к программному обеспечению для распознавания лиц.
Гаджеты выдали в первую очередь сотрудникам транспортной полиции, которые работают на оживлённой железнодорожной станции Восточный Чжэнчжоу, потому что перед их глазами проходит больше всего людей. Очки специально разработаны для полиции и подключены к наладонному компьютеру. После сканирования лица прохожего компьютер подключается к центральной базе данных, где осуществляется поиск совпадений. Эксперимент доказал свою эффективность: к 6 февраля полиции удалось идентифицировать семь беглецов, которые обвиняются в скрытии с места ДТП и торговле людьми.
Но в Китае к защите прав человека относятся более снисходительно: там уже на улицах работает 170 млн камер видеонаблюдения, которые подключены к единой системе распознавания лиц. Ложноположительные срабатывания никого особо не смущают, если система помогает ловить реальных преступников.
А вот американские правозащитники считают, что ложноположительные срабатывания — свидетельство того, что система ещё не готова к использованию.
Результаты тестов ACLU показали, что Rekognition ошибочно приняла изображения 28 невинных конгрессменов за преступников. Интересно, что неправильные срабатывания искажены в сторону людей с чёрным цветом кожи. Среди «пострадавших» конгрессменов таких 39%, хотя в реальности темнокожие конгрессмены составляют лишь 20% нижней палаты парламента. Такие результаты подтверждают опасения представителей чернокожих групп, которые изложены в письме Congressional Black Caucus в адрес Amazon, что использование системы распознавания лиц может иметь «глубокие негативные непреднамеренные последствия» для чернокожего населения, незаконных мигрантов и участников акций протеста. В самом деле, есть признаки того, что система чаще ошибается при сравнении чернокожих лиц, особенно женщин.
Ну а вообще под раздачу попали все — и демократы, и республиканцы, и мужчины, и женщины, всех возрастов из разных регионов страны. Все они попали в число ошибок системы.
Представители ACLU считают, что каждое ложноположительное срабатывание подвергает угрозе свободу человека. Полицейский может предвзято относиться к такому человеку, подвергнув его допросу или обыску.
Сканирование произведено на общедоступном сервисе Amazon Rekognition, стоимость услуги составила $12,33. Для сравнения с фотографиями 535 конгрессменов и сенаторов выбрали 25 000 публично доступных фотографий людей в наручниках. Тест проводился с настройками по умолчанию. 28 ошибок означают примерно 5% ложноположительных срабатываний. Теоретически это может и неплохой результат, но если применить её на тысячах лиц, то это означает множество невинных людей, которых подвергнут обыскам из-за ошибки программы.
Конечно, все результаты программы будут проверяться людьми, но все мы знаем, что такие системы могут быстро выйти из-под контроля и перейти в автоматический режим, как это случилось с системой выдачи штрафов за превышение скорости.
ACLU призвал Конгресс «ввести мораторий» на использование данной технологии, пока она не начнёт выдавать приемлемую точность.
Комментарии (89)
VBKesha
28.07.2018 18:51+11То что симтема видит в 28 конгременах преступников, ещё не значит что она ошибается.
Welran
28.07.2018 20:03+4Шутка конечно забавная, но система не определяет преступные наклонности или нераскрытые преступления, а проверяет находится ли данный человек в списке разыскиваемых преступников. В который, очевидно, конгрессмены не входят.
Syzd
29.07.2018 10:47Почему очевидно? Может входят? В молодости ограбили кого-то, мошенничали, убили. Попали в разработку, сразу не нашли, но потом их преступления засекретили?
zxweed
29.07.2018 11:54-1странно, что в остальных 500 она их не видит — видимо, действительно очень низкая точность.
TuMaN1122
28.07.2018 19:19+5Мне кажется программа отработала как надо. Стоит проверить этих конгрессменов.
Hardcoin
28.07.2018 19:44-1семь беглецов, которые обвиняются в скрытии с места ДТП и торговле людьми.
Интересные семь беглецов. В Китае это преступления примерно одинаковой степени тяжести?
olgerdovich
28.07.2018 21:07+3Интересно, что неправильные срабатывания искажены в сторону людей с чёрным цветом кожи. Среди «пострадавших» конгрессменов таких 39%, хотя в реальности темнокожие конгрессмены составляют лишь 20% нижней палаты парламента.
казалось бы, надо сравнивать с долей темнокожих среди преступников, а не среди конгрессменов — но такая постановка вопроса, похоже, сильно отдает неполиткорректностью, и на всякий случай Американский союз гражданских свобод (American Civil Liberties Union, ACLU) не стал указывать разумную постановку вопроса, а привел формулировку, позволяющую подтвердить опасения представителей чернокожих групп. Конечно, привлекать людей в свои ряды — понятный мотив, но подтасовывать формулировки ради этого не есть хорошо.daiver19
29.07.2018 07:23казалось бы, надо сравнивать с долей темнокожих среди преступников,
Потому что..? Всё правильно они посчитали, неясно только, что с доверительным интервалом.olgerdovich
29.07.2018 16:11+1Соглашусь, есть один тонкий момент, который на бытовом уровне мне показался очевидным — в свете известных претензий к американской полиции по поводу притеснений чернокожих, что-де их преследуют больше, чем белых, хотя при этом не обсуждают, насколько оснований для преследований действительно больше и какова доля чернокожих среди «преследующих» полицейских; словом в обсуждении важного для США расового вопроса встречаются манипуляции статистикой, порой весьма незамысловатые, но для среднего человека незаметные, а звучащие ярко и броско.
Кроме того, признаюсь, что мое первоначальное впечатление при детальном анализе мне пришлось несколько скорректировать.
Тонкий момент состоит в том, насколько система может спутать чернокожего и белого. Будь у нас вместо этой системы много-много полицейских с наметанным глазом (которые вряд ли перепутают белого и чернокожего), ситуация выглядит очевидной, с неизвестно как устроенной системой это не так, хотя определенные догадки тут тоже можно сформулировать.
Итак, пусть у нас доля чернокожих среди (занесенных в базу) преступников X, среди конгрессменов (по условиям эксперимента — заведомо не преступников) — Y, среди конгрессменов, принятых за преступников, — Z. В статье указано, что Z>Y, величина X не обсуждается вовсе.
Если система ошибается совершенно произвольно, то есть на фото конгрессмена в случае ошибки совершенно случайно тыкает на «преступник»/«не преступник», то, действительно, должно быть Z=Y.
В самом деле, пусть система сопоставляет фото невиновного (конгрессмена) с фотографией преступника в базе (общим размером N) равновероятно с какой-то малой вероятностью p. Тогда и белому и чернокожему конгрессмену предстоит стать преступником с вероятностью N*p. Соответственно, для w белых конгрессменов ожидается w*N*p преступников, для b чернокожих конгрессменов ожидается b*N*p преступников. Пусть всего в Конгрессе b+w человек, тогда Y = b/(b+w), 1-Y = w/(b+w), w = (1-Y)*(b+w), b = Y*(b+w).
Соответсвенно, доля чернокожих преступников-конгрессменов будет Z=b*N*p/{b*N*p+w*N*p}=b/{b+w}= Y
Однако совершенно случайную ошибку при неслучайной правильной работе подозревать странно (и, больше того, наверно по различному поведению такие ошибки можно было бы вычленять с пометкой типа «неопределенный результат»), все же это ошибка в работе некоторого алгоритма, поэтому этот вариант выглядит весьма искусственным — хотя с указанными искусственными оговорками логически безупречно.
Теперь предположим, что система не идеальна, но безошибочно различает чернокожего и белого, то есть, условно, сразу определяет предъявленную фотографию в одну из двух категорий, а затем ищет соответствие в так же разделенной на две категории базе (общим размером N), при этом называет сопоставляет фото невиновного (конгрессмена) с фотографией преступника равновероятно с какой-то малой вероятностью p уже после проведения такой классификации. Тогда белому конгрессмену предстоит стать преступником с вероятностью (1-X)*N*p, а чернокожему — X*N*p. Соответсвенно, для w белых конгрессменов ожидается w*(1-X)*N*p преступников, для b чернокожих конгрессменов ожидается b*X*N*p преступников. Пусть всего в Конгрессе b+w человек, тогда Y = b/(b+w), 1-Y = w/(b+w), w = (1-Y)*(b+w), b = Y*(b+w).
Соответсвенно, доля чернокожих конгрессменов-преступников Z=
b*X*N*p/{w*(1-X)*N*p+b*X*N*p}=
b*X/{w*(1-X)+b*X}=
Y*(b+w)*X/{(1-Y)*(b+w)*(1-X)+Y*(b+w)*X}=
Y*X/{(1-Y)*(1-X)+Y*X}=
Y*X/{1-Y-X+2X*Y}
(тут надо бы проверить, что знаменатель никогда не обращается в нуль при X<=1, Y<=1, но, кажется, это так есть, кроме неприятных случаев X=0, Y=1 и наоборот, но тогда и числитель зануляется. Чуть позже разберусь)
Как видите, и доля чернокожих конгрессменов, и доля чернокожих преступников в такой модели входит в итоговую долю чернокожих преступников-конгрессменов на равных правах. Насколько такая модель реалистична?
Мне представляется, что весьма. Полицейские в своих сводках цвет кожи как признак (судя по фильмам) выделяют чуть ли не в первую очередь, признак отчетливый и надежный, поэтому разделять сразу по этой категории для полицейских вполне естественно. Думаю, что автоматическая система тоже легко способна этот признак вычленить и весьма вероятно он стоит высоко в иерархии анализа. Так что если мы считаем, что система в целом работает верно и лишь иногда сбоит, то есть основания учитывать и долю чернокожих среди преступников, а не только среди конгрессменов.
Любопытно посмотреть на предельные случаи Z=Y и Z=X в этой модели.
Подставляя Y = Y*X/{1-Y-X+2X*Y}, после преобразований получим
(2X-1)*Y^2 = (2X-1)*Y,
или (2X-1)*(Y^2-Y) = 0
Далее, (Y^2-Y)=0 соответствует Y=0 и Y=1, расово чистым вариантам Конгресса, действительно, доля чернокожих конгрессменов-преступников среди конгрессменов-преступников будет равняться нулю (единице) за отсутствием чернокожих (белых) конгрессменов.
Проверяя 2X-1 = 0, получим, что доля чернокожих конгрессменов-преступников среди конгрессменов-преступников будет равняться доле чернокожих конгрессменов за счет равного представительства чернокожих и белых в базе преступников и расово-независимой ошибки системы.
Второму варианту, равному представительству чернокожих преступников среди простых краждан и в Конгрессе, соответствуют
X = Y*X/{1-Y-X+2X*Y} и
(2Y-1)*(X^2-X) = 0
Соответственно,
X=0: чернокожих нет в преступном мире, соответсвенно, всякий конгрессмен, определенный как преступник, не чернокожий.
X=1: белых нет в преступном мире, соответсвенно, всякий конгрессмен, определенный как преступник, — чернокожий.
Y = 0.5: равное представительство черных и белых в Конгрессе позвооляет за счет случайности ошибки воспроизвести пропорцию криминального мира.daiver19
29.07.2018 18:51Если система ошибается совершенно произвольно, то есть на фото конгрессмена в случае ошибки совершенно случайно тыкает на «преступник»/«не преступни
Неверно. Равная вероятность ошибки не эквивалентна случайному выбору. Мы должны считать непредвзятую модель черным ящиком, который делает ошибки с равной вероятностью для любого признака. Случайная модель будет обладать этим свойством, но при этом абсолютная величина ошибки будет велика. Это не значит, что не существует более точной модели с этим свойством.
Иными словами если модель качественная, то её вывод не должен зависеть от распределения входных данных. В этом случае сложно сказать состоит ли проблема в неправильной тренировке либо в фундаментальной проблеме в самой модели (т.е.недостаточном количестве фич для сравнения чернокожих людей).
Frankenstine
31.07.2018 16:39Эм, кажется всё это можно было сформулировать короче: чёрнокожие меньше отличаются друг от друга, чем белокожие. Поэтому и процент ложноположительных для них выше.
GeekberryFinn
31.07.2018 19:24Не меньше. Просто, система, которую тренировали на белых, с трудом различает не белых.
idiv
28.07.2018 21:09+4В результате будет много ложных срабатываний, из-за чего пострадают невинные люди.
Во-первых, здесь бы не помешал анализ, например, неприемлемо обыскивать 10, если только 10-й окажется разыскиваемым карманником, но вполне ничего, если речь идет об убийце. Или вообще неприменимо такое сравнение, спокойствие случайного прохожего не стоит нарушать из-за пары трупов (да, это уже доведение до абсурда).
Во-вторых:
Результат оказался немного предсказуем: система распознала 28 конгрессменов как преступников. Фотографии «героев» на скриншоте вверху.
А слабо было фотки те разместить, за кого их приняли? Система же не просто говорит «он преступник», а что-то вроде «Это Джон Смит, убийца, с вероятностью 80%» (последнее может и опускаться, тут спорный вопрос о необходимости информации). Может там реально двойники разыскиваемых, тогда при чем тут система?
В целом же все подобные организации (и эта вроде тоже) сторонники свободного перемещения по всему миру. Если раньше можно было локализовать преступников (попробуй границу пересечь, когда тебя ищут), то в случае того же ЕС это работает сейчас вообще никак, потому система распознавания была бы неплохим решением, не с ней нужно бороться, а с ее контролем.i86com
29.07.2018 03:09А слабо было фотки те разместить, за кого их приняли? Система же не просто говорит «он преступник», а что-то вроде «Это Джон Смит, убийца, с вероятностью 80%» (последнее может и опускаться, тут спорный вопрос о необходимости информации). Может там реально двойники разыскиваемых, тогда при чем тут система?
Там вообще в оригинале своеобразная история. Они пишут, что взяли публичный (платный) доступ к Amazon Rekognition, добавили туда 25к фоток с задержаний (сами собрали, видимо) и протестировали фотки из конгресса на соответствие базе.
Пишут, что использовали дефолтные настройки. Не выкладывают фотки ложных совпадений (т.е. вообще ничего, кроме слов, что доказывало бы их существование и ложность). Не упоминают, как подобный результат может меняться с изменением размера базы или например, количества не-криминалов в ней. А вот это было бы интересно почитать.
Но так-то да, если технология на реальных объёмах не работает, то на неё просто перестанут обращать внимание. Как на любой другой тревожный индикатор, у которого false positives случаются каждый день.andrewdrone
29.07.2018 07:45Идея здравая, реализация как всегда…
Они пишут, что взяли общедоступные фотографии арестов(аных) людей. Типа <ок, гугл, покажи мне фотографии людей в наручниках>. Реальная база полиции в. тестах не участвовала. С учетом малой выборки и того факта, что политиками в США часто становятся люди публичные, результат немного предсказуем заранее. А дальше началось натягивание совы на глобус. С тем же упехом можно было взять "общедоступные фото русских сотрудников правоохранительных органов" и заявить что вот экс губернатор Калифорнии — засланый казачок, но доказательств мы не покажем!
saloid
29.07.2018 22:43Получается примерно так: «Эта ваша система не работает, ее надо запретить. Ну… то есть наша… Мы ее даже не настраивали… Но не работает.».
Вообще мне кажется, что если из сотни людей оно покажет 50 подозриетльных, то это, как минимум, вдвое уменьшит количество работы для тех, кто это визуально проверяет. Или эти правозащитники считают что сработка системы означает автоматическую посадку человека за решетку, без разбирательств и банальной ручной проверки на совпадение с фото реального преступника?
aavezel
29.07.2018 10:55А слабо было фотки те разместить, за кого их приняли
Там же нейросетка, а не система сравнения. Нейросетка сравнивает измерения(?) и говорит, что с таким то процентом показанное лицо находится в обучаемой выборке. А дальше ЛТР решает какой процент является приемлемым и, если хочет, запускает систему сравнения, которая работает намного дольше.idiv
29.07.2018 14:19Нейросетка сравнивает измерения(?)
А сравнение наугад или по доверительному интервалу все же? И если сравнивает, то в любом случае нужно указывать, что было оригиналом, одно дело полиции указать на подозреваемого в мошенничестве, а другое — участник банды, принимающей участие в вооруженных ограблениях.
Imposeren
29.07.2018 14:25На самом деле могли и «конкретные имена» находить.
aws.amazon.com/ru/rekognition/image-features
> РАСПОЗНАВАНИЕ ЛИЦ
> Rekognition Image позволяет находить похожие лица в больших наборах изображений. За счет этого можно создавать списки найденных на изображениях лиц. Быстрый и точный поиск Rekognition Image возвращает все лица, максимально похожие на указанное.
> СРАВНЕНИЕ ЛИЦ
> Rekognition Image позволяет оценить вероятность того, что лица на двух разных изображениях принадлежат одному и тому же человеку. С помощью Rekognition можно сверять изображение пользователя с исходной фотографией на основании значения сходства в режиме, близком к реальному времени.
Короче вариантов того что именно они делали — много, а деталей о том что делали — мало.
Jeyko
29.07.2018 00:34Преступления бывают разные, в том числе и политические и экономические. Так шта…
kinjalik
29.07.2018 01:16Стоит обратить внимание, что в США человек в наручниках != преступник. У них в наручники одевают всех, на кого есть подозрения, до выяснения всех обстоятельств.
aamonster
29.07.2018 16:25Ну, если я правильно понял суть эксперимента — это неважно. Определялось не криминальное прошлое конгрессменов :-), а принадлежат ли их лица к множеству лиц с эталонных фоток. Для такого теста можно было взять не людей в наручниках, а, допустим, людей, одетых в зелёное.
phenik
29.07.2018 07:35Когда же дойдет черед до распознания мордяшек кошек и собак, так проще было бы искать пропавших.
toxicdream
31.07.2018 13:53требую распознавание хомячков и морских свинок, иначе это дискриминация по видовому признаку…
GeekberryFinn
29.07.2018 08:26+1каждое ложноположительное срабатывание подвергает угрозе свободу человека. Полицейский может предвзято относиться к такому человеку, подвергнув его допросу или обыску
Если бы только обыску и допросу! Американский коп может и перенервничав пристрелить, если у тебя в кобуре твой законно купленный ствол, а ты оказался похож мордой на разыскиваемого опасного преступника за которым числятся трупы, и ему показалось, что ты потянулся к стволу.idiv
29.07.2018 10:20+1Тут нужно сильно постараться, как правило. Практически во всех видео стрельбы тот, в кого стреляли, по какой-то причине вел себя странно (вроде полицейский просит не двигаться, а подозреваемый продолжает двигаться). Т.е. реальных случаев, когда полицейский застрелил сходу кого-то очень мало, если вообще есть.
F0iL
29.07.2018 16:12Очень показательное видео на темуErnillgeek
29.07.2018 21:38Тебя уже пристрелили, я так понимаю? Или ты повторяешь вранье Задорнова и методичек?
GeekberryFinn
29.07.2018 21:50vindy123
29.07.2018 11:17Столько раз уже это пережевывалось. Недавно же была подобная хайповая статья-компиляция про «ужасную» систему распознавания лиц на стадионах.
Было бы очень хорошо, если бы Ализар с Марксом усвоили суть определений ложноположительного и ложноотрицательного срабатываний и разницу между ними.
Проведем мысленный эксперимент. В видеозаписях с массива полицейских камер есть 1 млн лиц. Из них 10 — преступники, которых необходимо опознать.
Без системы распознавания лиц оператору нужно рассмотреть 1 млн лиц, чтобы достичь цели.
С системой распознавания, которая дает 9 ложноположительных срабатываний из 10, оператору нужно рассмотреть всего 100 лиц.
Так какие претензии к системе? Кто сказал, что такой результат — это плохо?Dipet_D_M
29.07.2018 22:45Так чего вы к Ализару-то прицепились? Это просто перевод новости, не Ализар делал выводы.
vindy123
30.07.2018 09:48Пардон, а разве выбор того, что именно переводить для публикации на хабре — это не задача редактора? Давайте они нам сейчас напереводят тут газету Sun про инопланетян с планеты Нибиру, а мы схаваем?
Моя претензия к Ализару и Марксу состоит в том, что они либо а) не обладают минимальными знаниями, чтобы отделять зерна от плевел, либо б) понимают, что публикуют шлак, но также понимают, что желтуха и кликбейт — это тоже трафик.
Лично я склоняюсь ко второму варианту, и от этого мне грустно )
Insane11
29.07.2018 11:38но все мы знаем, что такие системы могут быстро выйти из-под контроля и перейти в автоматический режим, как это случилось с системой выдачи штрафов за превышение скорости
Это когда депутатам и прочим «неприкасаемым» стали штрафы приходить? Ужасная трагедия…
AntonSazonov
29.07.2018 15:42Шутки — шутками, но мне как-то раз сотрудники милиции предложили побыть опознаваемым…
Некий гражданин, приметами "смахивающий" на меня, ограбил тётку (скорее даже бабку). Честно говоря, мне было немного не по себе, когда она чуть не ткнула пальцем в меня, опираясь на сходство.
Такая система меня пугает...chesterset
29.07.2018 16:06Ткнула бы — вам ничего не было бы, вы играли роль массовки, а обвиняемый/подозреваемый смог бы напирать на тот факт, что опознающий не смог указать на подозреваемого.
По делу — система распознавание лиц, конечно, может быть использована во вред. Аргументы о невинно задержанных/осмотренных имеют право на жизнь и вполне резонны. Но, как и любой инструмент, это можно использовать и во благо, главное кто использует и как. Система опознавания лиц в силу своей несовершенности и из объективных причин (наличие двойников, крайне похожих внешне людей и т.д.) не может служить основанием для задержания. Грубо говоря, если полицейскому система сообщает, что человек в красном похож на разыскиваемого, это не должно быть поводом для маски шоу или рука-кобура-пистолет. Она должна привлекать внимание полицейского к человеку, дальше полицейский может попросить человека показать удостоверение личности или может сам взять да сравнить внешность человека с фотографией разыскиваемого. Плохо ли это? Плохо, если искать будут не преступников, а оппозиционеров и других людей. Если строго зарегулировать попадание человека в базу, по которой система сверяет, тогда многих проблем можно избежать. При условии, что законодательство страны не допускает объявление в розыск человека за участие в митинге против или за что-то, разумеется.AntonSazonov
29.07.2018 16:30На тот момент я этого не знал. Но за пояснения спасибо.
dtBlack
30.07.2018 12:04Это называется побыть статистом. И по правилам следователи на роль статиста должны найти схожих внешне людей. Но на практике это не соблюдается, в связи с утопичность в некоторых случаях.
Поди найди похожего человека на улице, который согласится побыть статистом и у которого с собой документы есть, и который должен быть схож с рецидивистом всю жизнь зоны топтавшим.JobberNet
30.07.2018 12:17Ну, так теперь система распознавания лиц позволит для каждого рецидивиста иметь свой личный список статистов.
А ещё, утечка данных может привести к тому, что рецидивист с поддельными документами сможет успешно выдавать себя за своего статиста.
GeekberryFinn
29.07.2018 21:59Грубо говоря, если полицейскому система сообщает, что человек в красном похож на разыскиваемого, это не должно быть поводом для маски шоу или рука-кобура-пистолет.
Если полицейскому сообщат, что этот человек разыскиваем за убийство и наверяка вооружён, то будет именно рука-кобура-пистолет. Потому что полицейскому тоже жить хочется.
dzhumaiev
29.07.2018 22:43«нравятся» мне такие статьи — много эмоций и немного сарказма, только вот разница в том, что в «китае себе могут позволить» ввести в эксплуатацию систему в заведомо известным процентом погрешности выше целевого и обкатывать в жизни, а потом анонсировать там например сотню идентифицированных преступников, но умолчать о тысячах взятых временно под стражу из-за ошибки системы, а в «америках» этого позволить не могут себе, вопрос почему, да ответ — потому, что китай фабрика, а америка потребитель :)
poisk_tut
29.07.2018 22:44Результаты тестов ACLU показали, что Rekognition ошибочно приняла изображения 28 невинных конгрессменов за преступников. Интересно, что неправильные срабатывания искажены в сторону людей с чёрным цветом кожи.
Зачем городить огород. Кто это люди из ACLU?
Тестированием систем распознания лиц занимается подразделение NIST.
www.nist.gov/programs-projects/face-recognition-vendor-test-frvt-ongoing
В тестировании могут принять участие разработчики, коммерческие организации, институты.
Тестирование бесплатное, по итогам, простые смертные могут ознакомиться с отчетом.
Так вот, согласно последней публикации в ТОП 10 компаний/организаций поставщиков решения в области распознавания лица американских компаний нет.
Прошу любить и жаловать (по версии NIST)
1 yitu-001 — Китай
2 siat-002 — Китай
3 ntechlab-004 — РФ
4 vocord-004 — РФ
5 megvii-001 — Китай
6 isystems-001 — РФ
7 megvii-000 — Китай
8 visionlabs-003 — РФ
9 yitu-000 — Китай
10 psl-000 — Подразделение Panasonic
Как видно из таблички, Китай и РФ лидеры в области распознавания лица.
Причем, ни о какой ошибке в 5% на определенном датасете речи быть не может, ошибка у лидера составляет всего 0.007%, а у замыкающего ТОП -10, 0.033%.
По мимо вероятности распознавания господа из NIST замеряют и скоростные характеристики, дабы понимать, а можно ли вообще использовать эти алгоритмы в «боевых условиях», а вот тут не все хорошо, самые точные алгоритмы требуют больших вычислительных ресурсов.
Кодовое имя Страна Время обнаружения лица и
алгоритма построения дескриптора
(чем выше, тем хуже)
1 yitu-001 — Китай 751 мс
2 siat-002 — Китай 579 мс
3 ntechlab-004 — РФ 818 мс
4 vocord-004 — РФ 619 мс (использует GPU)
5 megvii-001 — Китай 543 мс
6 isystems-001 — РФ 291 мс
7 megvii-000 — Китай 785 мс
8 visionlabs-003 — РФ 231 мс
9 yitu-000 — Китай 672 мс
10 psl-000 — Подразделение 629 мс
Panasonic
Самое низкое время у российского алгоритма visionlabs-003 (8 в списке лидеров), следом за ним также российский алгоритм isystems-001 (6 в списке лидеров), далее, расположились алгоритмы из Китая и потом снова РФ.
Я призываю товарищей из ACLU сначала протестировать технологию распознавания лиц от ведущих поставщиков решения (по версии NIST, США), ну и только потом призывать Конгресс «ввести мораторий»…
NIKOSV
30.07.2018 01:58Сдается мне что разница просто в методиках тестирования и в задачах, которые ставятся перед алгоритмами. Будь кто-то из этого списка более подходящим чем алгоритм Амазона — Амазон бы его купил с потрохами не думая. А раз не купил, значит они либо хуже, либо не применимы для задач в которых собирается использовать Амазон. Там же не идиоты сидят.
poisk_tut
30.07.2018 05:05Группа инвесторов, в том числе Alibaba Group и Boyu Capital, вложили порядка $600 млн в Megvii Inc., китайского разработчика системы распознавания лиц Face++. Об этом в понедельник сообщает Bloomberg со ссылкой на источники.
abnews.ru/2018/07/23/alibaba-vlozhila-600-mln-v-razrabotchika-sistemy-raspoznavaniya-lic
Megvii Inc — Пятый в списке NIST
ClearAirTurbulence
Вполне вероятно, что система Amazon что-то знает про о этих конгрессменов… Может, они демонстрируют специфические паттерны при покупке товаров? Надо бы их на всякий случай проверить)