Как выяснили журналисты Financial Times, Apple намерена внедрить в свои iPhone бэкдор, который позволит ее специалистам сканировать устройства на наличие фотографий жестокого обращения с детьми. Специалисты по безопасности заявляют об опасности тотальной слежки за пользователями смартфонов.
По информации журналистов, Apple решила сканировать iPhone пока только в США, где компания установит на смартфоны специальное программное обеспечение. Система будет постоянно сравнивать фотографии на iPhone и в облаке iCloud с базой из 200 тысяч собранных правозащитниками изображений жестокого обращения с детьми. Каждое фото будет отмечаться, и, если наберется определенное число подозрительных снимков, Apple расшифрует эти файлы для проверки специалистами-людьми. Они смогут передать фотографии в правоохранительные органы.
FT выяснила, что система получит название neuralMatch, а детали ее работы раскрыли нескольким исследователям. Apple может публично рассказать о проекте на этой неделе.
По данным журналистов, компания пытается найти компромисс между охраной конфиденциальности пользователей и требованием сотрудничества от властей, в том числе в борьбе с терроризмом и детской порнографией. Ранее Apple отказалась помогать ФБР в разблокировке iPhone подозреваемого в стрельбе в Калифорнии: компания пошла в суд, но власти отозвали требование к Apple, взломав смартфон самостоятельно. Аналогичные обвинения против компании звучали позднее, после инцидента со стрельбой в базе ВМФ во Флориде.
Профессор компьютерной безопасности Университета Суррея Алан Вудвард предположил, что Apple применит децентрализованный подход. В этом случае проверка файлов будет происходить на самом iPhone, и только при совпадении уведомление будет уходить команде компании.
Однако исследователи в области безопасности считают, что этот шаг компании приведет к слежке за миллионами персональных устройств, а власти разных стран попытаются посредством бэкдора получить доступ к личным данным их жителей. Профессор проектирования безопасности Кембриджского университета Росс Андерсон расценил идею Apple как «ужасную», которая приведет к «распределенной массовой слежке» за смартфонами и ноутбуками.
Исследователи отмечают, что систему можно натренировать также на поиск изображений с запрещенной символикой или на другие сценарии.
Наконец, шаг Apple может привести к еще большему давлению на другие технологические компании.
Профессор по безопасности Университета Джонса Хопкинса Мэттью Грин, который рассказал о проекте журналистам, сравнил его с прорывом дамбы, потому что «правительства будут требовать того же от каждого».
Шаг Apple осудил Фонд электронных рубежей. Там данную меру назвали радикальным разворотом от конфиденциальности. В EFF напомнили, что в настоящее время, хотя Apple имеет ключи для просмотра фотографий, хранящихся в iCloud, компания не сканирует эти изображения. Вводимый механизм правозащитники считают новым опасным инструментом в руках тоталитарных режимов. Они также напоминают, что алгоритмы машинного обучения не раз ловили на ложной классификации изображений сексуального характера, в том числе, статуй и даже щенков. Более того, употреблять термин «сквозное шифрование» для iMessage теперь будет в корне неверным, подчеркивают в EFF.
Пользователи, судя по всему, тоже далеко не в восторге от этой идеи. Они указывают, что сканирование снимков, как минимум, грозит сливами фото в открытый доступ и прочими инцидентами безопасности.
Комментарии (105)
Gorthauer87
06.08.2021 14:52+5А потом ещё дальше больше разных групп, за которыми следить надо и так далее до борьбы с любым инакомыслием.
Tamerlanchiques
06.08.2021 16:12+2Да. Подобные инициативы корпораций точно не нужно поощрять. Вполне вероятно, что мы увидим больше Open Source решений от маленьких компаний по типу Pine64 в ближайшее время.
Tyusha
06.08.2021 17:06+10В вашем смартфоне преобладают фото белых гетеросексуальных мужчин и женщин. Вы расист и гомофоб... Мы сообщили, куда следует.
balamutang
06.08.2021 14:53+11Блокировки в Рунете тоже сначала на благо детей проталкивались, беспроигрышная тема.
Andrey_Epifantsev
06.08.2021 15:11+4Прямо киберпанк какой-то. Мегакорпорации навязывают всем свои правила и законы.
Bellerogrim
06.08.2021 15:16+17> Вводимый механизм правозащитники считают новым опасным инструментом в руках тоталитарных режимов
А, то есть в руках демократических режимов это нормальный, совершенно безопасный инструмент? Ясно-понятно.Flux
06.08.2021 16:25+12Надо понимать что это другое.
Вы тут не путайте тоталитарную слежку с демократической заботой о детях, ладно?
Да и вообще, Apple — частная компания, что хочет то и делает, не нравится — не покупайте.</ sarcasm>
namikiri
06.08.2021 16:39+1не нравится — не покупайте
А вот это уже вполне себе здравая мысль, да грустно вот, что, как говорится, пипл хавает. Мы тут возмущаемся, а большинству плевать, что там куда грузится — интернет безлимитный, производительности хватает чтобы в фоне прогнать все фоточки и посчитать их хэши, никто ничего и не заметит.
illegally_happy
06.08.2021 15:24+8ошейник iSlave всего за 999$ !!!
tropico
06.08.2021 16:59Гугл - имеем целый сайт где описано как мы сканируем контент на всех наших сервисах с конкретной статистикой. В 2014 еще были новости как ловили педофилов.
Пользователи - <ничего не замечают>Apple - будем сканировать как в Гугле
Пользователи - <ну все, Apple на костер>wyfinger
06.08.2021 17:29+3Google сканирует фото на моем телефоне с андройдом?
Пруфы?
Andy_Big
06.08.2021 17:36+2На телефоне с андройдом — нет, и даже на телефоне с андроидом нет. В облаках, куда попадают фотки с телефонов на андройдах и андроидах — да.
Почти так же и у Эпл — фотографии будут сравниваться с базой педофильных фотографий перед отправкой в облако. Как у Гугла, только часть обработки переложена с сервера на телефон.kasthack_phoenix
06.08.2021 19:32>В облаках, куда попадают фотки с телефонов на андройдах и андроидах — да.
Они туда не попадают, если их туда не заливать.
>Как у Гугла, только часть обработки переложена с сервера на телефон.
Тут есть принципиалная разница, что они свои щупальца засовывают в телефон пользователя. Они могут у себя сканировать, чтобы не хранить на своих серверах контент.
Andy_Big
06.08.2021 19:35Они туда не попадают, если их туда не заливать.
Совершенно верно. Как и у Эпла.pfa
07.08.2021 01:02При этом у Эпла теперь будут сканироваться даже те фото, которые в облака не попадают. В отличие от.
Andy_Big
07.08.2021 01:26Они будут сканироваться перед тем как отправиться в облако, в процессе подготовки к этому.
pfa
07.08.2021 02:06+5Окей, перефразирую: теперь нам придется верить Эплу на слово, что механизм, имеющий возможность сканировать что угодно на предмет чего угодно на девайсе пользователя, будет сканировать только фото и только перед отправкой в облако.
tropico
07.08.2021 14:35Окей, перефразирую: теперь нам придется верить Эплу на слово
Вам можно и не верить. Если яблоко такое сделает (оно в контексте приватности никогда не врало и не делало как-то иначе, а вот Гугл со своим оффлайн-шпионажем и штрафами дело другое), репорт не будет иметь юридической силы, так как компания делала действия, не поставив в известность пользователей (клиентов). Дело даже не сможет дойти до суда.
qw1
07.08.2021 11:11Они будут сканироваться перед тем как отправиться в облако, в процессе подготовки к этому.
А где это написано? В статье я вижуСистема будет постоянно сравнивать фотографии на iPhone и в облаке iCloud с базой из 200 тысяч собранных правозащитниками изображений
upd. нашёл ниже цитаты на заявление от apple
alsoijw
07.08.2021 10:06Они туда не попадают, если их туда не заливать.
Как минимум пересылка через мессенджеры тоже проверяется.tropico
07.08.2021 14:49Другими словами яблоко сканирует только в том случае, если пользователь хочет пересылать фото через сервера яблока. Параноики могут не пользоваться сервисами яблока как и сервисами Гугла, тогда никто нигде ничего не будет сканировать. Тревогу и факелы можно отменять.
kick_starter
08.08.2021 16:40только часть обработки переложена с сервера на телефон
Это и есть ключевое отличие
alsoijw
06.08.2021 19:15Локальная обработка контента с использованием машинного обучения с загрузкой для ручной обработки?
pfa
07.08.2021 01:03+2"Как в Гугле" (фото, загруженные в облако) Эпл сканирует уже давно. А вот анальный зонд на устройстве пользователя - это новое изобретение, до которого пока даже Гугл не додумался.
darkAlert
06.08.2021 15:42+4ну давайте уже вешайте камеры в каждую квартиру, система глубокого анального наблюдения. В 8 утра еще дрыхнешь в кровате, а не за рабочим местом - добровольно-принудительное поднятие. Работаешь не эффективно, отвлекаешься на котиков - биг дата тебя уволила. Увидел краем глаза в интернете экстремиский материал и твое лицо не выразило достаточного осуждение - сгенерировался протокол и отправился в органы.
Lomert
06.08.2021 15:46+3Система будет постоянно сравнивать фотографии на iPhone и в облаке iCloud с базой из 200 тысяч собранных правозащитниками изображений жестокого обращения с детьми. Каждое фото будет отмечаться, и, если наберется определенное число подозрительных снимков, Apple расшифрует эти файлы для проверки специалистами-людьми.
Кажется, до такого уровня шпионажа даже Google с его таргетированной рекламой ещё далеко. Какую ОС теперь на телефон ставить? JingOS?dartraiden
06.08.2021 15:54+4PedoOS.
А если серьёзно, то в новости очень нагнетено. Сверка будет производиться перед загрузкой изображений в облако iCloud. Крупные облачные хранилища (Dropbox, Onedrive, GDrive, и даже Discord) уже давно используют PhotoDNA, но почему-то к ним претензий у комментаторов нет, а вот клятая эппл ррря.
Серьёзно, если вы не хотите, чтобы вашу детскую порнографию (а там ищется уже известный контент, признанный детским порно, то есть, не частные фото вашего голозадого отпрыска) обнаружили, а вас посадили, то, наверное, не слишком умно открыто заливать её в облака?
pvsur
06.08.2021 16:05+7Вы не поняли, искать будут в самом телефоне, а не в iCloud…
Ну и сегодня это сверка по хэшам, завтра — анализ ИИ. Послезавтра не только ЦП, и не только iPhone…
Вам неужели нравится, когда охранник в супермаркете потрошит вашу сумку, пусть даже вы туда ничего крамольного на клали? :))dartraiden
06.08.2021 16:06-2Искать будут в телефоне перед заливкой в iCloud.
Ну и сегодня это сверка по хэшам, завтра — анализ ИИ. Послезавтра не только ЦП, и не только iPhone…
Сегодня вы занимаетесь сексом по обоюдному согласию, а завтра начнёте насиловать. Давайте вас ошельмуем уже сегодня. Я помню времена, когда это было анекдотом, а сейчас это уже всерьёз выдают как аргумент.
Lomert
06.08.2021 16:37+3сегодня это сверка по хэшам, завтра — анализ ИИ
Завтра уже наступило. Я не знаю, кто выдумал «сверку по хэшам», но в разных источниках, в том числе и в этом посте, говорится о некоем «neuralMatch», что по названию уже не похоже на алгоритм хэширования.
qw1
07.08.2021 11:27Искать будут в телефоне перед заливкой в iCloud.
Можете привести источник? В статье написано, что сканировать будут все фотографии на устройстве.
То же самое пишет theguardian.com: Apple will scan photo libraries stored on iPhones in the US for known images of child sexual abuse
upd. нашёл ниже цитаты на заявление от apple
YMA
06.08.2021 16:27+3"По хэшам" - это чтобы народ расслабился, на самом деле устройства на iOS уже давно анализируют фото, находят на них объекты, тэгируют и систематизируют фото. Включая распознавание лиц и текстов.
Да, это удобно - набрав "Вася Пупкин", можно получить все фото с ним (если ранее отметили, что этот человек на фото - Вася). Или по слову "козел" - получить натурально все фото с козлами. Или "ресторан" - все фото, похожие на ресторанную обстановку.Но, судя по этой статье, этот инструмент можно использовать и в другую сторону - находить злых обидчиков детей и котиков, а также тех, у кого на телефоне есть фото нужных людей или интересных документов... Да уж...
iiwabor
06.08.2021 16:29+9Большинство ограничения прав и свобод проталкиваются под лозунгом защиты детей...
Я сначала, по наивности, думал что это только в тоталитарных режимах такое, ан нет - и вполне демократические этим тоже балуются...
Да, очень удобно - и никто против не скажет, а иначе - "Вы что - за педофилию/порнографию/ жестокое обращение (нужное подчеркнуть) с детьми?!"
Andy_Big
06.08.2021 16:35-3Очередное насилие ученого над редактором хабра...
Не жестокого обращения, а детской порнографии (сексуального контента с участием детей).
Не сканировать все фото в поисках признаков этой самое порнографии, а сравнивать хэши фотографий при загрузке с телефона в облако с хешами из базы известных педофильных фотографий.
Lomert
06.08.2021 16:46+1Источник?
Не жестокого обращения, а детской порнографии (сексуального контента с участием детей).
Везде видел формулировку «child abuse», в буквальном переводе «злоупотребление детьми». Трактовать можно достаточно широко.Не сканировать все фото в поисках признаков этой самое порнографии, а сравнивать хэши фотографий при загрузке с телефона в облако с хешами из базы известных педофильных фотографий.
Про хэши, кажется, уже на хабре додумали. Сама технология называется «neuralMatch», что сильно не похоже на название технологии сравнения хэшей.Andy_Big
06.08.2021 17:12-1Источник?
www.apple.com/child-safety, www.apple.com/child-safety/pdf/CSAM_Detection_Technical_Summary.pdfСама технология называется «neuralMatch», что сильно не похоже на название технологии сравнения хэшей.
Тем не менее, это остается сравнением хэшей, просто хэши не тупые типа MD5. Разным изображениям будут соответствовать разные хэши. А вот одному и тому же изображению — один хэш, даже если это изображение в другом формате, в другом разрешении или в другой цветовой палитре.Lomert
06.08.2021 17:48OfftopТем не менее, это остается сравнением хэшей, просто хэши не тупые типа MD5.
«Умные хэши» в «умном телефоне» в «умном доме»…
Разным изображениям будут соответствовать разные хэши. А вот одному и тому же изображению — один хэш, даже если это изображение в другом формате, в другом разрешении или в другой цветовой палитре.
Вы сейчас магию описываете. Что по-Вашему «разные изображения»? Если изображение обрезать, оно станет другим, или останется «одним и тем же»? А если поверх изображения что-то нарисовать?Andy_Big
06.08.2021 17:55Тут в комментариях уже приводили ссылку на статью, описывающую как работают перцептивные хэши.
Lomert
07.08.2021 02:12+2статью, описывающую как работают перцептивные хэши
Да, но именно перцептивные хэши, во многих случаях, будут разными для оригинального изображения и изображения «в другой цветовой палитре». Перцептивные хэши, в отличие от криптографических (которые Вы назвали «тупыми»), допускают сравнение для нахождения похожих изображений, и именно этого ответа я от Вас добивался.
Возможность такого сравнения побочным эффектом предоставляет возможность по хэшу создать изображение-коллизию (об этом уже был комментарий), хэш которого будет совпадать с оригинальным, при этом само изображение в некоторой степени будет похоже на оригинальное, это обусловлено самим алгоритмом. Чем более точным будет алгоритм, тем больше он будет содержать информации об оригинале изображения, тем ближе будет к оригиналу изображение-коллизия. Чем менее точным будет алгоритм, тем больше Ваших фото посмотрит «специалист Apple» из-за подозрений алгоритма.
Так я отвечал на Ваш второй пункт:2. Не сканировать все фото в поисках признаков этой самое порнографии, а сравнивать хэши фотографий при загрузке с телефона в облако с хешами из базы известных педофильных фотографий.
Перцептивные хэши нацелены на уменьшение необходимого объёма информации для сравнения двух изображений, у них нет цели безвозвратно сокрыть оригинал, как у криптографических хэшей, поэтому сравнение именно перцептивных хэшей, а не изображений, не может быть сильным аргументом в пользу конфиденциальности.
Более того, по Вашей ссылке в технических деталях Apple утверждают, что до алгоритма ещё и нейронку там зачем-то используют, что выглядит ещё сомнительнее.
staticmain
06.08.2021 16:48+3neuralMatch != хэши, это выдумка переводчика.
Andy_Big
06.08.2021 17:33-1Да, neuralMatch — это вся система целиком. Но основана она на хэшах — neuralHash.
tropico
06.08.2021 17:16+3Когда-то говорили что на Хабре люди с хорошим логическим мышлением, но комментарии подтверждают обратное - в пресс-релизе сказано, что проверки фото будут проводиться перед отправкой в iCloud, то есть есть улавливаете разницу?
Но зачем читать оригинальные источники, если можно сразу накинуть на вентилятор.
To help address this, new technology in iOS and iPadOS* will allow Apple to detect known CSAM images stored in iCloud Photos.
...
Before an image is stored in iCloud Photos, an on-device matching process is performed for that image against the known CSAM hashes. This matching process is powered by a cryptographic technology called private set intersection, which determines if there is a match without revealing the result. The device creates a cryptographic safety voucher that encodes the match result along with additional encrypted data about the image. This voucher is uploaded to iCloud Photos along with the image.alsoijw
06.08.2021 19:10The Messages app will add new tools to warn children and their parents when receiving or sending sexually explicit photos.
Судя по упоминанию машинного обучения, а так же анализе отправляемых файлов, становится понятно, что это не просто список хешей, загружаемых на устройство.
When receiving this type of content, the photo will be blurred and the child will be warned, presented with helpful resources, and reassured it is okay if they do not want to view this photo. As an additional precaution, the child can also be told that, to make sure they are safe, their parents will get a message if they do view it. Similar protections are available if a child attempts to send sexually explicit photos. The child will be warned before the photo is sent, and the parents can receive a message if the child chooses to send it.
Messages uses on-device machine learning to analyze image attachments and determine if a photo is sexually explicit. The feature is designed so that Apple does not get access to the messages.Using another technology called threshold secret sharing, the system ensures the contents of the safety vouchers cannot be interpreted by Apple unless the iCloud Photos account crosses a threshold of known CSAM content. The threshold is set to provide an extremely high level of accuracy and ensures less than a one in one trillion chance per year of incorrectly flagging a given account.
А здесь прямо говорится, что при превышении некоего показателя, система в штатном режиме будет загружать файлы яблоку, чтобы там сотрудники в ручном режиме просматривали чужие данные.
Only when the threshold is exceeded does the cryptographic technology allow Apple to interpret the contents of the safety vouchers associated with the matching CSAM images. Apple then manually reviews each report to confirm there is a match, disables the user’s account, and sends a report to NCMEC. If a user feels their account has been mistakenly flagged they can file an appeal to have their account reinstated.
А вот описание вполне конкретного события, когда пострадавший и обвинённый был одним лицом.tropico
06.08.2021 19:19становится понятно, что это не просто список хешей, загружаемых на устройство
Так это разный функционал в разных местах. Вот пдфка с техническими деталями.
Кстати понятна позиция почему не сканируют на сервере:
The system is significantly more privacy-preserving than cloud-based scanning, as it only reports users who have a collection of known CSAM stored in iCloud Photos.
Am0ralist
09.08.2021 16:01+2А вот описание вполне конкретного события, когда пострадавший и обвинённый был одним лицом.
Причём у человека останется на всю жизнь пометка о совершении сексуального насилия над детьми, ага. Там вообще куча прекрасных случаев было с подобными фотками…
pfa
07.08.2021 01:13То, как Apple будет использовать эту технологию - иррелевантно, ибо в любой момент может быть изменено. Важно то, что теперь у Apple будет техническая (и юридическая) возможность сканировать контент на устройстве пользователя. Последующая загрузка контента в iCloud не является техническим требованием: сам матчинг происходит на конечном устройстве, потому в случае положительного матча ничего не мешает айфону отправить подозрительный контент напрямую товарищу майору.
tropico
07.08.2021 14:04То, как Apple будет использовать эту технологию - иррелевантно, ибо в любой момент может быть изменено. Важно то, что теперь у Apple будет техническая (и юридическая) возможность сканировать контент на устройстве пользователя.
Такой уровень аргументов можно употребить вообще к кому угодно. Гугол сканирует контент (фото, видео, ссылки и т.д.) вообще на всех своих сервисах серверно, так как имеет доступ. В Яблока нету доступа к вашим айклауд фото, если они не были задетекчены по педо-базе и не перешли некоторый "порог". То есть это максимальный уровень приватности в данной ситуации - Яблоко серверно не сканирует ваш контент и не собирается этого делать, иначе делали бы как Гугл последние 10 лет.
Последующая загрузка контента в iCloud не является техническим требованием: сам матчинг происходит на конечном устройстве, потому в случае положительного матча ничего не мешает айфону отправить подозрительный контент напрямую товарищу майору.
Это лишь выдумки. Яблоко не сканирует фото, если они не отправляются в айклауд вообще никак. Это четко написано в документах, прикрепленных к пресс-релизу. Если они будут делать иначе - это не будет иметь никакой юридической силы в США. Гадать на кофейной гущи что они могут что-то там поменять в любой момент уровень детсада, не более. Им тогда проще делать как в Гугле и вообще не париться, но они пошли другим путем, поэтому их и уважают за максимальную приватность забугром.
pfa
07.08.2021 21:54+1Apple уже сканирует фото в iCloud на предмет цп, пример статьи. То есть в этом плане ничем принципиально не отличается от Гугла. Соответственно, в плане прайваси этот ход ничего не добавляет, а вот в плане возможностей абьюза - добавляет очень многое.
tropico
08.08.2021 13:51Apple уже сканирует фото в iCloud на предмет цп
Ваша ссылка ссылается на статью в The Telegraph, где в низу пишут что никаких фактов про iCloud нет. То есть это просто догадки журналистов в стиле желтой прессы:
Update January 9, 2020
This story originally said Apple screens photos when they are uploaded to iCloud, Apple's cloud storage service. Ms Horvath and Apple's disclaimer did not mention iCloud, and the company has not specified how it screens material, saying this information could help criminals.
qw1
08.08.2021 14:43+1факты из вашей ссылки:
1. Jane Horvath, Apple’s chief privacy officer, said at a tech conference that the company uses screening technology to look for the illegal images. The company says it disables accounts if Apple finds evidence of child exploitation material, although it does not specify how it discovers it
2. Speaking at the Consumer Electronics Show in Las Vegas, Ms Horvath said removing encryption was “not the way we’re solving these issues” but added: “We have started, we are, utilising some technologies to help screen for child sexual abuse material.”
И, вишенка на торте:
3. Apple made a change to its privacy policy last year that said it may scan images for child abuse material
Т.е. компания хочет на двух стульях усидеть: клиентам сказать, что она всё шифрует. Моралфагам сказать, что цп пресекается. И тумана побольше напустить, мол, мы вам не скажем, как же это всё на самом деле работает.
Замечу, что это публикация января 2020 года, когда о детектировании порнушки на устройстве пользователя и речи не шло, поэтому iCloud там подразумевается (или какая ваша интерпретация?)tropico
08.08.2021 19:35+1поэтому iCloud там подразумевается (или какая ваша интерпретация?)
Сканируется iCloud Mail, так как письма на серваки приходят незашифрованными (есть статья как они уже передавали педофилов в руки правосудия). Там и скрининг входящего на сервер контента, а iCloud Photo на стороне сервера как не сканировали из-за приватности, так и не планируют (о чем сказано в техническом документе, прикрепленном к пресс-релизу).
qw1
08.08.2021 19:43Похоже, так и есть. В истории 2019-2020 года всякие СМИ типа Wired нагнетают про сканирование фотографий, приплетают всякие хеши и PhotoDNA, а если перейти к источникам, кроме проверки e-mail ничего не находится.
geher
07.08.2021 15:01+1в пресс-релизе сказано, что проверки фото будут проводиться перед отправкой в iCloud,
Ключевые слова - перед отправкой, т.е. таки еще на телефоне пациента.
это не будет иметь никакой юридической силы в США
Это не может использоваться в суде, но может быть использовано для того, чтобы обратить более пристальное внимание в поисках улик, уже имеющих юридическую силу.
Num
06.08.2021 18:35+3Страшно то, что данная система легко атакуется — то есть вам отправляют безобидную, с виду, фотографию, хэш которой будет совпадать с хэшем из базы — и всё, за вами выехали.
tropico
07.08.2021 14:14Эту фотку еще нужно сохранить в галерею, а не просто получить в каком-то вацапе/MMS, где все данные лежат в контексте песочницы программы. Да и что-то не видно новостей про Гугл, который сканирует все фотки (и весь остальной контент) серверно. Пользователей Андроида еще легче "атаковать".
Num
07.08.2021 17:18а не просто получить в каком-то вацапе/MMS, где все данные лежат в контексте песочницы программы.
Из FAQ:By default, photos and videos you receive through WhatsApp will automatically be saved in the WhatsApp folder of your iPhone's Photos.
Помимо этого, это может быть банально какое-нибудь расписание, которое вы сохраните не задумываясь, даже если автосохранение выключено. Ну а принимая во внимание софт а-ля Pegasus, позволяющий удаленно загружать любую информацию без ведома пользователя, становится совсем плохо.Да и что-то не видно новостей про Гугл, который сканирует все фотки (и весь остальной контент) серверно. Пользователей Андроида еще легче «атаковать».
Всё таки сканирование облачных файлов и сканирование на устройстве это две большие разницы. Обратите внимание, что даже для Гугла и Майкрософта, оффлайн сканирование пользовательских данных является насколько сильным нарушением приватности, что они не смогли себе это позволить. В этом смысле иронично, что такой шаг был сделан компанией, всё продвигающей себя как privacy-friendly.
Отдельно добавлю, что в силу специфики технологии, совпадения ищутся по отдельным элементам фотографии. Есть ли у вас уверенность, что ваше ню-селфи не будет расценена нейронкой как ЦП?
С подобными проприетарным черными ящиками от Apple, мы буквально получаем тотальную слежку, к которой столько лет стремились спецслужбы с появлением персональной криптографии. Нет никакой уверенности, что следующий апдейт на начнёт выявлять фото содержащие, например, копирайт или порочащие Компартию Китая материалы. Причем понимают это даже в самом Apple.
В качестве дополнительного материала рекомендую ознакомится с тредом Matthew Green, криптографа из Johns Hopkins.tropico
07.08.2021 19:09Всё таки сканирование облачных файлов и сканирование на устройстве это две большие разницы. Обратите внимание, что даже для Гугла и Майкрософта, оффлайн сканирование пользовательских данных является насколько сильным нарушением приватности, что они не смогли себе это позволить.
В этом смысле иронично, что такой шаг был сделан компанией, всё продвигающей себя как privacy-friendly
Как раз все с точностью до наоборот. Эппл не трогает ваши данные на своих серверах из-за уважения к приватности, когда Гугл и Майкрософт сканируют все подряд на своих серверах. То есть если человек понимает разницу между этими двумя подходами и для него главное это приватность, то понятно что он выберет яблоко (как и рекомендовал еще много лет назад Сноуден).
По вотсапу - так же логи хранятся в айклауде по умолчанию, значит следователи просто посмотрят что фото пришло от левого контакта и было автоматически сохранено - нету умысла, нету дела.
Есть ли у вас уверенность, что ваше ню-селфи не будет расценена нейронкой как ЦП?
Гугл делает эти сканы годами, что-то не видно новостей о false positives. Яблоко четко сказало какая точность:
The system is very accurate, with an extremely low error rate of less than one in one trillion account per year.
То есть если даже попали на ошибку, еще нужно пройти "порог" (иметь очень много разных фото), чтобы работники эпл технически смогли расшифровать их и сравнить с экземплярами в БД.
С подобными проприетарным черными ящиками от Apple, мы буквально получаем тотальную слежку
Нету никакой слежки. Поэтому правительство США использовало инструменты хакерских компаний для взлома айфонов за огромные деньги. Реальная слежка есть в Гугла и ведется разбирательство:
Arizona Attorney General Mark Brnovich sued Google on Wednesday, alleging the tech giant violated its users’ privacy by collecting information about their whereabouts even if they had turned off such digital tracking.
В качестве дополнительного материала рекомендую ознакомится с тредом Matthew Green, криптографа из Johns Hopkins.
В треде только параноидальные домыслы автора.
Num
07.08.2021 19:48Как раз все с точностью до наоборот. Эппл не трогает ваши данные на своих серверах из-за уважения к приватности, когда Гугл и Майкрософт сканируют все подряд на своих серверах. То есть если человек понимает разницу между этими двумя подходами и для него главное это приватность, то понятно что он выберет яблоко (как и рекомендовал еще много лет назад Сноуден).
Во-первых, а вы статью то читали? Apple собирается сканировать файлы на самих девайсах, без возможности opt-out, что существенно отличается от добровольной загрузки файлов в облако.
Во-вторых, Apple отказалась от e2e в iCloud как раз для возможности сканирования пользовательских файлов под давлением FBI, e2e шифруются только отдельные категории, вроде memoji.Гугл делает эти сканы годами, что-то не видно новостей о false positives.
Хотелось бы ссылку где будет указано, что гугл использует для этого Perceptual Image Hashes, аналогичные эппловскому neuralMatch.Яблоко четко сказало какая точность
Apple может, вобще говоря, заявлять какую угодно точность, это черный ящик, алгоритмы они не раскрывают.Нету никакой слежки. Поэтому правительство США использовало инструменты хакерских компаний для взлома айфонов за огромные деньги.
А правительства других стран использовали Pegasus для убийства журналистов и полит активистов, что впрочем не отменяет факта использования предложенной Apple технологии, как mass surveillance tool — буквально по определению.В треде только параноидальные домыслы автора.
Отличный аргумент, теперь я спокоен.tropico
08.08.2021 19:16Во-первых, а вы статью то читали? Apple собирается сканировать файлы на самих девайсах, без возможности opt-out, что существенно отличается от добровольной загрузки файлов в облако.
Я читаю первоисточники (пресс-релиз и прикрепленные технические документы). Яблоко, согласно всем документам, сканирует фото только и только перед прямой отправкой в iCloud Photo. Нигде не упоминается какое-либо превентивное сканирование, кроме желтушной прессы, кривых переводов и авторских отсебятин.
Во-вторых, Apple отказалась от e2e в iCloud как раз для возможности сканирования пользовательских файлов под давлением FBI
Это тоже лишь домыслы журналистов. Телеграмм так же не делает E2E потому что сперва UX, а потом безопасность. Темы проблем синхронизации и утраченного доступа избиты вдоль и впоперек.
Хотелось бы ссылку где будет указано, что гугл использует для этого Perceptual Image Hashes, аналогичные эппловскому neuralMatch.
У них еще больше технологий:
We identify and report CSAM with a combination of specialized, trained teams of people and cutting-edge technology. We use both hash-matching software like CSAI Match (a technology developed by YouTube engineers to identify re-uploads of previously identified child sexual abuse in videos) and machine learning classifiers that can identify never-before-seen CSAM imagery.
Apple может, вобще говоря, заявлять какую угодно точность, это черный ящик, алгоритмы они не раскрывают.
Учитывая репутацию Яблока и борьбу за приватность в западном мире это больше похоже на параною из стран, где всегда велась желтушная пропаганда против яблока (страны СНГ). Это же можно сказать и про Гугл, что о они дают доступ напрямую FBI/NSA/CIA, так как Гугл вечно уличен в скрытом шпионаже своих пользователей.
не отменяет факта использования предложенной Apple технологии, как mass surveillance tool
По сравнению с тем, что у других компаний, подход в Яблока максимально обеспечивающий приватность и неприкосновенность личных данных. Поэтому все, кто беспокоится за приватность и не хочет страдать с полуработающими пикселями на GrapheneOS выбирают Яблоко (как и рекомендовал Сноуден, а он уж то точно знал).
dsemenyuk
Сразу возник вопрос: а какой смысл в принципе делать или хранить такие фото?
Sm1le291
Ну у вас же не возникает вопроса, зачем фоткать красивых девушек или достопримечательности.
Очевидно, что есть люди, допускаю с отклонениями, которые фоткают голых детей или например сами дети себя фоткают
Kanut
Всё-таки "жестокое обращение" это не совсем тоже самое что и детская порнография.
И лично мне очень интересно по каким признакам его собираются определять. По наличию синяков? Так я в детстве весь в синяках ходил хотя родители меня ни разу даже пальцем не тронули. То есть банально контактный вид спорта и набор синяков для ребёнка гарантирован. А потом доказывай в органах ювенальной юстиции что ты не верблюд...
Gumanoid
Будут сравнивать с базой существующих фотографий: https://alexmak.net/2021/08/05/child-safety/
Kanut
То есть если я всё правильно понимаю, то мы имеем вот такое:
И получается человеку надо именно скачать откуда-то какую-то противоправную фотку чтобы у него появились проблемы. А сам он при этом может делать что угодно с детьми и держать у себя эти фотки и система не среагирует?
Я бы сказал что эта система скорее подходит для того чтобы правообладатели боролись с пиратским контентом. А в контексте обнаружения жестокого обращения с детьми она практически бессмыслена.
dartraiden
Жестоким обращением в мировой практике является и хранение детской порнографии. Считается, что каждый такой случай - это акт эксплуатации запечатлённой жертвы.
Эта система предназначена именно для выявления уже известной детской порнографии, хранение которой во многих странах мира является уголовным преступлением.
Можно обоснованно предположить, что это компромисс между Apple и властями, которые иначе просто не дадут реализовать e2e-шифрование резервных копий (да, резервные копии iCloud до сих пор не используют e2e-шифрование).
Kanut
В таком случае я бы сказал что данная новость на хабре, и особенно её заголовок, очень сильно вводят в заблуждение. Как минимум меня уж точно :)
dartraiden
Никогда такого не было и вот опять.
jakor
а кто нибудь прояснит, как можно изображения сравнивать по хэшу? ты одно и то же изображение перекодировал тем же алгоритмом в другой битрейт - и хэш стал другой. я уж не говорю - про фотографию фотографии - где еще наложился шум, геометрическое искажение и цветовая деформация?
Kanut
Как я понимаю там не сравнивают изображения в том виде как вы это понимаете. Там сравнивают конкретные файлы. Ну если верить ссылке.
YMA
См. "Перцептивные хэш-алгоритмы", на хабре статья есть, но очень уж старая... https://habr.com/ru/post/120562/
Dolios
У меня есть фото голых детей. Как моих детей, так и меня самого в детском возрасте и даже фото голых родителей моих, когда они детьми были. Меня теперь посадят или начнут принудительно лечить отклонения?
Andy_Big
Если Ваши фотографии не попали в базу американского национального центра пропавших без вести и эксплуатируемых детей, то ничего Вам не будет.
DonkeyHot
вы отстали от жизни ) почитайте УК, сейчас такие фотки считается за ЦП
Gromin
По мне так должен бы возникать вопрос "а не уху ели ли Apple сканировать личные файлы пользователей?". Легко прикрыться детьми, их "защитой, благом и вообще", но это - чистой воды тотальная слежка и презумпция виновности.
LexaZ
А у меня другой вопрос: то есть, уже существует механизм залива на телефоны без разрешения пользователя. Про обновления, замечу, в статье ни слова. Способ доставки уже не обсуждается, обсуждается реакция. Нда…
dartraiden
Залива, простите, чего?
lpite
Приложения без участия пользователя
MTyrz
Этот способ называется «автоматическое обновление».
Ваш кэп.
lpite
Это скорее не обновление а просто установка приложения
MTyrz
Если приложение идет, как часть ОС — то именно обновление. Механизм старый и понятный.
Я не пользую технику от Apple, поэтому не знаю, насколько часты и прозрачны их минорные обновления и багофиксы. Если оно происходит примерно как в десятке (которую я тоже не пользую, но больше наслышан), то там между делом прозрачно для пользователя можно установить хоть слона мытого.
lpite
Та даже на андроиде появлялось nearby share без обновлений
zikasak
Без обновлений? Гугл сервисы обновляются по несколько раз в месяц.
У яблока это будет в одной из прошивок.
lpite
У меня выключены авто обновления
qw1
У меня тоже выключены. И прошивка полностью руками пересобрана без части гугл-мусора (google search, music, books, play games и т.д.), телеметрия выключена, где можно.
Тем не менее, google play store я оставил, и пакеты
com.google.android.gms
com.android.vending
обновлены 2021-08-04, хотя я никаких разрешений не давал.
lpite
Прекрасно но альтернатив нет(
LexaZ
Ни слова об автообновлении не говорено. + я могу отказаться обновляться, а они хотят. Их хотелки более приоритетные для их оборудования, чем мои, имхо.
До этого, я позволю себе напомнить, некоторое время назад (запись в вк за 4 июн 2020, в одной из групп), было:
Про обновления тут речей не шло. Поэтому есть о чем задуматься.
MTyrz
Вы можете отказаться обновляться, но их хотелки приоритетнее. Но про обновления речи не шло. Но украденные айфоны заблокировали.
Я ничего не понял.
LexaZ
Ну, тогда ой. Потом поймете.
Jalt
Если вы про логику сверки - она прилетит с iOS 15. Если вы про базу хешей - она, да, будет периодически обновляться с серверов Apple.
Sergdesign
я так понимаю, этот вопрос нужно задавать тем, кто делает и хранит.
commanderxo
Какие «такие»? Которые некая проприетарная «neuralMatch» которая ещё и непредсказуемым образом обновляется извне, сочтёт завтра неправильными? Странное сочетание параметров в нейронке и ваш аккаунт на Apple, где куплено музыки на тысячу долларов, превращается в тыкву? А ещё некоторые разработчики используют учётки Apple чтоб зарабатывать на хлеб, в том числе и своим детям. Прошлогодние баталии вокруг Трампа показали как быстро в Интернете меняются мнения что такое хорошо и что такое плохо.
Было во времена Советского Союза такое понятие — «это не телефонный разговор», и казалось что кануло в прошлое и никогда уже не вернётся. Добро пожаловать в дивный новый мир!
Loggus66
Может, у вас ещё и мемчики про негров на телефоне хранятся? Рискуете, гражданин. Сами знаете, как быстро базы обновляются. А то что - инструмент-то есть уже, почему бы и не применить для хорошего дела.
vikarti
Там еще смешнее. Если ДЕЛАТЬ новые — вполне может быть что не сдектит ничего.
Судя по статья в ArsTechnica и ссылкам на документы Apple — там взята база таких фото и на ней натренирована нейросеть. Причем чтобы возникли проблемы — надо много таких фото загрузить в iCloud Photos. Если НЕ грузить — проблемы не будет.
И да, Google давно именно это и делает (только без хитрых схем с клиентскими хешами и "надо много") — пример — https://www.theverge.com/2014/8/5/5970141/how-google-scans-your-gmail-for-child-porn
Так что решение Apple как минимум не хуже чем то что гугл творит.
Другое дело что такое лучше вообще прикрыть.
А то дальше что — РКН сделает реестр облачных сервисов фотографий и потребует проверять там хеши картинок из реестра запрещенных в РФ картинок (где разумеется будет только
опасная для детей информациякартинки с deviantart и из аниме ) и сообщать?Яндекс возьмет под козырек.
Гугл будут штрафовать (а потом они может и выполнят
pfa
Фото в iCloud сканируются уже давно, тут дело именно в том, что сканироваться будут фотографии на пользовательском устройстве.
wyfinger
Что будет если такую фотку или несколько отправить человеку мессенжером, например с телеграмма? Она же у него сохранится локально на телефоне. Как раз по созданию нового файла триггернется проверка.
Человек увидит, удалит, но как я понимаю поздно уже будет, галочка "предполагаемый педофил" уже поставлена и привет проверка, блокировка, менты..
Можно много людей подставить таким образом, это лучше чем наркотики подбрасывать.
pfa
Ну, Эпл заявляет, что сканироваться будут только фото перед отправкой в iCloud, если фоточки телеграма туда не отправляются - человек, если верить Эплу, в безопасности. Только вот у меня верить Эплу на слово нет никакого желания, а механизмов проверки и контроля Эпл не предоставляет.