Как выяснили журналисты Financial Times, Apple намерена внедрить в свои iPhone бэкдор, который позволит ее специалистам сканировать устройства на наличие фотографий жестокого обращения с детьми. Специалисты по безопасности заявляют об опасности тотальной слежки за пользователями смартфонов.

Фото: Reuters
Фото: Reuters

По информации журналистов, Apple решила сканировать iPhone пока только в США, где компания установит на смартфоны специальное программное обеспечение. Система будет постоянно сравнивать фотографии на iPhone и в облаке iCloud с базой из 200 тысяч собранных правозащитниками изображений жестокого обращения с детьми. Каждое фото будет отмечаться, и, если наберется определенное число подозрительных снимков, Apple расшифрует эти файлы для проверки специалистами-людьми. Они смогут передать фотографии в правоохранительные органы. 

FT выяснила, что система получит название neuralMatch, а детали ее работы раскрыли нескольким исследователям. Apple может публично рассказать о проекте на этой неделе.

По данным журналистов, компания пытается найти компромисс между охраной конфиденциальности пользователей и требованием сотрудничества от властей, в том числе в борьбе с терроризмом и детской порнографией. Ранее Apple отказалась помогать ФБР в разблокировке iPhone подозреваемого в стрельбе в Калифорнии: компания пошла в суд, но власти отозвали требование к Apple, взломав смартфон самостоятельно. Аналогичные обвинения против компании звучали позднее, после инцидента со стрельбой в базе ВМФ во Флориде.

Профессор компьютерной безопасности Университета Суррея Алан Вудвард предположил, что Apple применит децентрализованный подход. В этом случае проверка файлов будет происходить на самом iPhone, и только при совпадении уведомление будет уходить команде компании.

Однако исследователи в области безопасности считают, что этот шаг компании приведет к слежке за миллионами персональных устройств, а власти разных стран попытаются посредством бэкдора получить доступ к личным данным их жителей. Профессор проектирования безопасности Кембриджского университета Росс Андерсон расценил идею Apple как «ужасную», которая приведет к «распределенной массовой слежке» за смартфонами и ноутбуками.

Исследователи отмечают, что систему можно натренировать также на поиск изображений с запрещенной символикой или на другие сценарии.

Наконец, шаг Apple может привести к еще большему давлению на другие технологические компании. 

Профессор по безопасности Университета Джонса Хопкинса Мэттью Грин, который рассказал о проекте журналистам, сравнил его с прорывом дамбы, потому что «правительства будут требовать того же от каждого».

Шаг Apple осудил Фонд электронных рубежей. Там данную меру назвали радикальным разворотом от конфиденциальности. В EFF напомнили, что в настоящее время, хотя Apple имеет ключи для просмотра фотографий, хранящихся в iCloud, компания не сканирует эти изображения. Вводимый механизм правозащитники считают новым опасным инструментом в руках тоталитарных режимов. Они также напоминают, что алгоритмы машинного обучения не раз ловили на ложной классификации изображений сексуального характера, в том числе, статуй и даже щенков. Более того, употреблять термин «сквозное шифрование» для iMessage теперь будет в корне неверным, подчеркивают в EFF.

Пользователи, судя по всему, тоже далеко не в восторге от этой идеи. Они указывают, что сканирование снимков, как минимум, грозит сливами фото в открытый доступ и прочими инцидентами безопасности.

Комментарии (105)


  1. dsemenyuk
    06.08.2021 14:42
    +1

    Сразу возник вопрос: а какой смысл в принципе делать или хранить такие фото?


    1. Sm1le291
      06.08.2021 14:48
      +2

      Ну у вас же не возникает вопроса, зачем фоткать красивых девушек или достопримечательности.

      Очевидно, что есть люди, допускаю с отклонениями, которые фоткают голых детей или например сами дети себя фоткают


      1. Kanut
        06.08.2021 14:54
        +5

        Всё-таки "жестокое обращение" это не совсем тоже самое что и детская порнография.


        И лично мне очень интересно по каким признакам его собираются определять. По наличию синяков? Так я в детстве весь в синяках ходил хотя родители меня ни разу даже пальцем не тронули. То есть банально контактный вид спорта и набор синяков для ребёнка гарантирован. А потом доказывай в органах ювенальной юстиции что ты не верблюд...


        1. Gumanoid
          06.08.2021 15:21
          +1

          Будут сравнивать с базой существующих фотографий: https://alexmak.net/2021/08/05/child-safety/


          1. Kanut
            06.08.2021 15:32
            +10

            То есть если я всё правильно понимаю, то мы имеем вот такое:


            Речь не идет о сканировании всех ваших фотографий, которые хранятся на устройстве. Есть база хешей уже известных фотографий, содержащих противоправный контент, и будут сравниваться именно эти хеши.

            И получается человеку надо именно скачать откуда-то какую-то противоправную фотку чтобы у него появились проблемы. А сам он при этом может делать что угодно с детьми и держать у себя эти фотки и система не среагирует?


            Я бы сказал что эта система скорее подходит для того чтобы правообладатели боролись с пиратским контентом. А в контексте обнаружения жестокого обращения с детьми она практически бессмыслена.


            1. dartraiden
              06.08.2021 15:44
              +2

              А в контексте обнаружения жестокого обращения с детьми она практически бессмыслена.

              Жестоким обращением в мировой практике является и хранение детской порнографии. Считается, что каждый такой случай - это акт эксплуатации запечатлённой жертвы.

              Эта система предназначена именно для выявления уже известной детской порнографии, хранение которой во многих странах мира является уголовным преступлением.

              Можно обоснованно предположить, что это компромисс между Apple и властями, которые иначе просто не дадут реализовать e2e-шифрование резервных копий (да, резервные копии iCloud до сих пор не используют e2e-шифрование).


              1. Kanut
                06.08.2021 15:49
                +1

                В таком случае я бы сказал что данная новость на хабре, и особенно её заголовок, очень сильно вводят в заблуждение. Как минимум меня уж точно :)


                1. dartraiden
                  06.08.2021 15:50
                  +2

                  Никогда такого не было и вот опять.


            1. jakor
              06.08.2021 16:30

              а кто нибудь прояснит, как можно изображения сравнивать по хэшу? ты одно и то же изображение перекодировал тем же алгоритмом в другой битрейт - и хэш стал другой. я уж не говорю - про фотографию фотографии - где еще наложился шум, геометрическое искажение и цветовая деформация?


              1. Kanut
                06.08.2021 16:31

                Как я понимаю там не сравнивают изображения в том виде как вы это понимаете. Там сравнивают конкретные файлы. Ну если верить ссылке.


              1. YMA
                06.08.2021 16:33
                +3

                См. "Перцептивные хэш-алгоритмы", на хабре статья есть, но очень уж старая... https://habr.com/ru/post/120562/


      1. Dolios
        06.08.2021 17:11
        +3

        У меня есть фото голых детей. Как моих детей, так и меня самого в детском возрасте и даже фото голых родителей моих, когда они детьми были. Меня теперь посадят или начнут принудительно лечить отклонения?


        1. Andy_Big
          06.08.2021 17:15

          Если Ваши фотографии не попали в базу американского национального центра пропавших без вести и эксплуатируемых детей, то ничего Вам не будет.


        1. DonkeyHot
          06.08.2021 21:11
          +1

          У меня есть фото голых детей. Как моих детей, так и меня самого в детском возрасте и даже фото голых родителей моих, когда они детьми были.

          вы отстали от жизни ) почитайте УК, сейчас такие фотки считается за ЦП
          Под материалами и предметами с порнографическими изображениями несовершеннолетних в настоящей статье и статье 242.2 настоящего Кодекса понимаются материалы и предметы, содержащие любое изображение или описание в сексуальных целях:
          полностью или частично обнаженных половых органов несовершеннолетнего;
          несовершеннолетнего, совершающего либо имитирующего половое сношение или иные действия сексуального характера;
          полового сношения или иных действий сексуального характера, совершаемых в отношении несовершеннолетнего или с его участием;
          совершеннолетнего лица, изображающего несовершеннолетнего, совершающего либо имитирующего половое сношение или иные действия сексуального характера.


    1. Gromin
      06.08.2021 15:11
      +11

      По мне так должен бы возникать вопрос "а не уху ели ли Apple сканировать личные файлы пользователей?". Легко прикрыться детьми, их "защитой, благом и вообще", но это - чистой воды тотальная слежка и презумпция виновности.


      1. LexaZ
        06.08.2021 15:30
        +2

        А у меня другой вопрос: то есть, уже существует механизм залива на телефоны без разрешения пользователя. Про обновления, замечу, в статье ни слова. Способ доставки уже не обсуждается, обсуждается реакция. Нда…


        1. dartraiden
          06.08.2021 15:51

          Залива, простите, чего?


          1. lpite
            06.08.2021 16:12
            +2

            Приложения без участия пользователя


            1. MTyrz
              06.08.2021 16:37

              Этот способ называется «автоматическое обновление».
              Ваш кэп.


              1. lpite
                06.08.2021 16:38
                -1

                Это скорее не обновление а просто установка приложения


                1. MTyrz
                  06.08.2021 17:37
                  +1

                  Если приложение идет, как часть ОС — то именно обновление. Механизм старый и понятный.
                  Я не пользую технику от Apple, поэтому не знаю, насколько часты и прозрачны их минорные обновления и багофиксы. Если оно происходит примерно как в десятке (которую я тоже не пользую, но больше наслышан), то там между делом прозрачно для пользователя можно установить хоть слона мытого.


                  1. lpite
                    06.08.2021 17:39

                    Та даже на андроиде появлялось nearby share без обновлений


                    1. zikasak
                      06.08.2021 18:06
                      +1

                      Без обновлений? Гугл сервисы обновляются по несколько раз в месяц.

                      У яблока это будет в одной из прошивок.


                      1. lpite
                        06.08.2021 18:21

                        У меня выключены авто обновления


                      1. qw1
                        07.08.2021 10:27

                        У меня тоже выключены. И прошивка полностью руками пересобрана без части гугл-мусора (google search, music, books, play games и т.д.), телеметрия выключена, где можно.

                        Тем не менее, google play store я оставил, и пакеты
                        com.google.android.gms
                        com.android.vending
                        обновлены 2021-08-04, хотя я никаких разрешений не давал.


                      1. lpite
                        07.08.2021 10:28

                        Прекрасно но альтернатив нет(


              1. LexaZ
                06.08.2021 20:48

                Ни слова об автообновлении не говорено. + я могу отказаться обновляться, а они хотят. Их хотелки более приоритетные для их оборудования, чем мои, имхо.
                До этого, я позволю себе напомнить, некоторое время назад (запись в вк за 4 июн 2020, в одной из групп), было:

                Во время массовых беспорядков в США, мародеры разграбили Apple Store. Все украденные iPhone компания Apple заблокировала и вывела на экран просьбу вернуть устройство обратно в магазин с предупреждением, что местоположение гаджета отслеживается и данные могут быть переданы властям.

                Судя по всему, в смартфоны Apple изначально встроена система, которая блокирует работу устройств при их прохождении «мимо кассы» и отдалении от магазина.

                Про обновления тут речей не шло. Поэтому есть о чем задуматься.


                1. MTyrz
                  06.08.2021 22:22

                  Вы можете отказаться обновляться, но их хотелки приоритетнее. Но про обновления речи не шло. Но украденные айфоны заблокировали.

                  Я ничего не понял.


                  1. LexaZ
                    07.08.2021 08:52

                    Ну, тогда ой. Потом поймете.


        1. Jalt
          06.08.2021 16:12
          +3

          Если вы про логику сверки - она прилетит с iOS 15. Если вы про базу хешей - она, да, будет периодически обновляться с серверов Apple.


    1. Sergdesign
      06.08.2021 16:12

      я так понимаю, этот вопрос нужно задавать тем, кто делает и хранит.


    1. commanderxo
      06.08.2021 17:14
      +5

      какой смысл в принципе делать или хранить такие фото

      Какие «такие»? Которые некая проприетарная «neuralMatch» которая ещё и непредсказуемым образом обновляется извне, сочтёт завтра неправильными? Странное сочетание параметров в нейронке и ваш аккаунт на Apple, где куплено музыки на тысячу долларов, превращается в тыкву? А ещё некоторые разработчики используют учётки Apple чтоб зарабатывать на хлеб, в том числе и своим детям. Прошлогодние баталии вокруг Трампа показали как быстро в Интернете меняются мнения что такое хорошо и что такое плохо.

      Было во времена Советского Союза такое понятие — «это не телефонный разговор», и казалось что кануло в прошлое и никогда уже не вернётся. Добро пожаловать в дивный новый мир!


      1. Loggus66
        06.08.2021 19:18
        -1

        Прошлогодние баталии вокруг Трампа показали как быстро в Интернете меняются мнения что такое хорошо и что такое плохо.

        Может, у вас ещё и мемчики про негров на телефоне хранятся? Рискуете, гражданин. Сами знаете, как быстро базы обновляются. А то что - инструмент-то есть уже, почему бы и не применить для хорошего дела.


    1. vikarti
      06.08.2021 18:35

      Там еще смешнее. Если ДЕЛАТЬ новые — вполне может быть что не сдектит ничего.
      Судя по статья в ArsTechnica и ссылкам на документы Apple — там взята база таких фото и на ней натренирована нейросеть. Причем чтобы возникли проблемы — надо много таких фото загрузить в iCloud Photos. Если НЕ грузить — проблемы не будет.
      И да, Google давно именно это и делает (только без хитрых схем с клиентскими хешами и "надо много") — пример — https://www.theverge.com/2014/8/5/5970141/how-google-scans-your-gmail-for-child-porn
      Так что решение Apple как минимум не хуже чем то что гугл творит.
      Другое дело что такое лучше вообще прикрыть.
      А то дальше что — РКН сделает реестр облачных сервисов фотографий и потребует проверять там хеши картинок из реестра запрещенных в РФ картинок (где разумеется будет только опасная для детей информация картинки с deviantart и из аниме ) и сообщать?
      Яндекс возьмет под козырек.
      Гугл будут штрафовать (а потом они может и выполнят


      1. pfa
        07.08.2021 00:58

        Фото в iCloud сканируются уже давно, тут дело именно в том, что сканироваться будут фотографии на пользовательском устройстве.


        1. wyfinger
          07.08.2021 01:37

          Что будет если такую фотку или несколько отправить человеку мессенжером, например с телеграмма? Она же у него сохранится локально на телефоне. Как раз по созданию нового файла триггернется проверка.

          Человек увидит, удалит, но как я понимаю поздно уже будет, галочка "предполагаемый педофил" уже поставлена и привет проверка, блокировка, менты..

          Можно много людей подставить таким образом, это лучше чем наркотики подбрасывать.


          1. pfa
            07.08.2021 02:09

            Ну, Эпл заявляет, что сканироваться будут только фото перед отправкой в iCloud, если фоточки телеграма туда не отправляются - человек, если верить Эплу, в безопасности. Только вот у меня верить Эплу на слово нет никакого желания, а механизмов проверки и контроля Эпл не предоставляет.


  1. Gorthauer87
    06.08.2021 14:52
    +5

    А потом ещё дальше больше разных групп, за которыми следить надо и так далее до борьбы с любым инакомыслием.


    1. Tamerlanchiques
      06.08.2021 16:12
      +2

      Да. Подобные инициативы корпораций точно не нужно поощрять. Вполне вероятно, что мы увидим больше Open Source решений от маленьких компаний по типу Pine64 в ближайшее время.


    1. Tyusha
      06.08.2021 17:06
      +10

      В вашем смартфоне преобладают фото белых гетеросексуальных мужчин и женщин. Вы расист и гомофоб... Мы сообщили, куда следует.


  1. balamutang
    06.08.2021 14:53
    +11

    Блокировки в Рунете тоже сначала на благо детей проталкивались, беспроигрышная тема.


  1. anonymous
    00.00.0000 00:00


  1. Andrey_Epifantsev
    06.08.2021 15:11
    +4

    Прямо киберпанк какой-то. Мегакорпорации навязывают всем свои правила и законы.


  1. Bellerogrim
    06.08.2021 15:16
    +17

    > Вводимый механизм правозащитники считают новым опасным инструментом в руках тоталитарных режимов

    А, то есть в руках демократических режимов это нормальный, совершенно безопасный инструмент? Ясно-понятно.


    1. Flux
      06.08.2021 16:25
      +12

      Надо понимать что это другое.
      Вы тут не путайте тоталитарную слежку с демократической заботой о детях, ладно?
      Да и вообще, Apple — частная компания, что хочет то и делает, не нравится — не покупайте.


      </ sarcasm>


      1. namikiri
        06.08.2021 16:39
        +1

        не нравится — не покупайте

        А вот это уже вполне себе здравая мысль, да грустно вот, что, как говорится, пипл хавает. Мы тут возмущаемся, а большинству плевать, что там куда грузится — интернет безлимитный, производительности хватает чтобы в фоне прогнать все фоточки и посчитать их хэши, никто ничего и не заметит.


      1. etozhesano
        06.08.2021 17:11
        +3

        не нравится — не покупайте.

        Так и делаю :)


  1. illegally_happy
    06.08.2021 15:24
    +8

    ошейник iSlave всего за 999$ !!!


    1. tropico
      06.08.2021 16:59

      Гугл - имеем целый сайт где описано как мы сканируем контент на всех наших сервисах с конкретной статистикой. В 2014 еще были новости как ловили педофилов.
      Пользователи - <ничего не замечают>

      Apple - будем сканировать как в Гугле
      Пользователи - <ну все, Apple на костер>


      1. wyfinger
        06.08.2021 17:29
        +3

        Google сканирует фото на моем телефоне с андройдом?

        Пруфы?


        1. Andy_Big
          06.08.2021 17:36
          +2

          На телефоне с андройдом — нет, и даже на телефоне с андроидом нет. В облаках, куда попадают фотки с телефонов на андройдах и андроидах — да.
          Почти так же и у Эпл — фотографии будут сравниваться с базой педофильных фотографий перед отправкой в облако. Как у Гугла, только часть обработки переложена с сервера на телефон.


          1. kasthack_phoenix
            06.08.2021 19:32

            >В облаках, куда попадают фотки с телефонов на андройдах и андроидах — да.

            Они туда не попадают, если их туда не заливать.

            >Как у Гугла, только часть обработки переложена с сервера на телефон.

            Тут есть принципиалная разница, что они свои щупальца засовывают в телефон пользователя. Они могут у себя сканировать, чтобы не хранить на своих серверах контент.


            1. Andy_Big
              06.08.2021 19:35

              Они туда не попадают, если их туда не заливать.

              Совершенно верно. Как и у Эпла.


              1. pfa
                07.08.2021 01:02

                При этом у Эпла теперь будут сканироваться даже те фото, которые в облака не попадают. В отличие от.


                1. Andy_Big
                  07.08.2021 01:26

                  Они будут сканироваться перед тем как отправиться в облако, в процессе подготовки к этому.


                  1. pfa
                    07.08.2021 02:06
                    +5

                    Окей, перефразирую: теперь нам придется верить Эплу на слово, что механизм, имеющий возможность сканировать что угодно на предмет чего угодно на девайсе пользователя, будет сканировать только фото и только перед отправкой в облако.


                    1. tropico
                      07.08.2021 14:35

                      Окей, перефразирую: теперь нам придется верить Эплу на слово

                      Вам можно и не верить. Если яблоко такое сделает (оно в контексте приватности никогда не врало и не делало как-то иначе, а вот Гугл со своим оффлайн-шпионажем и штрафами дело другое), репорт не будет иметь юридической силы, так как компания делала действия, не поставив в известность пользователей (клиентов). Дело даже не сможет дойти до суда.


                  1. qw1
                    07.08.2021 11:11

                    Они будут сканироваться перед тем как отправиться в облако, в процессе подготовки к этому.
                    А где это написано? В статье я вижу
                    Система будет постоянно сравнивать фотографии на iPhone и в облаке iCloud с базой из 200 тысяч собранных правозащитниками изображений


                    upd. нашёл ниже цитаты на заявление от apple


            1. alsoijw
              07.08.2021 10:06

              Они туда не попадают, если их туда не заливать.
              Как минимум пересылка через мессенджеры тоже проверяется.


              1. tropico
                07.08.2021 14:49

                Другими словами яблоко сканирует только в том случае, если пользователь хочет пересылать фото через сервера яблока. Параноики могут не пользоваться сервисами яблока как и сервисами Гугла, тогда никто нигде ничего не будет сканировать. Тревогу и факелы можно отменять.


          1. kick_starter
            08.08.2021 16:40

            только часть обработки переложена с сервера на телефон

            Это и есть ключевое отличие


      1. alsoijw
        06.08.2021 19:15

        Локальная обработка контента с использованием машинного обучения с загрузкой для ручной обработки?


      1. pfa
        07.08.2021 01:03
        +2

        "Как в Гугле" (фото, загруженные в облако) Эпл сканирует уже давно. А вот анальный зонд на устройстве пользователя - это новое изобретение, до которого пока даже Гугл не додумался.


  1. darkAlert
    06.08.2021 15:42
    +4

    ну давайте уже вешайте камеры в каждую квартиру, система глубокого анального наблюдения. В 8 утра еще дрыхнешь в кровате, а не за рабочим местом - добровольно-принудительное поднятие. Работаешь не эффективно, отвлекаешься на котиков - биг дата тебя уволила. Увидел краем глаза в интернете экстремиский материал и твое лицо не выразило достаточного осуждение - сгенерировался протокол и отправился в органы.


  1. Lomert
    06.08.2021 15:46
    +3

    Система будет постоянно сравнивать фотографии на iPhone и в облаке iCloud с базой из 200 тысяч собранных правозащитниками изображений жестокого обращения с детьми. Каждое фото будет отмечаться, и, если наберется определенное число подозрительных снимков, Apple расшифрует эти файлы для проверки специалистами-людьми.
    Кажется, до такого уровня шпионажа даже Google с его таргетированной рекламой ещё далеко. Какую ОС теперь на телефон ставить? JingOS?


    1. dartraiden
      06.08.2021 15:54
      +4

      PedoOS.

      А если серьёзно, то в новости очень нагнетено. Сверка будет производиться перед загрузкой изображений в облако iCloud. Крупные облачные хранилища (Dropbox, Onedrive, GDrive, и даже Discord) уже давно используют PhotoDNA, но почему-то к ним претензий у комментаторов нет, а вот клятая эппл ррря.

      Серьёзно, если вы не хотите, чтобы вашу детскую порнографию (а там ищется уже известный контент, признанный детским порно, то есть, не частные фото вашего голозадого отпрыска) обнаружили, а вас посадили, то, наверное, не слишком умно открыто заливать её в облака?


      1. pvsur
        06.08.2021 16:05
        +7

        Вы не поняли, искать будут в самом телефоне, а не в iCloud…
        Ну и сегодня это сверка по хэшам, завтра — анализ ИИ. Послезавтра не только ЦП, и не только iPhone…
        Вам неужели нравится, когда охранник в супермаркете потрошит вашу сумку, пусть даже вы туда ничего крамольного на клали? :))


        1. dartraiden
          06.08.2021 16:06
          -2

          Искать будут в телефоне перед заливкой в iCloud.

          Ну и сегодня это сверка по хэшам, завтра — анализ ИИ. Послезавтра не только ЦП, и не только iPhone…

          Сегодня вы занимаетесь сексом по обоюдному согласию, а завтра начнёте насиловать. Давайте вас ошельмуем уже сегодня. Я помню времена, когда это было анекдотом, а сейчас это уже всерьёз выдают как аргумент.


          1. Lomert
            06.08.2021 16:37
            +3

            сегодня это сверка по хэшам, завтра — анализ ИИ
            Завтра уже наступило. Я не знаю, кто выдумал «сверку по хэшам», но в разных источниках, в том числе и в этом посте, говорится о некоем «neuralMatch», что по названию уже не похоже на алгоритм хэширования.


          1. qw1
            07.08.2021 11:27

            Искать будут в телефоне перед заливкой в iCloud.
            Можете привести источник? В статье написано, что сканировать будут все фотографии на устройстве.

            То же самое пишет theguardian.com: Apple will scan photo libraries stored on iPhones in the US for known images of child sexual abuse

            upd. нашёл ниже цитаты на заявление от apple


        1. YMA
          06.08.2021 16:27
          +3

          "По хэшам" - это чтобы народ расслабился, на самом деле устройства на iOS уже давно анализируют фото, находят на них объекты, тэгируют и систематизируют фото. Включая распознавание лиц и текстов.

          Да, это удобно - набрав "Вася Пупкин", можно получить все фото с ним (если ранее отметили, что этот человек на фото - Вася). Или по слову "козел" - получить натурально все фото с козлами. Или "ресторан" - все фото, похожие на ресторанную обстановку.

          Но, судя по этой статье, этот инструмент можно использовать и в другую сторону - находить злых обидчиков детей и котиков, а также тех, у кого на телефоне есть фото нужных людей или интересных документов... Да уж...


  1. YMA
    06.08.2021 16:17
    +6

    И все папы идут строем в тюрьму ;) (фото из мемов "с папой веселее").


  1. iiwabor
    06.08.2021 16:29
    +9

    Большинство ограничения прав и свобод проталкиваются под лозунгом защиты детей...

    Я сначала, по наивности, думал что это только в тоталитарных режимах такое, ан нет - и вполне демократические этим тоже балуются...

    Да, очень удобно - и никто против не скажет, а иначе - "Вы что - за педофилию/порнографию/ жестокое обращение (нужное подчеркнуть) с детьми?!"


    1. kick_starter
      08.08.2021 16:45

      и никто против не скажет

      Скажут. И уже говорят.


  1. Andy_Big
    06.08.2021 16:35
    -3

    Очередное насилие ученого над редактором хабра...

    1. Не жестокого обращения, а детской порнографии (сексуального контента с участием детей).

    2. Не сканировать все фото в поисках признаков этой самое порнографии, а сравнивать хэши фотографий при загрузке с телефона в облако с хешами из базы известных педофильных фотографий.


    1. Lomert
      06.08.2021 16:46
      +1

      Источник?

      Не жестокого обращения, а детской порнографии (сексуального контента с участием детей).
      Везде видел формулировку «child abuse», в буквальном переводе «злоупотребление детьми». Трактовать можно достаточно широко.
      Не сканировать все фото в поисках признаков этой самое порнографии, а сравнивать хэши фотографий при загрузке с телефона в облако с хешами из базы известных педофильных фотографий.
      Про хэши, кажется, уже на хабре додумали. Сама технология называется «neuralMatch», что сильно не похоже на название технологии сравнения хэшей.


      1. Andy_Big
        06.08.2021 17:12
        -1

        Источник?

        www.apple.com/child-safety, www.apple.com/child-safety/pdf/CSAM_Detection_Technical_Summary.pdf
        Сама технология называется «neuralMatch», что сильно не похоже на название технологии сравнения хэшей.

        Тем не менее, это остается сравнением хэшей, просто хэши не тупые типа MD5. Разным изображениям будут соответствовать разные хэши. А вот одному и тому же изображению — один хэш, даже если это изображение в другом формате, в другом разрешении или в другой цветовой палитре.


        1. Lomert
          06.08.2021 17:48

          Offtop
          Тем не менее, это остается сравнением хэшей, просто хэши не тупые типа MD5.
          «Умные хэши» в «умном телефоне» в «умном доме»…
          Разным изображениям будут соответствовать разные хэши. А вот одному и тому же изображению — один хэш, даже если это изображение в другом формате, в другом разрешении или в другой цветовой палитре.
          Вы сейчас магию описываете. Что по-Вашему «разные изображения»? Если изображение обрезать, оно станет другим, или останется «одним и тем же»? А если поверх изображения что-то нарисовать?


          1. Andy_Big
            06.08.2021 17:55

            Тут в комментариях уже приводили ссылку на статью, описывающую как работают перцептивные хэши.


            1. Lomert
              07.08.2021 02:12
              +2

              статью, описывающую как работают перцептивные хэши
              Да, но именно перцептивные хэши, во многих случаях, будут разными для оригинального изображения и изображения «в другой цветовой палитре». Перцептивные хэши, в отличие от криптографических (которые Вы назвали «тупыми»), допускают сравнение для нахождения похожих изображений, и именно этого ответа я от Вас добивался.
              Возможность такого сравнения побочным эффектом предоставляет возможность по хэшу создать изображение-коллизию (об этом уже был комментарий), хэш которого будет совпадать с оригинальным, при этом само изображение в некоторой степени будет похоже на оригинальное, это обусловлено самим алгоритмом. Чем более точным будет алгоритм, тем больше он будет содержать информации об оригинале изображения, тем ближе будет к оригиналу изображение-коллизия. Чем менее точным будет алгоритм, тем больше Ваших фото посмотрит «специалист Apple» из-за подозрений алгоритма.

              Так я отвечал на Ваш второй пункт:
              2. Не сканировать все фото в поисках признаков этой самое порнографии, а сравнивать хэши фотографий при загрузке с телефона в облако с хешами из базы известных педофильных фотографий.
              Перцептивные хэши нацелены на уменьшение необходимого объёма информации для сравнения двух изображений, у них нет цели безвозвратно сокрыть оригинал, как у криптографических хэшей, поэтому сравнение именно перцептивных хэшей, а не изображений, не может быть сильным аргументом в пользу конфиденциальности.

              Более того, по Вашей ссылке в технических деталях Apple утверждают, что до алгоритма ещё и нейронку там зачем-то используют, что выглядит ещё сомнительнее.


    1. staticmain
      06.08.2021 16:48
      +3

      neuralMatch != хэши, это выдумка переводчика.


      1. Andy_Big
        06.08.2021 17:33
        -1

        Да, neuralMatch — это вся система целиком. Но основана она на хэшах — neuralHash.


  1. connected201
    06.08.2021 16:56

    А потом на лица подозреваемых перейдут?


  1. tropico
    06.08.2021 17:16
    +3

    Когда-то говорили что на Хабре люди с хорошим логическим мышлением, но комментарии подтверждают обратное - в пресс-релизе сказано, что проверки фото будут проводиться перед отправкой в iCloud, то есть есть улавливаете разницу?

    Но зачем читать оригинальные источники, если можно сразу накинуть на вентилятор.

    To help address this, new technology in iOS and iPadOS* will allow Apple to detect known CSAM images stored in iCloud Photos.
    ...
    Before an image is stored in iCloud Photos, an on-device matching process is performed for that image against the known CSAM hashes. This matching process is powered by a cryptographic technology called private set intersection, which determines if there is a match without revealing the result. The device creates a cryptographic safety voucher that encodes the match result along with additional encrypted data about the image. This voucher is uploaded to iCloud Photos along with the image.


    1. alsoijw
      06.08.2021 19:10

      The Messages app will add new tools to warn children and their parents when receiving or sending sexually explicit photos.

      When receiving this type of content, the photo will be blurred and the child will be warned, presented with helpful resources, and reassured it is okay if they do not want to view this photo. As an additional precaution, the child can also be told that, to make sure they are safe, their parents will get a message if they do view it. Similar protections are available if a child attempts to send sexually explicit photos. The child will be warned before the photo is sent, and the parents can receive a message if the child chooses to send it.

      Messages uses on-device machine learning to analyze image attachments and determine if a photo is sexually explicit. The feature is designed so that Apple does not get access to the messages.
      Судя по упоминанию машинного обучения, а так же анализе отправляемых файлов, становится понятно, что это не просто список хешей, загружаемых на устройство.
      Using another technology called threshold secret sharing, the system ensures the contents of the safety vouchers cannot be interpreted by Apple unless the iCloud Photos account crosses a threshold of known CSAM content. The threshold is set to provide an extremely high level of accuracy and ensures less than a one in one trillion chance per year of incorrectly flagging a given account.

      Only when the threshold is exceeded does the cryptographic technology allow Apple to interpret the contents of the safety vouchers associated with the matching CSAM images. Apple then manually reviews each report to confirm there is a match, disables the user’s account, and sends a report to NCMEC. If a user feels their account has been mistakenly flagged they can file an appeal to have their account reinstated.
      А здесь прямо говорится, что при превышении некоего показателя, система в штатном режиме будет загружать файлы яблоку, чтобы там сотрудники в ручном режиме просматривали чужие данные.

      А вот описание вполне конкретного события, когда пострадавший и обвинённый был одним лицом.


      1. tropico
        06.08.2021 19:19

        становится понятно, что это не просто список хешей, загружаемых на устройство

        Так это разный функционал в разных местах. Вот пдфка с техническими деталями.

        Кстати понятна позиция почему не сканируют на сервере:

        The system is significantly more privacy-preserving than cloud-based scanning, as it only reports users who have a collection of known CSAM stored in iCloud Photos.


      1. Am0ralist
        09.08.2021 16:01
        +2

        А вот описание вполне конкретного события, когда пострадавший и обвинённый был одним лицом.
        Причём у человека останется на всю жизнь пометка о совершении сексуального насилия над детьми, ага. Там вообще куча прекрасных случаев было с подобными фотками…


    1. pfa
      07.08.2021 01:13

      То, как Apple будет использовать эту технологию - иррелевантно, ибо в любой момент может быть изменено. Важно то, что теперь у Apple будет техническая (и юридическая) возможность сканировать контент на устройстве пользователя. Последующая загрузка контента в iCloud не является техническим требованием: сам матчинг происходит на конечном устройстве, потому в случае положительного матча ничего не мешает айфону отправить подозрительный контент напрямую товарищу майору.


      1. tropico
        07.08.2021 14:04

        То, как Apple будет использовать эту технологию - иррелевантно, ибо в любой момент может быть изменено. Важно то, что теперь у Apple будет техническая (и юридическая) возможность сканировать контент на устройстве пользователя.

        Такой уровень аргументов можно употребить вообще к кому угодно. Гугол сканирует контент (фото, видео, ссылки и т.д.) вообще на всех своих сервисах серверно, так как имеет доступ. В Яблока нету доступа к вашим айклауд фото, если они не были задетекчены по педо-базе и не перешли некоторый "порог". То есть это максимальный уровень приватности в данной ситуации - Яблоко серверно не сканирует ваш контент и не собирается этого делать, иначе делали бы как Гугл последние 10 лет.

        Последующая загрузка контента в iCloud не является техническим требованием: сам матчинг происходит на конечном устройстве, потому в случае положительного матча ничего не мешает айфону отправить подозрительный контент напрямую товарищу майору.

        Это лишь выдумки. Яблоко не сканирует фото, если они не отправляются в айклауд вообще никак. Это четко написано в документах, прикрепленных к пресс-релизу. Если они будут делать иначе - это не будет иметь никакой юридической силы в США. Гадать на кофейной гущи что они могут что-то там поменять в любой момент уровень детсада, не более. Им тогда проще делать как в Гугле и вообще не париться, но они пошли другим путем, поэтому их и уважают за максимальную приватность забугром.


        1. pfa
          07.08.2021 21:54
          +1

          Apple уже сканирует фото в iCloud на предмет цп, пример статьи. То есть в этом плане ничем принципиально не отличается от Гугла. Соответственно, в плане прайваси этот ход ничего не добавляет, а вот в плане возможностей абьюза - добавляет очень многое.


          1. tropico
            08.08.2021 13:51

            Apple уже сканирует фото в iCloud на предмет цп

            Ваша ссылка ссылается на статью в The Telegraph, где в низу пишут что никаких фактов про iCloud нет. То есть это просто догадки журналистов в стиле желтой прессы:

            Update January 9, 2020

            This story originally said Apple screens photos when they are uploaded to iCloud, Apple's cloud storage service. Ms Horvath and Apple's disclaimer did not mention iCloud, and the company has not specified how it screens material, saying this information could help criminals.


            1. qw1
              08.08.2021 14:43
              +1

              факты из вашей ссылки:
              1. Jane Horvath, Apple’s chief privacy officer, said at a tech conference that the company uses screening technology to look for the illegal images. The company says it disables accounts if Apple finds evidence of child exploitation material, although it does not specify how it discovers it
              2. Speaking at the Consumer Electronics Show in Las Vegas, Ms Horvath said removing encryption was “not the way we’re solving these issues” but added: “We have started, we are, utilising some technologies to help screen for child sexual abuse material.”
              И, вишенка на торте:
              3. Apple made a change to its privacy policy last year that said it may scan images for child abuse material

              Т.е. компания хочет на двух стульях усидеть: клиентам сказать, что она всё шифрует. Моралфагам сказать, что цп пресекается. И тумана побольше напустить, мол, мы вам не скажем, как же это всё на самом деле работает.

              Замечу, что это публикация января 2020 года, когда о детектировании порнушки на устройстве пользователя и речи не шло, поэтому iCloud там подразумевается (или какая ваша интерпретация?)


              1. tropico
                08.08.2021 19:35
                +1

                поэтому iCloud там подразумевается (или какая ваша интерпретация?)

                Сканируется iCloud Mail, так как письма на серваки приходят незашифрованными (есть статья как они уже передавали педофилов в руки правосудия). Там и скрининг входящего на сервер контента, а iCloud Photo на стороне сервера как не сканировали из-за приватности, так и не планируют (о чем сказано в техническом документе, прикрепленном к пресс-релизу).


                1. qw1
                  08.08.2021 19:43

                  Похоже, так и есть. В истории 2019-2020 года всякие СМИ типа Wired нагнетают про сканирование фотографий, приплетают всякие хеши и PhotoDNA, а если перейти к источникам, кроме проверки e-mail ничего не находится.


    1. geher
      07.08.2021 15:01
      +1

      в пресс-релизе сказано, что проверки фото будут проводиться перед отправкой в iCloud,

      Ключевые слова - перед отправкой, т.е. таки еще на телефоне пациента.

      это не будет иметь никакой юридической силы в США

      Это не может использоваться в суде, но может быть использовано для того, чтобы обратить более пристальное внимание в поисках улик, уже имеющих юридическую силу.


  1. Num
    06.08.2021 18:35
    +3

    Страшно то, что данная система легко атакуется — то есть вам отправляют безобидную, с виду, фотографию, хэш которой будет совпадать с хэшем из базы — и всё, за вами выехали.


    1. tropico
      07.08.2021 14:14

      Эту фотку еще нужно сохранить в галерею, а не просто получить в каком-то вацапе/MMS, где все данные лежат в контексте песочницы программы. Да и что-то не видно новостей про Гугл, который сканирует все фотки (и весь остальной контент) серверно. Пользователей Андроида еще легче "атаковать".


      1. Num
        07.08.2021 17:18

        а не просто получить в каком-то вацапе/MMS, где все данные лежат в контексте песочницы программы.

        Из FAQ:
        By default, photos and videos you receive through WhatsApp will automatically be saved in the WhatsApp folder of your iPhone's Photos.

        Помимо этого, это может быть банально какое-нибудь расписание, которое вы сохраните не задумываясь, даже если автосохранение выключено. Ну а принимая во внимание софт а-ля Pegasus, позволяющий удаленно загружать любую информацию без ведома пользователя, становится совсем плохо.
        Да и что-то не видно новостей про Гугл, который сканирует все фотки (и весь остальной контент) серверно. Пользователей Андроида еще легче «атаковать».

        Всё таки сканирование облачных файлов и сканирование на устройстве это две большие разницы. Обратите внимание, что даже для Гугла и Майкрософта, оффлайн сканирование пользовательских данных является насколько сильным нарушением приватности, что они не смогли себе это позволить. В этом смысле иронично, что такой шаг был сделан компанией, всё продвигающей себя как privacy-friendly.

        Отдельно добавлю, что в силу специфики технологии, совпадения ищутся по отдельным элементам фотографии. Есть ли у вас уверенность, что ваше ню-селфи не будет расценена нейронкой как ЦП?

        С подобными проприетарным черными ящиками от Apple, мы буквально получаем тотальную слежку, к которой столько лет стремились спецслужбы с появлением персональной криптографии. Нет никакой уверенности, что следующий апдейт на начнёт выявлять фото содержащие, например, копирайт или порочащие Компартию Китая материалы. Причем понимают это даже в самом Apple.

        В качестве дополнительного материала рекомендую ознакомится с тредом Matthew Green, криптографа из Johns Hopkins.


        1. tropico
          07.08.2021 19:09

          Всё таки сканирование облачных файлов и сканирование на устройстве это две большие разницы. Обратите внимание, что даже для Гугла и Майкрософта, оффлайн сканирование пользовательских данных является насколько сильным нарушением приватности, что они не смогли себе это позволить.

          В этом смысле иронично, что такой шаг был сделан компанией, всё продвигающей себя как privacy-friendly

          Как раз все с точностью до наоборот. Эппл не трогает ваши данные на своих серверах из-за уважения к приватности, когда Гугл и Майкрософт сканируют все подряд на своих серверах. То есть если человек понимает разницу между этими двумя подходами и для него главное это приватность, то понятно что он выберет яблоко (как и рекомендовал еще много лет назад Сноуден).

          По вотсапу - так же логи хранятся в айклауде по умолчанию, значит следователи просто посмотрят что фото пришло от левого контакта и было автоматически сохранено - нету умысла, нету дела.

          Есть ли у вас уверенность, что ваше ню-селфи не будет расценена нейронкой как ЦП?

          Гугл делает эти сканы годами, что-то не видно новостей о false positives. Яблоко четко сказало какая точность:

          The system is very accurate, with an extremely low error rate of less than one in one trillion account per year.

          То есть если даже попали на ошибку, еще нужно пройти "порог" (иметь очень много разных фото), чтобы работники эпл технически смогли расшифровать их и сравнить с экземплярами в БД.

          С подобными проприетарным черными ящиками от Apple, мы буквально получаем тотальную слежку

          Нету никакой слежки. Поэтому правительство США использовало инструменты хакерских компаний для взлома айфонов за огромные деньги. Реальная слежка есть в Гугла и ведется разбирательство:

          Arizona Attorney General Mark Brnovich sued Google on Wednesday, alleging the tech giant violated its users’ privacy by collecting information about their whereabouts even if they had turned off such digital tracking.

          В качестве дополнительного материала рекомендую ознакомится с тредом Matthew Green, криптографа из Johns Hopkins.

          В треде только параноидальные домыслы автора.


          1. Num
            07.08.2021 19:48

            Как раз все с точностью до наоборот. Эппл не трогает ваши данные на своих серверах из-за уважения к приватности, когда Гугл и Майкрософт сканируют все подряд на своих серверах. То есть если человек понимает разницу между этими двумя подходами и для него главное это приватность, то понятно что он выберет яблоко (как и рекомендовал еще много лет назад Сноуден).

            Во-первых, а вы статью то читали? Apple собирается сканировать файлы на самих девайсах, без возможности opt-out, что существенно отличается от добровольной загрузки файлов в облако.
            Во-вторых, Apple отказалась от e2e в iCloud как раз для возможности сканирования пользовательских файлов под давлением FBI, e2e шифруются только отдельные категории, вроде memoji.
            Гугл делает эти сканы годами, что-то не видно новостей о false positives.

            Хотелось бы ссылку где будет указано, что гугл использует для этого Perceptual Image Hashes, аналогичные эппловскому neuralMatch.
            Яблоко четко сказало какая точность

            Apple может, вобще говоря, заявлять какую угодно точность, это черный ящик, алгоритмы они не раскрывают.
            Нету никакой слежки. Поэтому правительство США использовало инструменты хакерских компаний для взлома айфонов за огромные деньги.

            А правительства других стран использовали Pegasus для убийства журналистов и полит активистов, что впрочем не отменяет факта использования предложенной Apple технологии, как mass surveillance tool — буквально по определению.
            В треде только параноидальные домыслы автора.

            Отличный аргумент, теперь я спокоен.


            1. tropico
              08.08.2021 19:16

              Во-первых, а вы статью то читали? Apple собирается сканировать файлы на самих девайсах, без возможности opt-out, что существенно отличается от добровольной загрузки файлов в облако.

              Я читаю первоисточники (пресс-релиз и прикрепленные технические документы). Яблоко, согласно всем документам, сканирует фото только и только перед прямой отправкой в iCloud Photo. Нигде не упоминается какое-либо превентивное сканирование, кроме желтушной прессы, кривых переводов и авторских отсебятин.

              Во-вторых, Apple отказалась от e2e в iCloud как раз для возможности сканирования пользовательских файлов под давлением FBI

              Это тоже лишь домыслы журналистов. Телеграмм так же не делает E2E потому что сперва UX, а потом безопасность. Темы проблем синхронизации и утраченного доступа избиты вдоль и впоперек.

              Хотелось бы ссылку где будет указано, что гугл использует для этого Perceptual Image Hashes, аналогичные эппловскому neuralMatch.

              У них еще больше технологий:

              We identify and report CSAM with a combination of specialized, trained teams of people and cutting-edge technology. We use both hash-matching software like CSAI Match (a technology developed by YouTube engineers to identify re-uploads of previously identified child sexual abuse in videos) and machine learning classifiers that can identify never-before-seen CSAM imagery. 

              Apple может, вобще говоря, заявлять какую угодно точность, это черный ящик, алгоритмы они не раскрывают.

              Учитывая репутацию Яблока и борьбу за приватность в западном мире это больше похоже на параною из стран, где всегда велась желтушная пропаганда против яблока (страны СНГ). Это же можно сказать и про Гугл, что о они дают доступ напрямую FBI/NSA/CIA, так как Гугл вечно уличен в скрытом шпионаже своих пользователей.

              не отменяет факта использования предложенной Apple технологии, как mass surveillance tool

              По сравнению с тем, что у других компаний, подход в Яблока максимально обеспечивающий приватность и неприкосновенность личных данных. Поэтому все, кто беспокоится за приватность и не хочет страдать с полуработающими пикселями на GrapheneOS выбирают Яблоко (как и рекомендовал Сноуден, а он уж то точно знал).


  1. gxcreator
    06.08.2021 19:43
    +5

    Классика


  1. j4sp3R
    07.08.2021 07:53

    Главное помнить про рекламу на баннерах.

    Apple - конфиденциальность.


    1. tropico
      07.08.2021 14:29

      Если вы об этой рекламе, то она не противоречит данной новости. Если вы не отправляете фото в айклауд, ничего не сканируется.

      https://uploads.disquscdn.com/images/cefc3d01cedfee029b24155fac39921e924cca52743827091921ed008c4b2bcd.jpg


  1. anonymous
    00.00.0000 00:00