По информации Reuters, Apple раскрыла начальный порог срабатывания триггера системы сканирования фотографий пользователей на предмет содержания материалов о сексуальном насилии над детьми, отправленных в iCloud. Эта функция для безопасности детей появится в iOS 15.

Учетная запись пользователя попадет под подозрение, если на его смартфоне будет обнаружено 30 и более совпадений хэшей изображений жестокого обращения с детьми, включая детскую порнографию, с базой данных ФБР и организации «Национальный центр пропавших без вести и эксплуатируемых детей». Также к этим базам могут быть добавлены данные от общественных организаций, но после согласования с Apple.

Далее эта информация будет проверяться сотрудниками Apple и передана в правоохранительные органы. В случае подтверждения фактов наличия запрещенного контента компанией будет сделана блокировка учетной записи пользователя с тридцатью и более запретными кадрами.

Сотрудники компании и уполномоченные властями лица не будут иметь доступа ко всей библиотеке фотографий пользователя на смартфоне в ходе расследования. Пользователь в случае несогласия блокировки сможет по правилам iCloud подать апелляцию. Она будет вручную рассматриваться специалистами Apple в течение нескольких дней.

Apple заверила, что если не выгружать фотографии в облачный сервис iCloud и выключить функцию iCloud Photos, то система система слежения ничего не будет анализировать на устройстве пользователя. Также компания пояснила, что новая функция является базовой частью iOS и не может быть изменена в зависимости от страны использования iPhone — у всех пользователей в мире будут одинаковые условия сканирования их изображений.

Apple уточнила Reuters, что алгоритм системы анализа и учета хэша фотографий еще находится в доработке. После запуска системы в массовое пользование число запрещенных кадров для обращения внимания компании на действия пользователя может быть снижено и составит менее 30.

В начале августа СМИ сообщили, что Apple начнет сканировать iPhone на предмет фото жестокого обращения с детьми. Apple признала наличие проблемы с тем, как пользователи приняли это нововведение. Компания считает, что новая система анализа фотографий на iPhone и поиск там незаконных и запрещённых изображений является частью «важной миссии» по обеспечению безопасности детей, но при этом сохраняется глубокая приверженность Apple к конфиденциальности пользователей.

6 августа разработчики, эксперты по информационной безопасности, криптографы, исследователи, ученые, юристы и обычные пользователи со всего мира призывали Apple в открытом письме отказаться от планов сканировать весь личный контент на устройствах пользователей. Они считают, что это подрывает конфиденциальность пользователей в экосистеме компании и механизм работы системы сквозного шифрования. Открытое письмо уже подписали на GitHub более 8 тысяч частных лиц и организаций, в том числе Фонд свободы прессы, Нью-Йоркская публичная библиотека и экс-сотрудник ЦРУ Эдвард Сноуден.

Бывший руководитель службы безопасности Facebook Алекс Стамос прокомментировал ситуацию насчет политики Apple и заявил, что в данной ситуации нет простых ответов. Стамос призывает к более детальному обсуждению обе стороны — сторонников нововведения, которые заявляют, что это отличный ход, а также противников, для которых это абсолютно неприемлемая ситуация.

Комментарии (105)


  1. Ivnika
    15.08.2021 15:30
    +34

    Как-то уж очень много на себя собирается взять apple. И дело даже не в нужности / ненужности, а на каком основании коммерческая организация берет на себя право и обязанность полицейской / судейской системы? Я уже молчу про возможность ошибок и манипуляций


    1. DrPass
      15.08.2021 16:33
      +9

      В данном случае скорее не судейской, а стукаческой системы. А на каком основании… ну,
      а) Они могут
      б) Мы им сами даём материал для этого
      в) Сейчас это в тренде.


      1. 300KpS
        15.08.2021 16:44
        +7

        г) Возможно, по требованию силовиков. Кто с них что требует - инфа непубличная


      1. DimanDimanyich
        16.08.2021 10:47
        +1

        но хотелось бы уточнить вероятности правильного обнаружения и ложной тревоги.


  1. anonymous
    00.00.0000 00:00


  1. SquareRootOfZero
    16.08.2021 05:14
    +2

    Зачем тогда придумывают всякие извращения вроде «свидетельства канарейки»?


    1. ilammy
      16.08.2021 05:19
      +2

      Потому что «добровольное сотрудничество кабы чего не вышло» — одно дело, а subpoena + gag order — другое. Во втором случае вы совершаете преступление просто упоминая тот факт, что государство что-то от вас хотело (не говоря уже о том, если откажаетесь выполнять требование суда).


      1. SquareRootOfZero
        16.08.2021 20:21

        Так и что, невозможно сделать такое «subpoena + gag order», чтобы типа обязать тебя все данные сливать, встроить бэкдоры куда скажут и никому об этом не рассказывать?


        1. Moskus
          16.08.2021 21:27

          Вы определенно не понимаете, что такое subpoena в юридическом смысле. Если сильно упрощённо, то вы, фактически, спрашиваете, возможно ли выписать ордер на обыск, который не связан ни с конкретным расследованием, ни с конкретными подозреваемыми, имеет открытую дату (позволяет приходить и искать когда угодно и сколько угодно раз), а ограничен только объектом поиска. Нет, такой мрак совершенно невозможен. Впрочем, возможен закон, который позволял бы такое, и нечто подобное есть в Австралии, но нет в США.

          Добавлю, что хотя некоторый произвол со стороны спецслужб всегда возможен, масштаб этого и методы его реализации могут очень различаться от страны к стране. Именно по этой причине случилось, например, известное (вероятно, не вам) недавнее противостояние по поводу шифрования телефонов между Apple и ФБР. И именно по этой причине спецслужбы в США стараются протолкнуть технические средства обхода шифрования и т.п. какими угодно методами, а не просто пользуются "телефонным правом", как в других странах.


          1. SquareRootOfZero
            17.08.2021 16:51

            Как тогда понимать вот это?

            PRISM дает право Агентству получать самую разнообразную информацию: просматривать электронную почту, прослушивать голосовые и видеочаты, просматривать фотографии, видео, отслеживать пересылаемые файлы, узнавать другие подробности из социальных сетей.
            По заявлениям спецслужб, по решению суда на активное сотрудничество вынуждены были пойти многие крупные компании, предоставив спецслужбам доступ к серверам Microsoft (Hotmail), Google (Google Mail), Yahoo!, Facebook, YouTube, Skype, AOL, Apple и Paltalk.
            (...)
            Директор Национальной разведки США Джеймс Клэппер принёс извинения перед американским Сенатом за ложное заявление о характере работы АНБ, которое он сделал в марте 2013 года на слушаниях в Сенате. Тогда Клэпперу был задан вопрос, ведёт ли АНБ сбор данных о миллионах американцев. Клэппер ответил: «Нет, сэр».
            (Википедия)

            То есть, если по-честному, он должен был бы ответить: «Да, сэр. Ведем, сэр. Собираем данные о миллионах американцев, крупные компании предоставили нам доступ к своим серверам по решению суда.» Все эти миллионы американцев были, исходя из вашей трактовки, «конкретными подозреваемыми»?


            1. Moskus
              17.08.2021 20:37

              Ситуация с PRISM не противоречит тому, что я утверждал выше, потому что вы, опять, не понимаете юридической механики этого конкретного нарушения со стороны NSA. Во-первых, факт того, что это было признано нарушением, как раз и указывает на то, что законно требовать "дать им доступ ко всему подряд" спецслужбы не могу, всё подряд они могут получить только незаконно. Во-вторых, законная процедура использования предполагает решение суда (ордер), который разрешает получение информации, прямо относящейся к конкретному расследованию (и ключевым словам/фразам). Это всё равно не ситуация, когда "NSA пришли к Google и сказали выдать им всё подряд, при этом это было законно". Другие случаи (например, история с обвинением Майкла Флинна в сотрудничестве с российскими спецслужбами) также иллюстрируют это - слежка была авторизована специальным судом FISC в результате того, что представители спецслужб соврали суду.

              Для тех, кто всё ещё не понимает, о чём идёт речь, коротко суммирую, что проблема со слежкой конкретно в США не в том, что она законна, а в том, что спецслужбы не несут ответственности за нарушение закона в должной степени. И в том, что такие нарушения сравнительно (для них) легко совершить, либо злоупотребляя возможностями существующих инструментов, либо введя суд в заблуждение.


              1. SquareRootOfZero
                17.08.2021 20:58

                По-моему, вы противоречите сами себе: выше вы пишете, что «такой мрак (получить разрешение суда на доступ ко всему подряд) совершенно невозможен», тут вы уже пишите, что он (мрак), в принципе, возможен, если суду грамотно наврать. В итоге выходит, что да, доступ ко всему подряд получился незаконным, но незаконным не по сути и в принципе (иначе суд бы не предоставил его, наври спецслужбы хоть что), а незаконным в силу обстоятельств его получения, т. е., будь обстоятельства чуть другими — и врать бы не пришлось, и было бы все законно-презаконно, что не подкопаешься.


              1. Moskus
                17.08.2021 22:22

                Ну, вы не понимаете или отвергаете разницу между описанным вами невозможным гипотетическим ордером "на всё вообще, без всяких оснований, потому что нам так хочется" и вполне реальным ордером на конкретные ключевые слова в рамках конкретного расследования, которым ещё и злоупотребили. Вот в Австралии, например, нет такой структуры, как FISC, там то, про что вы говорите, возможно. Забавно, что существует абсолютно пророческий художественный фильм Secret City о том, как это там работает, снятый незадолго до того, как тамошним спецслужбам были даны практически неограниченные полномочия, описанные в фильме.


  1. anonymous
    00.00.0000 00:00


    1. tommy_lee
      15.08.2021 18:10

      Они просто не хотят хранить такие фотки у себя в облаке, во избежание проблем с законом у самой Apple. Проверка будет проводиться для тех изображений, которые синхронизируются через iCloud.


      1. Naglec
        15.08.2021 23:57
        +2

        Можно просто не знать, что хранишь, если шифровать контент


    1. Kvakosavrus
      15.08.2021 21:29
      +16

      Потому что никто не возражает. Рухнули акции эпл после этой новости? Нет.

      Покупатели отказались от эпл? Нет.

      Значит слежка всех устраивает.


    1. FirExpl
      16.08.2021 07:22
      +2

      Банальная попытка усидеть на двух стульях. С одной стороны Эпл типа за конфиденциальность данных пользователей, с другой стороны есть исполнительная власть (и иногда законодательная) которая что-то там от них требует. Имея подобную систему Эпл с одной стороны может наконец начать сквозное шифрование iCloud (сейчас этого не делается), с другой стороны заявить, что они помогают в борьбе с ЦП вот вам подозрительные личности и вообще отстаньте от них, они ничего расшифровать не могут.


      1. Ivnika
        16.08.2021 10:15

        Все так. Помнится еще в прессе было что эпл отказался распароливать айфон какого-то наркоторговца (который уже толи был осужден, толи в процессе), как- то не вяжется тот случай с нынешним, толи их обязали, толи переобулись на лету..


  1. Loggus66
    15.08.2021 16:18
    +5

    Жду, когда к Apple придёт КПК и предложит включить эту технологию для них. Контроль над iCloud Китай уже отобрал в своём регионе.


  1. oisee
    15.08.2021 16:21
    +1

    Любители хентая вздрогнули?


    1. Wejur
      15.08.2021 20:34
      +1

      Мюсли тоже вздрогнули


  1. YMA
    15.08.2021 16:25
    +31

    Итого способ атаки: - берем 31 криминальное изображение, со смартфона с левой симкой засылаем по iMessage жертве часа в 3 ночи, к утру сообщения синхронизируются с iCloud и вуаля, учетка заблокирована, на жертве ярлычок. И по практике paypal, facebook и иже с ними - доказать роботу, что ты не верблюд - будет нереально. И прощай купленный контент, музыка, игры, дополнительное место и т.д.

    Очень спорный инструмент, однако:

    • почему компания берет на себя эти функции? (хотя в целом это понятно, иначе правительства будут под предлогом поиска этих изображений требовать доступ уже к серверам Apple);

    • почему именно 30 картинок (у меня ассоциация только с 30 сребрениками Иуды). :)


    1. DrMefistO
      15.08.2021 16:35
      -7

      Самое сложное - найти это 31 криминальное изображение.


      1. tlv
        15.08.2021 17:04
        +1

        Ну датасет достаточно (самый?) известный, хоть и не содержит самих фотографий, а только их хеши, но не думаю, что будет мегасложно найти всего 30 примеров самих изображений, которые попадают под хеши датасета.


        1. DrMefistO
          15.08.2021 20:25
          +1

          Т.е. умышленно искать то, что по законам практически любого государства уголовно наказуемо?


          1. suns
            15.08.2021 20:59
            +19

            Т.е. в схеме с подставой - это единственное, что вас смущает?


          1. namikiri
            15.08.2021 22:13
            +2

            Нет, зачем, можно применить что-то вроде состязательной атаки — сгенерировать такое изображение (скорее всего оно будет выглядеть как пиксельный шум), чтобы нейросеть приняла его за соответствующее критериям.


            1. DrMefistO
              16.08.2021 01:17

              Так хэши же. Брутить хэши таким образом?


              1. creker
                16.08.2021 01:36
                +3

                Не хэши там, а отпечаток на выходе нейронки. Как она себя поведет на рандомном мусоре никто не знает. Может крышу снесет и найдет совпадение с какой-нить рандомной картинкой в базе.


        1. semmaxim
          16.08.2021 08:40
          +2

          И как же? Я вот всё равно в недоумении, как найти 30 запрещённых фотографий, если они в гугле не отображаются. Да ещё и с определёнными хэшами.


          1. mrBarabas
            17.08.2021 01:11

            Ну как - брутить по хешам белый шум, хеши взять из выборки на которой эппле тренируется (возможно где-то есть про датасет информация). В итоге будет 30 картинок с теми же хешами, но наполненные белым шумом (рандомными пикселями и т.д.). Результат достигнут, фотки законные, хеши для эппла - нет.


            1. semmaxim
              17.08.2021 08:45

              Ну вот говорится, что это не просто "хэши", а отпечатки, сгенерированные нейросетями.


      1. zartarn
        15.08.2021 21:01
        +3

        Да зачем искать? Возьмет маленький ребенок телефон поиграться, пофоткает себя и всё.

        Скорее интересно, это только у нас в статьях так изменилась повесточка или это их новостники сменили тон? Изнчально вроде фигурировало "фотографий жестокого обращения с детьми"(в новости ссылка на закрытый подпиской сайт новостей), а теперь "материалов о сексуальном насилии над детьми".

        С одной ведь стороны, журналисты типа поднимают кипиш, что эпл будет сканировать фотки, но вот замена с насилия на педофилию настораживает. Уж не будет ли как у нас, только менее явное продавливание системы через "для защиты детей".


        1. chtulhu
          15.08.2021 21:44
          +2

          А откуда у них в бд будет хеш фотки, которую сделает ваш маленький ребенок? Если верить, то будут чекать только по хешу, а не пытаться определить что содержат ваши фотки.


          1. zartarn
            15.08.2021 22:15
            +1

            Тут речь не про хэш файла, а про хэш содержимого (потому что прям говорится что речь о Фотографиях и видео перед выгрузкой в облако, а не о изображениях, хотя у них там оч кривая формулировка на самом деле).

            Компания пояснила, что новая система по обеспечению безопасности детей не будет иметь доступа к контенту пользователей. Она сможет только анализировать хэши фотографий на устройстве пользователя и даже сканировать видео, но лишь в том случае, если этот контент будет загружаться в iCloud.

            Оч похоже что "система" - у них в облаке, которая будет получать хэши, а вот на телефоне будет уже что как захочет обсчитываться.

            Отчасти так яндекс к примеру ищет походие фотографии. Локально на устройстве всё считаем, с любыми опциями, а на сервер отправляем только хэш. И типа никаких личных фото никуда не передаем, никто не посмотрим. Но по таким хэшам можно судить о содержимом.

            Но это я сильно на пальцах рассказал. Погуглите перцептивный хэш


            1. Superdry
              15.08.2021 22:26
              +1

              Не думаю, что там реализован поиск похожих картинок. Имеет смысл искать именно известные изображения, иначе будет слишком много ложных срабатываний. Кмк, идея в раскрытии сети педофилов, которые делятся картинками. Получил доступ к телефону одного, нашёл его друзей. Правда, после таких инициатив, они перейдут на другие платформы.


              1. creker
                15.08.2021 23:35
                +1

                Именно похожих. Хэши у них никакие не хэши, а отпечатки, которые нейронка генерирует. В описании эпл говорит лишь о невосприимчивости к кропу и масштабу, но кто его знает, как оно на самом деле работает.


                1. zartarn
                  30.09.2021 14:31

                  Вдруг интересно. Тут недавно на реддите, в iOS14.3 обнаружили алгоритм который отрабатывает поиск картинок с ЦП (хотя обещали же с 15 версии добавить). Отреверсили.
                  новость www.reddit.com/r/MachineLearning/comments/p6hsoh/p_appleneuralhash2onnx_reverseengineered_apple
                  гихаб github.com/AsuharietYgvar/AppleNeuralHash2ONNX


              1. zartarn
                16.08.2021 09:53
                +1

                Не считая того, что искать известные изображения как есть не имеет смысла... Хорошо, как Вы будете искать известные изображения, без анализа содержимого, если их пересохранили (или как часто бывает скриншот фотки в браузере/вацапе/другом_мессанджере). jpg2png png2webp jpeg2webp - оно же постоянно сейчас пережимается то туда то сюда, а кроме того изменение размеров (а как заметили что эпл говорит оно тип невоспримчево - то тогда ваще бред и непонятно нахрен оно нужно) и т.д. и т.п. Ну и не уверен, что там в США по теме хранения ЦП, изготовление и распространение однозначно карается. А то что кто то себе в телефон закачал такие картинки вроде прав не нарушает (могу ошибаться, не слежу за темой). Про ложные срабатывания - речь идет про какую то базу все же. А значит кто то и уточнять будет, точно ли стоит агриться на детект. Да и не просто так говорится у них про минимальное количество фоток для срабатывания. Ну и не забываем, это корпорация. Они ничего не делают просто так. Доступ к фото это еще повод собрать больше информации таргетирования, а дети лишь предлог, как это всегда и бывает с педо-истерией.


      1. Murimonai
        15.08.2021 21:17
        +2

        Парсите превьюхи DLsite.com. Все предельно легально и не требует ничего сложнее wget'а.

        Задумка Apple - это просто некомпетентно. Для заявленных целей не годится совсем, а для множества посторонних - абьюзится за десять минут на уровне скрипт-кидди.

        Да и заявленные цели - та еще лажа, если уж говорить начистоту.


      1. mSnus
        15.08.2021 21:56
        +1

        Сейчас такие мультфильмы рисуют, что от реальности не отличишь. Так что их можно генерить тысячами. Была бы такая задача...


        1. DenimTornado
          15.08.2021 21:59
          +2

          только вот хеши сгенеренных не будут биться с базой запрещенных


          1. mSnus
            15.08.2021 22:16
            +2

            Тогда и хеши новых фото тоже не будут биться


    1. major-general_Kusanagi
      15.08.2021 18:05
      +4

      Можно ещё потроллить Apple массовой рассылкой миллионам адресов в духе хакера в столовой.


    1. Superdry
      15.08.2021 22:21
      +1

      Сообщения никто не читает. Написано же в статье, iCloud Photos. То есть, сначала нужно доступ к аккаунту получить, чтобы фотки сохранить из сообщений в фото пользователя.


      1. YMA
        16.08.2021 08:58
        -1

        Сообщения в iOS по умолчанию бэкапятся в iCloud, в отличие от резервирования фото, которое надо включать при первоначальной настройке.

        https://habrastorage.org/r/w1560/getpro/habr/upload_files/cf0/29f/a6d/cf029fa6d0763f14ee4f1642d9ecd98f.png


      1. razum2um
        16.08.2021 15:40

        В whatsapp есть галочка "Save to Camera Roll". Не помню ее дефолт, но изюминка в том, что это работает для всех чатов включая группы


      1. greatvovan
        04.09.2021 04:37

        По дефолту из многих мессенджеров фото сохраняются в телефон. И по дефолту же у многих включена синхронизация с iCloud. Никакого доступа не нужно, только прислать.


    1. eps
      16.08.2021 12:38
      +2

      засылаем по iMessage жертве часа в 3 ночи, к утру сообщения синхронизируются с iCloud

      Вот только эта штука работает с iCloud Photos, не с сообщениями.


      Зато вот Whatsapp… некоторые пользователи включают там опцию «Добавлять любые присланные изображения от любых номеров в мою фотогалерею», а оттуда уже можно попасть в iCloud Photos (и в Dropbox и в Яндекс-фотки и много куда ещё)


      1. greatvovan
        04.09.2021 04:46

        Не только WhatsApp, но и многие другие мессенджеры имеют эту опцию включённой по умолчанию.


    1. tropico
      17.08.2021 22:15
      -1

      Гугл и Майкрософт сканируют около десяти лет все файлы на всех сервисах, но атаки придумывают когда только в тексте слово "Apple".


    1. greatvovan
      04.09.2021 04:50

      Тоже об этом подумал. Интересно, предусмотрели ли они что-нибудь для защиты от такой атаки. Наверное, можно подать апелляцию, доказать, что картинки прислали, хотя никто не просил, и т.д., но всё равно — несколько дней изволь посидеть с заблокированной учёткой.


  1. MAXH0
    15.08.2021 17:04
    +9

    Интересно, мир уже забыл случай, когда рядовой техник Эппла рекомендовал красивым девушкам заносить технику в ванную комнату для "воздействия паром", чтобы иметь возможность полюбоваться на них?

    Ясное дело его уволили, пообещали исключи-ть возможность в дальнейшем, НО... Кто реально верит в приватность данных?


    1. Areso
      15.08.2021 17:38
      +4

      Поэтому фоточки в стиле Ню нужно делать только на "тупые" фотокамеры :)


      1. MAXH0
        15.08.2021 18:05
        +2

        Вот просто представил девушку, которая чтобы посоветоваться с подругой "это целлюлит или не" достает штатив, устанавливает на его зеркалку и делает селфи своей пятой точки. Потом безопасно шифрует и отправляет через Сигнал...


      1. sirocco
        16.08.2021 08:24

        А только потом их загружать в смартфон, чтоб отправить любимому в мессенжере?


        1. MAXH0
          16.08.2021 21:30
          +1

          Так зашифровала она их на отдельном чистом компьютере надежным симметричны алгоритмом, а ключ пересылается по независимому от смартфона каналу...

          Блин, да описывать такую девушку уже высший эротизм!



  1. Francyz
    15.08.2021 17:54
    +7

    Мне вот интересно, а разве чтобы тренировать ИИ у эпла не должно быть куча фоток с ДП, и с детским насилием, иначе как ИИ узнает что на фото?


  1. anonymous
    00.00.0000 00:00


    1. MAXH0
      15.08.2021 18:21

      Мне другое интересно... В изначальных анонсах, до того, как пошла волна протестов, Эппл вообще чудесную функциональность заявлял...

      Самое интересное это ваучеры криптографической безопасности и скан ЗАШИФРОВАННЫХ данных. Изначально еще планировался скан на стороне пользователя. Вроде бы от него отказались.

      А так есть же PhotoDNA от MS. Вполне себе похожая технология и прошла без скандала...


    1. Loggus66
      15.08.2021 20:06
      +1

      https://daringfireball.net/2021/08/apple_child_safety_initiatives_slippery_slope

      Хэши (причём не md5, а "отпечатки", призванные обнаруживать изменённые изображения) им отдаёт некоммерческая организация NCMEC. Вообще, рекомендую прочитать всю ссылку, там есть уточнения относительно того, что вводят Apple.


    1. Wejur
      15.08.2021 20:12
      -1

      хэшей изображений жестокого обращения с детьми, включая детскую порнографию, с базой данных ФБР и организации «Национальный центр пропавших без вести и эксплуатируемых детей»

      ИИ должен автоматически сканировать все фото, сравнивая полученные сигнатуры с сигнатурами в базе данных, как таковых фотоматериалов в самой apple не будет, она ведь не является гос-что-то-там. А доработка алгоритма должна вестись с подачи и по материалам самой фсб.
      Меня смущает, что весь пользовательский материал будет перетекать к этому алгоритму, расположенному на отдельном сервере в другой компании(пусть и дочке apple)


    1. DrMefistO
      15.08.2021 20:29
      +1

      Написано же - хэши. И не у эпла, а у других организаций. А хэшировать, наверное, будут участки изображения, а не целиком, или нормализовывать по какому-то принципу, тому же, что и у оригиналов тех хэшей. Но инфы маловато.


    1. Murimonai
      15.08.2021 21:22
      +1

      Все уже собрано за вас. И за них если уж на то пошло тоже.


  1. stepmex
    15.08.2021 18:14

    • родители фотографируют своих детей

    • нейросеть находит фотографии обнажённых детей

    • родителей задерживают по подозрению в педофилии

    • родителей отпускают после допроса

    повторять до совершеннолетия...


    1. MAXH0
      15.08.2021 18:25
      +1

      ну в общем то формально смартфон в руках подростка принадлежит его родителям. Замутили подростки приватный чат с пересылкой ню-селфи = приехала полиция.


      1. S-e-n
        15.08.2021 21:24
        +1

        формально смартфон в руках подростка принадлежит его родителям


        Если это подарок, то нет. Было бы дико, если бы это легально было так, как вы говорите.


        1. Kanut
          16.08.2021 12:30

          В большинстве стран есть юридическое разделение на "владелец" и "пользователь"(не знаю как это точно будет в российских юридических терминах). И обе эти вещи дают определённые права и обязанности


          И в случае со смартфоном "владелец" и "пользователь" могут быть как одним и тем же человеком(взрослый купил себе смартфон), так и разными(родители купили смартфон ребёнку или фирма выдала смартфон сотруднику).


          То есть да, в определённых ситуациях если ребёнок что-то начудил на купленном ему смартфоне, родителей тоже могут привлечь к отвественности. Или даже могут привлечь только их. Для примера может погуглить различные ситуации когда ребёнок качал какой-то "пиратский" контент, а штрафы прилетали родителям.


    1. DeniSix
      15.08.2021 18:47
      +1

      By design, this feature only applies to photos that the user chooses to upload to iCloud
      Photos, and even then Apple only learns about accounts that are storing collections of known
      CSAM images, and only the images that match to known CSAM.

      Нет, так систему не затриггерить.


    1. Wejur
      15.08.2021 20:31

      А еще изображения обнаженных моделей с примененным фильтром омолаживания\детского лица у разных там любителей. И еще изображения от художников(бальтус), нашумевших фотографов-современников(стерджес) и другие

      Когда Шилдс сказала, что утопает в море жутких отзывов о себе и о фильме, ее мать ответила: «Ты гордишься тем, что сделала? Ну тогда пошли они на ...» - частный случай

      Общество должно саморегулироваться и морализироваться и его нужно к этому подталкивать, надеюсь действие Apple облагородит социум или подтолкнет, но не создаст прецеденты вопиющего безобразия


    1. TheRikipm
      15.08.2021 20:59
      -2

      Зачем родители фотографируют своих обнаженных несовершеннолетних детей?


      1. Silvestor
        16.08.2021 06:00

        Я вам даже больше скажу. Некоторые фотографируют еще не родившихся обнаженных детей. А некоторые! даже видео с ними делают!


      1. evilstan
        16.08.2021 06:00

        У многих в семейном фотоальбоме есть несколько черно-белых фото, за которые стыдно, но родителей это умиляет. Видимо, традиция передаётся из поколения в поколение


        1. TheRikipm
          16.08.2021 21:27

          Я имею ввиду то что эта традиция нарушает законодательство, независимо от того сольет ли эти фотографии эппл или они иным путем попадут в руки полиции. Если вы считаете что подобные фото нужно разрешить хранить в определенных ситуациях - выдвигайте претензии к законодателям, а не к эпплу.


    1. raamid
      16.08.2021 01:45

      Можно смело добавлять насильное кормление детей (ложечку за маму, ложечку за папу).


  1. numitus2
    15.08.2021 18:35

    Печально как ИТ технологии которые призваны сделать мир лучше делают его хуже


    1. engine9
      15.08.2021 19:59
      +2

      У технологий нет намерения. Ну, пока не создали роботов с сознанием :)


    1. Moskus
      15.08.2021 20:25
      +2

      Печально, что люди, которые разрабатывают эти технологии и работают с ними, имеют весьма странные и однобокие представления о реальной жизни и концепциях прав и свобод, так что всё, за что они берутся применительно к общественным проблемам, превращается в какой-то авторитарный мрак, мотивированный диванным героизмом, чувством интеллектуального превосходства и идеей о том, что благородная цель оправдывает любые средства и ошибки.

      Печально также то, что люди, не входящие в этот круг, "обычные граждане", в массе не понимали и не понимают, что это - новый источник авторитаризма, который может оказаться хуже государственного, так как проголосовать за новое правительство может быть куда проще, чем избавиться от диктатуры технологических компаний.


      1. numitus2
        15.08.2021 20:27

        Я думаю никакой диктатуры технологический компаний не будет. Любая власть начинается с легализованного насилия которого нет у компаний. Тут опасность скорее в том, что эти технологии будет использовать государство для своих целей


        1. Moskus
          15.08.2021 20:39

          Проблема с этим утверждением в том, что вы следуете стандарту (определению) диктатуры, который возник в иной социокультурной ситуации. Впрочем, вы и сами, похоже, интуитивно понимаете, что этот стандарт несовершенен, делая предположение о возможной связи корпораций и государства. Только зачем-то ограничиваете это предположение использованием возможностей корпораций государством, тогда как элементарно возможно обратное - влияние корпораций на государственную систему в своих политических интересах.


        1. bozman
          15.08.2021 21:34
          +2

          Право на цензуру они уже потихоньку перетянули, думаю, право на насилие получить не проблема. Нужно всего-то какое-то прокси-законодательство, например, возможность собирать и предоставлять улики, таким образом провоцируя деятельность правоохранительных органов... OH SHI~~~~


      1. bak
        15.08.2021 23:27

        так как проголосовать за новое правительство может быть куда проще, чем избавиться от диктатуры технологических компаний

        Если у вас работает механизм голосования - то через него вы приводите такое правительство, которое зарегулирует и закрутит офигевшие технокомпании.

        Ну а если нет - вам и так и эдак будет плохо, и не важно кто там что у кого отжал или с кем договорился, корпорации правительство или наоборот.


        1. Moskus
          16.08.2021 00:03

          В реальности, всё не так просто. Голосование может работать, но может быть куча людей, которые тупо повторяют "не сметь трогать бизнес", не понимая, что этот бизнес для них хуже, чем правительство. Собственно, мы это здесь, на Хабре, постоянно наблюдаем.


  1. vikhoff
    15.08.2021 19:02
    +3

    На самом деле этого стоило ожидать гораздо раньше. Google Chrome любит сканировать диск, телеметрия от Windows. Думаете, чем они занимаются? Вполне возможно, что ищут совпадения хэшей файлов пользователей с хэшами ДП. Также, можно вообще хранить базу данных хешей файлов для всех файлов, когда либо побывавших на устройстве пользователя. То есть алгоритм такой. Плохой дядя делает фото детей на фотокамеру. Загружает файлы на компьютер, а потом продает за биткоины в интернете. Рано или поздно файлы попадают в руки ФБР, опознаются как ДП, и поиск по базе хэшей сразу же выдает производителя этой фотографии.


    1. YMA
      15.08.2021 19:46

      Ну не верится, что злыдни, работающие с таким токсичным контентом - настолько наивны. Всяко додумываются работать на изолированной от сети машине (пусть под Win/Mac, но никогда не подключающейся к сети), перенося уже готовые пакеты в виде шифрованных архивов оффлайн способом (флешкой/диском).

      А вот против оппозиции, всяких free Tibet/Belarus/MAGA - самое то, что надо использовать. Эти люди не считают свои данные криминальными, и тут-то их и брать тепленькими ;)


      1. burzooom
        15.08.2021 20:41

        если погуглить новости про задержание фотографов такого контента, там обычно при обыске находят коллекции, и пишут даже объем-количество. То есть, никаким шифрованием и не пахнет. И задерживают их не после первых же съемок, а по факту уличения родителями. То есть, загадочная телеметрия если что и собирает, то никому не рассказывает про найденное


    1. Darkhon
      15.08.2021 20:09

      Причём, если допустить, что Google или Microsoft действительно это делают — у них как раз есть шансы что-то находить, поскольку это не афишируется. А вот на устройствах Apple теперь уже точно никто в здравом уме не станет хранить ничего "такого", раз они открыто заявили о сканировании фото. Получается, что эта система по сути бесполезна. Конечно, Apple молодцы, что говорят о ней открыто, а не шпионят исподтишка. Но реальных нарушений она не найдёт, когда "нарушитель" знает о ней заранее.


      1. pvsur
        15.08.2021 20:52
        +2

        Аппле надеется, что шумиха отпугнёт пользовательей ЦП с их устройств, уменьшая ее проблемы с законниками.. куда они уйдут, аппле не интересует вовсе (логично). Ну и подчеркнёт лояльность закону и мировым ценностям.

        Но все понимают, что если кто-то стал на путь стукачества, то с него уже не слезут. Завтра будут искать трампистов-навальнят-тихановичей, послезавтра вообще всех, на всякий случай...


    1. kasthack_phoenix
      15.08.2021 20:46

      .


    1. JJBaltika
      18.08.2021 03:23

      Тут главное на себя не выйти


      1. JJBaltika
        18.08.2021 03:23

        Это отсылка к дружбе Гейтса с Эпштейном


  1. Daddy_Cool
    15.08.2021 22:36
    +1

    Можно использовать такие фото?

    Насилие над ребенком с элементами обнаженного тела


    zen.yandex.ru/media/id/5b280e3ca052b200a9a582d7/sdelaite-rebenku-ukol-5df8f1c12beb4900b1cb76bf


    1. vikhoff
      16.08.2021 08:53
      +1

      Если ФБР расценит это фото, как ДП или насилие над ребенком, и внесет хэш в базу данных, то можно.


  1. GruBBy_kz
    16.08.2021 00:24

    Apple’s weather app won’t say it’s 69 degrees

    think different, то есть как мы сказали


  1. ifap
    16.08.2021 00:39
    +2

    Яблочники уже всерьез обсуждают, достаточно ли 30 баллов эмэйзинга и неповторимого экспиринса, чтобы их отымели, или мало? Какая милота…


    1. YMA
      16.08.2021 09:00
      +1

      А ви таки думаете, что гугль и MS этого не делают? Да и Ubuntu уже отметились телеметрией, пока робкой и отключаемой, но...


      1. ifap
        17.08.2021 13:20
        +1

        Хотя любая телеметрия для меня неприемлема, ЕМНИП ни гугль, ни мелкомягких не ловили на копании в пользовательских файлах.


  1. sirocco
    16.08.2021 08:29
    -1

    А можно также про говно? Серьёзно. Ребёнок страдал расстройством желудка, и врач сказала фоткать стул ребенка в течение месяца. Потом смотрела, диагноз ставила. У жены, кстати, айфон. Ну раз уже полезли в личную жизнь, так хоть с пользой для владельцев.


  1. Davidchechen
    16.08.2021 08:44
    -1

    Лучше бы смотрели на тот беспредел, который на Ютубе происходит. Всякие невинные, ничего не нарушающие видео пачками удалют, а зато видео с депиляцией интимных мест это норм, омерзительное кормление грудью, что на Ютубе, что в инстаграме, это пожалуйста. Молокоотсос на грудях на Ютубе — милости просим. Тьфу!


    1. Armitage1986
      16.08.2021 09:26
      +5

      Зачем вы смотрите омерзительное кормление грудью на ютубе и в инстаграме?


      1. tvr
        16.08.2021 12:20
        +2

        Кажется, я его знаю
        image


  1. Alert1234
    16.08.2021 10:54
    +1

    Тут многие гадают над технологией хешей. Но она уже давно известна и используется у криминалистов, есть исторически собранные базы с хешами интересующих их изображений. Называется Project VIC. www.projectvic.org/technology-2
    У майкрософта имеется своя реализация — PhotoDNA. У Apple наверное будет своя, но основаны они скорее всего на одном и том же стандарте чтобы хеши были одинаковыми.
    Вкратце — оно ищет только конкретные уже известные фотографии, хэш картинки остатется таким же при поворотах, изменении размера, изменениях яркости. Т.е. по таким хэшам можно опознать наличие уже ранее известных криминалистам фоток полученных/скаченных откуда то извне. Если вы сами что то сфотографировали — хэш будет уникальным.


  1. Swill
    17.08.2021 09:52

    Затягивание гаек и притеснение свобод на начальном этапе часто обосновывается необходимостью защиты детей. Мы хорошо помним, как начинались блокировки. Но мы даже не были первыми в этом.