Проверку проводит специальная система, которая изучает только «слепки» изображений.
Apple начала проверять загруженные в облако iCloud снимки на предмет сексуального насилия над детьми. Сканирование происходит автоматически, а при обнаружении нарушений пользователей блокируют. Об этом рассказала старший директор по приватности Apple Джейн Хорват во время круглого стола на выставке CES 2020.
По словам Хорват, удаление шифрования — «не тот способ, которым компания решает проблемы». Однако Apple использует «некоторые технологии» для отслеживания сексуального насилия над детьми, — отметила она.
Топ-менеджер сослалась на страницу на сайте Apple, где говорится, что для защиты детей компания использует технологию сопоставления изображений. Компания сравнивает электронные сигнатуры фотографий с уже имеющимися в базе, чтобы найти подозрительные снимки. После этого каждое совпадение изучают индивидуально, а аккаунты с нарушениями блокируют.
Хорват не уточнила, как именно Apple проверяет снимки, однако многие технологические используют систему PhotoDNA. Она проверяет изображения по базе данных ранее распознанных снимков используя технологию хэширования. PhotoDNA используют в Facebook, Twitter и Google.
Топ-менеджер Apple выступила в защиту шифрования сервисов и продуктов компании на фоне требований ФБР разблокировать айфон стрелка, убившего трёх человек на военной базе во Флориде. По её словам, оконечное шифрование критически важно для сервисов, на которые полагается Apple, в том числе данные о здоровье и платежах.
В 2019 году Apple внесла изменения в политику приватности, добавив пункт о возможном сканировании изображений на предмет детского насилия. Однако компания не объявляла об этом отдельно.
CES 2020 стала первой выставкой, в которой Apple поучаствовала за 27 лет. При этом у компании не было своего стенда или презентаций: её присутствие ограничилось топ-менеджером по приватности, которая поучаствовала в круглом столе.