Компания Apple подтвердила, что она с 2019 года сканирует почту iCloud Mail на предмет наличия запрещённых фотографий с сексуальным насилием над детьми (CSAM). Однако пока что компания не сканирует iCloud Photos или резервные копии iCloud.
Эта информация появилась после того, как 9to5mac попросил прокомментировать странное заявление руководителя информационной службы компании Эрика Фридмана (Eric Friedman), в котором он отметил что Apple является «величайшей платформой для распространения детского порно». Если Apple не сканировала фотографии пользователей, то откуда такие выводы?
Apple стремится защищать детей во всей нашей экосистеме, где бы ни использовались наши продукты, и мы продолжаем поддерживать инновации в этой сфере. Мы разработали надежные средства защиты на всех уровнях нашей программной платформы и по всей цепочке поставок. В рамках этого обязательства Apple использует технологию сопоставления изображений, чтобы помочь выявить случаи эксплуатации детей и сообщить о них. Подобно фильтрам спама в электронной почте, наши системы используют электронные подписи для обнаружения подозреваемых в эксплуатации детей. Мы проверяем каждое совпадение индивидуальным обзором. Учетные записи с контентом, эксплуатирующим детей, нарушают наши условия обслуживания, и любые учетные записи, которые мы обнаружим с этим материалом, будут отключены.
Эрик Фридман
Итак, Apple подтвердила, что с 2019 года она сканирует исходящую и входящую почту iCloud Mail на предмет вложений CSAM. Электронная почта не зашифрована, поэтому сканирование вложений при прохождении почты через серверы Apple было тривиальной задачей.
Apple также указала, что выполняет ограниченное сканирование других данных, но не уточнила, каких именно. При этом было отмечено что «другие данные» не включают резервные копии iCloud и iCloud Photos.