Компания Apple сделала официальное заявление по поводу поиска запрещённых фотографий с сексуальным насилием над детьми (CSAM) при помощи нового инструмента для iOS и iPadOS.
Это заставило всех задуматься о проблемах с конфиденциальностью, ведь фотографии из альбомов пользователя будут загружены в облако и просмотрены обслуживающим персоналом. Apple заявила, что компания не собирается сканировать всю библиотеку фотографий пользователей iPhone и iPap в поисках детского порно. Вместо этого компания будет использовать криптографию для сравнения изображений с известной базой данных, предоставленной Национальным центром пропавших без вести и эксплуатируемых детей (National Center for Missing & Exploited Children).
Apple заявила, что эта система разрабатывалась много лет и не предназначена для государственного контроля за гражданами. Более того, пользователям в России и других странах мира не нужно беспокоиться об этой проблеме, потому что Apple дала понять, что эта система будет доступна только в Соединенных Штатах и только при условии включения серивса iCloud.
В настоящее время тестируется предварительная версия для разработчиков iOS 15 Beta4, в которой этой функции нет. Ожидается, что она появится с выходом финальной версии iOS 15 в сентябре этого года.
Ранее эксперты по безопасности предупредили, что анонсированный вчера новый инструмент Apple может быть использован для слежки, подвергая риску личную информацию миллионов людей.