Новости Софт 04.09.2023 в 11:40 comment views icon

Отказ Apple от системы проверки фотографий iCloud на детскую порнографию спровоцировал новые споры

author avatar
https://itc.ua/wp-content/uploads/2022/09/Katya-96x96.jpg *** https://itc.ua/wp-content/uploads/2022/09/Katya-96x96.jpg *** https://itc.ua/wp-content/uploads/2022/09/Katya-96x96.jpg

Катерина Даньшина

Автор новостей

В декабре Apple объявила, что прекращает разработку CSAM — инструмента сканирования фото в iCloud для противодействия проявлениям насилия над детьми, в частности, выявления случаев сексуальной эксплуатации несовершеннолетних, путем автоматического сравнения снимков по хэш-суммам с базой.

Анонсированный еще в августе 2021 года проект сразу вызвал споры — впервые Apple приостановила его в сентябре из-за беспокойства групп по цифровым правам и исследователей относительно потенциальных проблем с конфиденциальностью для всех пользователей iCloud.

Впрочем, на этой неделе другая группа по безопасности Heat Initiative заявила, что начинает кампанию, которая потребует от Apple «находить, сообщать и удалять» материалы сексуального насилия над детьми из iCloud и предлагать пользователям больше инструментов для сообщения о нарушении.

Apple, на удивление, ответила на призыв (компания редко комментирует свои решения, поэтому заявление, похоже, можно трактовать как готовность компании к публичной дискуссии).

«Материалы с сексуальным насилием над детьми ужасны и мы стремимся разорвать цепь принуждения и влияния, которое делает детей восприимчивыми к этому. Однако сканирование конфиденциальных данных iCloud для каждого пользователя создало новые векторы угроз, которые злоумышленники могли бы найти и использовать», — написал Эрик Нойеншвандер, директор по конфиденциальности пользователей и безопасности детей Apple.

Группу Heat Initiative возглавляет Сара Гарднер, бывший вице-президент по внешним связям некоммерческой организации Thorn, работающей над использованием новых технологий для борьбы с эксплуатацией детей в Интернете и секс-торговлей. В 2021 году Thorn похвалила план Apple разработать функцию сканирования iCloud CSAM, а нынешнее решение о ее прекращении, как написала Гарднер в письме генеральному директору Тиму Куку, «разочаровывает».

«Верим, что этот инструмент не только позиционирует Apple как мирового лидера в сфере конфиденциальности пользователей, но и поможет искоренить миллионы изображений и видео сексуального насилия над детьми с iCloud. Сексуальное насилие над детьми – это сложная проблема, о которой никто не хочет говорить. Мы здесь, чтобы убедиться, что этого не произойдет», — пишет Гарднер.

Apple считает, что функции обнаружения обнаженного тела на устройствах для таких функций, как Сообщения, FaceTime, AirDrop и т.д., являются более безопасной альтернативой. Компания также начала предлагать API для своих функций Communication Safety, чтобы посторонние разработчики могли включать их в свои программы.

Курс English For Tech: Speaking&Listening від Enlgish4IT.
Після курсу ви зможете найкраще презентувати свої досягнення, обговорювати проекти та вирішувати повсякденні завдання англійською мовою. Отримайте знижку 10% за промокодом TCENG.
Дізнатись про курс

«Мы решили не продолжать предложение гибридного клиент-серверного подхода к обнаружению CSAM для фотографий iCloud несколько лет назад», — ответит Ноэншвандер Heat Initiative. «Мы пришли к выводу, что это практически невозможно реализовать, не поставив под угрозу безопасность и конфиденциальность наших пользователей».

На просьбу Heat Initiative Apple создать механизм отчета о CSAM для пользователей, компания сообщила, что сосредоточена на связи своих уязвимых или пострадавших пользователей непосредственно с правоохранительными органами в каждом отдельном регионе.


Loading comments...

Сообщить об опечатке

Текст, который будет отправлен нашим редакторам: