Рубрики НовиниСофт

Відмова Apple від системи перевірки фотографій iCloud на дитячу порнографію спровокувала нові суперечки

Опубликовал
Катерина Даньшина

У грудні Apple оголосила, що припиняє розробку CSAM — інструменту сканування фото в iCloud для протидії проявам насильства над дітьми, зокрема виявлення випадків сексуальної експлуатації неповнолітніх, шляхом автоматичного порівняння знімків за хеш-сумами з базою.

Анонсований ще у серпні 2021 року проєкт від початку викликав суперечки — вперше Apple призупинила його у вересні через занепокоєння груп із цифрових прав та дослідників щодо потенційних проблем з конфіденційністю для всіх користувачів iCloud.

Утім цього тижня інша група з безпеки Heat Initiative заявила, що розпочинає кампанію, яка вимагатиме від Apple «виявляти, повідомляти та видаляти» матеріали сексуального насильства над дітьми з iCloud і пропонувати користувачам більше інструментів для повідомлення про порушення.

Apple, на диво, відповіла на заклик (компанія рідко коментує власні рішення, тож заяву, схоже, можна трактувати як готовність компанії до публічної дискусії).

Курс UI/UX дизайну від Mate academy.
На курсі ви навчитесь створювати інтуїтивно зрозумілі та привабливі інтерфейси вебсайтів і застосунків. Ви також освоїте ключові принципи дизайну та дізнаєтесь як виділятися на ринку. А ми вас не лише навчимо, а й працевлаштуємо. Сертифікат теж буде!
Дізнатися більше про курс

«Матеріали з сексуальним насиллям над дітьми є жахливими й ми прагнемо розірвати ланцюг примусу та впливу, який робить дітей сприйнятливими до цього. Однак сканування конфіденційних даних iCloud для кожного користувача створило б нові вектори загроз, які зловмисники могли б знайти та використати», — написав Ерік Нойеншвандер, директор із конфіденційності користувачів і безпеки дітей Apple.

Групу Heat Initiative очолює Сара Гарднер, колишній віцепрезидент із зовнішніх зв’язків некомерційної організації Thorn, яка працює над використанням нових технологій для боротьби з експлуатацією дітей в Інтернеті та секс-торгівлею. У 2021 році Thorn похвалив план Apple розробити функцію сканування iCloud CSAM, а нинішнє рішення про її припинення, як написала Гарднер в листі генеральному директору Тіму Куку, «‎розчаровує».

«Віримо, що цей інструмент не лише позиціює Apple як світового лідера у сфері конфіденційності користувачів, а й допоможе викорінити мільйони зображень і відео сексуального насильства над дітьми з iCloud. Сексуальне насильство над дітьми — це складна проблема, про яку ніхто не хоче говорити. Ми тут, щоб переконатися, що цього не станеться‎», — пише Гарднер.

Apple натомість вважає, що функції виявлення оголеного тіла на пристрої для таких функцій, як Повідомлення, FaceTime, AirDrop тощо, є безпечнішою альтернативою. Компанія також почала пропонувати API для своїх функцій Communication Safety, щоб сторонні розробники могли включати їх у свої програми.

«Ми вирішили не продовжувати пропозицію щодо гібридного клієнт-серверного підходу до виявлення CSAM для фотографій iCloud кілька років тому», — відпові Ноеншвандер Heat Initiative. «Ми прийшли до висновку, що це практично неможливо реалізувати, не поставивши під загрозу безпеку та конфіденційність наших користувачів».

На прохання Heat Initiative до Apple створити механізм звітування про CSAM для користувачів, компанія повідомила, що зосереджена на зв’язку своїх вразливих або постраждалих користувачів безпосередньо з правоохоронними органами в кожному окремому регіоні.

Disqus Comments Loading...