Новини Софт 04.09.2023 о 11:40 comment views icon

Відмова Apple від системи перевірки фотографій iCloud на дитячу порнографію спровокувала нові суперечки

author avatar
https://itc.ua/wp-content/uploads/2022/09/Katya-96x96.jpg *** https://itc.ua/wp-content/uploads/2022/09/Katya-96x96.jpg *** https://itc.ua/wp-content/uploads/2022/09/Katya-96x96.jpg

Катерина Даньшина

Авторка новин

У грудні Apple оголосила, що припиняє розробку CSAM — інструменту сканування фото в iCloud для протидії проявам насильства над дітьми, зокрема виявлення випадків сексуальної експлуатації неповнолітніх, шляхом автоматичного порівняння знімків за хеш-сумами з базою.

Анонсований ще у серпні 2021 року проєкт від початку викликав суперечки — вперше Apple призупинила його у вересні через занепокоєння груп із цифрових прав та дослідників щодо потенційних проблем з конфіденційністю для всіх користувачів iCloud.

Утім цього тижня інша група з безпеки Heat Initiative заявила, що розпочинає кампанію, яка вимагатиме від Apple «виявляти, повідомляти та видаляти» матеріали сексуального насильства над дітьми з iCloud і пропонувати користувачам більше інструментів для повідомлення про порушення.

Apple, на диво, відповіла на заклик (компанія рідко коментує власні рішення, тож заяву, схоже, можна трактувати як готовність компанії до публічної дискусії).

«Матеріали з сексуальним насиллям над дітьми є жахливими й ми прагнемо розірвати ланцюг примусу та впливу, який робить дітей сприйнятливими до цього. Однак сканування конфіденційних даних iCloud для кожного користувача створило б нові вектори загроз, які зловмисники могли б знайти та використати», — написав Ерік Нойеншвандер, директор із конфіденційності користувачів і безпеки дітей Apple.

Групу Heat Initiative очолює Сара Гарднер, колишній віцепрезидент із зовнішніх зв’язків некомерційної організації Thorn, яка працює над використанням нових технологій для боротьби з експлуатацією дітей в Інтернеті та секс-торгівлею. У 2021 році Thorn похвалив план Apple розробити функцію сканування iCloud CSAM, а нинішнє рішення про її припинення, як написала Гарднер в листі генеральному директору Тіму Куку, «‎розчаровує».

«Віримо, що цей інструмент не лише позиціює Apple як світового лідера у сфері конфіденційності користувачів, а й допоможе викорінити мільйони зображень і відео сексуального насильства над дітьми з iCloud. Сексуальне насильство над дітьми — це складна проблема, про яку ніхто не хоче говорити. Ми тут, щоб переконатися, що цього не станеться‎», — пише Гарднер.

Apple натомість вважає, що функції виявлення оголеного тіла на пристрої для таких функцій, як Повідомлення, FaceTime, AirDrop тощо, є безпечнішою альтернативою. Компанія також почала пропонувати API для своїх функцій Communication Safety, щоб сторонні розробники могли включати їх у свої програми.

Онлайн-курс "Архітектура високих навантажень" від robot_dreams.
Досвід та інсайти від інженера, який 12 років створює програмне забезпечення для Google.
Програма курсу і реєстрація

«Ми вирішили не продовжувати пропозицію щодо гібридного клієнт-серверного підходу до виявлення CSAM для фотографій iCloud кілька років тому», — відпові Ноеншвандер Heat Initiative. «Ми прийшли до висновку, що це практично неможливо реалізувати, не поставивши під загрозу безпеку та конфіденційність наших користувачів».

На прохання Heat Initiative до Apple створити механізм звітування про CSAM для користувачів, компанія повідомила, що зосереджена на зв’язку своїх вразливих або постраждалих користувачів безпосередньо з правоохоронними органами в кожному окремому регіоні.


Loading comments...

Повідомити про помилку

Текст, який буде надіслано нашим редакторам: