CSAM

Apple отложила запуск системы по проверке фотографий iCloud на детскую порнографию на неопределенный срок

Алгоритм, используемый Apple для системы CSAM, генерирует одинаковый хеш для разных фотографий. Компания говорит, что беспокоиться не о чем

«Ни одно правительство не заставит нас расширить инициативу»: Apple ответила на опасения по поводу сканирования пользовательских фото на предмет CSAM

Apple усилит борьбу с сексуальной эксплуатацией детей — начнет локально проверять фото на iPhone и iPad, а также размывать откровенные снимки в «Сообщениях»

Apple будет «сканировать» все фото пользователей iCloud на предмет жестокого обращения с детьми

Google создала новые бесплатные инструменты на базе ИИ для борьбы с распространением материалов сексуального характера с изображением детей


Сообщить об опечатке

Текст, который будет отправлен нашим редакторам: