CSAM — последние статьи и новости - ITC.ua

WSJ: Apple полностью отказалась от противоречивой системы проверки фотографий iCloud на детскую порнографию

Новости Софт 08.12.2022 в 20:12
Apple решила прекратить разработку технологии проверки фото в iCloud для противодействия проявлениям насилия над детьми, в частности, выявления случаев сексуальной эксплуатации…

Apple отложила запуск системы по проверке фотографий iCloud на детскую порнографию на неопределенный срок

Новости Новости 03.09.2021 в 17:42
Изначально Apple планировала добавить новые функции для защиты детей в iOS 15, iPadOS 15, watchOS 8 и macOS Monterey на релизе новых ОС (в сентябре) и сперва только для США. Теперь на основании отзывов клиентов и…

Алгоритм, используемый Apple для системы CSAM, генерирует одинаковый хеш для разных фотографий. Компания говорит, что беспокоиться не о чем

Новости Новости 19.08.2021 в 12:01
Исследователи обнаружили конфликт во встроенной хеш-функции iOS, что вызвало новые опасения по поводу работы системы сканирования Apple CSAM (Child Sexual Abuse Material).

«Ни одно правительство не заставит нас расширить инициативу»: Apple ответила на опасения по поводу сканирования пользовательских фото на предмет CSAM

Новости Новости 09.08.2021 в 20:29
Новые инициативы Apple по борьбе с сексуальной эксплуатацией детей вызвали противоречивую реакцию — общественное недовольство возникло из-за обоснованных опасений насчет возможного…

Apple усилит борьбу с сексуальной эксплуатацией детей — начнет локально проверять фото на iPhone и iPad, а также размывать откровенные снимки в «Сообщениях»

Новости Новости 06.08.2021 в 16:16
5 августа Apple анонсировала новые функции защиты детей, разработанные в сотрудничестве с экспертами в сфере детской безопасности. Пресс-релиз вышел вскоре после публикации Financial Times о…

Apple будет «сканировать» все фото пользователей iCloud на предмет жестокого обращения с детьми

Новости Новости 10.01.2020 в 17:32
В этом году Apple, как известно, приняла участие в выставке CES 2020. Это случилось впервые за 27 лет, но купертиновский гигант приехал в Лас-Вегас не для презентации новых устройств, а чтобы…

Google создала новые бесплатные инструменты на базе ИИ для борьбы с распространением материалов сексуального характера с изображением детей

Новости Новости 04.09.2018 в 08:03
Оперативное обнаружение и удаление материалов сексуального насилия над детьми (Child Sexual Abuse Material – CSAM) является приоритетом для крупнейших интернет-компаний. Однако эта работа нелёгкая, как…

Сообщить об опечатке

Текст, который будет отправлен нашим редакторам: