CSAM

Отказ Apple от системы проверки фотографий iCloud на детскую порнографию спровоцировал новые споры

В декабре Apple объявила, что прекращает разработку CSAM — инструмента сканирования фото в iCloud для противодействия проявлениям насилия над детьми,…

04.09.2023

Что по модерации? В Mastodon нашли сотни публикаций с сексуальным насилием над детьми

Интернет-обсерватория Стэндфордского университета обнаружила 112 случаев сексуального насилия (причем первый через 5 минут после начала поиска) в 325 000 публикациях…

25.07.2023

WSJ: Apple полностью отказалась от противоречивой системы проверки фотографий iCloud на детскую порнографию

Apple решила прекратить разработку технологии проверки фото в iCloud для противодействия проявлениям насилия над детьми, в частности, выявления случаев сексуальной…

08.12.2022

Apple отложила запуск системы по проверке фотографий iCloud на детскую порнографию на неопределенный срок

Изначально Apple планировала добавить новые функции для защиты детей в iOS 15, iPadOS 15, watchOS 8 и macOS Monterey на…

03.09.2021

Алгоритм, используемый Apple для системы CSAM, генерирует одинаковый хеш для разных фотографий. Компания говорит, что беспокоиться не о чем

Исследователи обнаружили конфликт во встроенной хеш-функции iOS, что вызвало новые опасения по поводу работы системы сканирования Apple CSAM (Child Sexual…

19.08.2021

«Ни одно правительство не заставит нас расширить инициативу»: Apple ответила на опасения по поводу сканирования пользовательских фото на предмет CSAM

Новые инициативы Apple по борьбе с сексуальной эксплуатацией детей вызвали противоречивую реакцию — общественное недовольство возникло из-за обоснованных опасений насчет…

09.08.2021

Apple усилит борьбу с сексуальной эксплуатацией детей — начнет локально проверять фото на iPhone и iPad, а также размывать откровенные снимки в «Сообщениях»

5 августа Apple анонсировала новые функции защиты детей, разработанные в сотрудничестве с экспертами в сфере детской безопасности. Пресс-релиз вышел вскоре…

06.08.2021

Apple будет «сканировать» все фото пользователей iCloud на предмет жестокого обращения с детьми

В этом году Apple, как известно, приняла участие в выставке CES 2020. Это случилось впервые за 27 лет, но купертиновский…

10.01.2020

Google создала новые бесплатные инструменты на базе ИИ для борьбы с распространением материалов сексуального характера с изображением детей

Оперативное обнаружение и удаление материалов сексуального насилия над детьми (Child Sexual Abuse Material – CSAM) является приоритетом для крупнейших интернет-компаний.…

04.09.2018