Новости и статьи по теме ❝CSAM❞

Отказ Apple от системы проверки фотографий iCloud на детскую порнографию спровоцировал новые споры

Новости Софт 04.09.2023 comment
В декабре Apple объявила, что прекращает разработку CSAM — инструмента сканирования фото в iCloud для противодействия проявлениям насилия над детьми, в частности, выявления случаев сексуальной…

Что по модерации? В Mastodon нашли сотни публикаций с сексуальным насилием над детьми

Новости WTF 25.07.2023 comment
Интернет-обсерватория Стэндфордского университета обнаружила 112 случаев сексуального насилия (причем первый через 5 минут после начала поиска) в 325 000 публикациях на Mastodon в течение…

WSJ: Apple полностью отказалась от противоречивой системы проверки фотографий iCloud на детскую порнографию

Новости Софт 08.12.2022 comment
Apple решила прекратить разработку технологии проверки фото в iCloud для противодействия проявлениям насилия над детьми, в частности, выявления случаев сексуальной эксплуатации…

Apple отложила запуск системы по проверке фотографий iCloud на детскую порнографию на неопределенный срок

Новости Новости 03.09.2021 comment
Изначально Apple планировала добавить новые функции для защиты детей в iOS 15, iPadOS 15, watchOS 8 и macOS Monterey на релизе новых ОС (в сентябре) и сперва только для США. Теперь на основании отзывов клиентов и…

Алгоритм, используемый Apple для системы CSAM, генерирует одинаковый хеш для разных фотографий. Компания говорит, что беспокоиться не о чем

Новости Новости 19.08.2021 comment
Исследователи обнаружили конфликт во встроенной хеш-функции iOS, что вызвало новые опасения по поводу работы системы сканирования Apple CSAM (Child Sexual Abuse Material).

«Ни одно правительство не заставит нас расширить инициативу»: Apple ответила на опасения по поводу сканирования пользовательских фото на предмет CSAM

Новости Новости 09.08.2021 comment
Новые инициативы Apple по борьбе с сексуальной эксплуатацией детей вызвали противоречивую реакцию — общественное недовольство возникло из-за обоснованных опасений насчет возможного…

Apple усилит борьбу с сексуальной эксплуатацией детей — начнет локально проверять фото на iPhone и iPad, а также размывать откровенные снимки в «Сообщениях»

Новости Новости 06.08.2021 comment
5 августа Apple анонсировала новые функции защиты детей, разработанные в сотрудничестве с экспертами в сфере детской безопасности. Пресс-релиз вышел вскоре после публикации Financial Times о…

Apple будет «сканировать» все фото пользователей iCloud на предмет жестокого обращения с детьми

Новости Новости 10.01.2020 comment
В этом году Apple, как известно, приняла участие в выставке CES 2020. Это случилось впервые за 27 лет, но купертиновский гигант приехал в Лас-Вегас не для презентации новых устройств, а чтобы…

Google создала новые бесплатные инструменты на базе ИИ для борьбы с распространением материалов сексуального характера с изображением детей

Новости Новости 04.09.2018 comment
Оперативное обнаружение и удаление материалов сексуального насилия над детьми (Child Sexual Abuse Material – CSAM) является приоритетом для крупнейших интернет-компаний. Однако эта работа нелёгкая, как…

Сообщить об опечатке

Текст, который будет отправлен нашим редакторам: