Новости и статьи по теме ❝CSAM❞

Отказ Apple от системы проверки фотографий iCloud на детскую порнографию спровоцировал новые споры

Новости Софт 04.09.2023 в 11:40 comment
В декабре Apple объявила, что прекращает разработку CSAM — инструмента сканирования фото в iCloud для противодействия проявлениям насилия над детьми, в частности, выявления случаев сексуальной…

Что по модерации? В Mastodon нашли сотни публикаций с сексуальным насилием над детьми

Новости WTF 25.07.2023 в 13:36 comment
Интернет-обсерватория Стэндфордского университета обнаружила 112 случаев сексуального насилия (причем первый через 5 минут после начала поиска) в 325 000 публикациях на Mastodon в течение…

WSJ: Apple полностью отказалась от противоречивой системы проверки фотографий iCloud на детскую порнографию

Новости Софт 08.12.2022 в 20:12 comment
Apple решила прекратить разработку технологии проверки фото в iCloud для противодействия проявлениям насилия над детьми, в частности, выявления случаев сексуальной эксплуатации…

Apple отложила запуск системы по проверке фотографий iCloud на детскую порнографию на неопределенный срок

Новости Новости 03.09.2021 в 17:42 comment
Изначально Apple планировала добавить новые функции для защиты детей в iOS 15, iPadOS 15, watchOS 8 и macOS Monterey на релизе новых ОС (в сентябре) и сперва только для США. Теперь на основании отзывов клиентов и…

Алгоритм, используемый Apple для системы CSAM, генерирует одинаковый хеш для разных фотографий. Компания говорит, что беспокоиться не о чем

Новости Новости 19.08.2021 в 12:01 comment
Исследователи обнаружили конфликт во встроенной хеш-функции iOS, что вызвало новые опасения по поводу работы системы сканирования Apple CSAM (Child Sexual Abuse Material).

«Ни одно правительство не заставит нас расширить инициативу»: Apple ответила на опасения по поводу сканирования пользовательских фото на предмет CSAM

Новости Новости 09.08.2021 в 20:29 comment
Новые инициативы Apple по борьбе с сексуальной эксплуатацией детей вызвали противоречивую реакцию — общественное недовольство возникло из-за обоснованных опасений насчет возможного…

Apple усилит борьбу с сексуальной эксплуатацией детей — начнет локально проверять фото на iPhone и iPad, а также размывать откровенные снимки в «Сообщениях»

Новости Новости 06.08.2021 в 16:16 comment
5 августа Apple анонсировала новые функции защиты детей, разработанные в сотрудничестве с экспертами в сфере детской безопасности. Пресс-релиз вышел вскоре после публикации Financial Times о…

Apple будет «сканировать» все фото пользователей iCloud на предмет жестокого обращения с детьми

Новости Новости 10.01.2020 в 17:32 comment
В этом году Apple, как известно, приняла участие в выставке CES 2020. Это случилось впервые за 27 лет, но купертиновский гигант приехал в Лас-Вегас не для презентации новых устройств, а чтобы…

Google создала новые бесплатные инструменты на базе ИИ для борьбы с распространением материалов сексуального характера с изображением детей

Новости Новости 04.09.2018 в 08:03 comment
Оперативное обнаружение и удаление материалов сексуального насилия над детьми (Child Sexual Abuse Material – CSAM) является приоритетом для крупнейших интернет-компаний. Однако эта работа нелёгкая, как…

Сообщить об опечатке

Текст, который будет отправлен нашим редакторам: