Отказ Apple от системы проверки фотографий iCloud на детскую порнографию спровоцировал новые споры
В декабре Apple объявила, что прекращает разработку CSAM — инструмента сканирования фото в iCloud для противодействия проявлениям насилия над детьми, в частности, выявления случаев сексуальной…
Что по модерации? В Mastodon нашли сотни публикаций с сексуальным насилием над детьми
Интернет-обсерватория Стэндфордского университета обнаружила 112 случаев сексуального насилия (причем первый через 5 минут после начала поиска) в 325 000 публикациях на Mastodon в течение…
WSJ: Apple полностью отказалась от противоречивой системы проверки фотографий iCloud на детскую порнографию
Apple решила прекратить разработку технологии проверки фото в iCloud для противодействия проявлениям насилия над детьми, в частности, выявления случаев сексуальной эксплуатации…
Apple отложила запуск системы по проверке фотографий iCloud на детскую порнографию на неопределенный срок
Изначально Apple планировала добавить новые функции для защиты детей в iOS 15, iPadOS 15, watchOS 8 и macOS Monterey на релизе новых ОС (в сентябре) и сперва только для США. Теперь на основании отзывов клиентов и…
Алгоритм, используемый Apple для системы CSAM, генерирует одинаковый хеш для разных фотографий. Компания говорит, что беспокоиться не о чем
Исследователи обнаружили конфликт во встроенной хеш-функции iOS, что вызвало новые опасения по поводу работы системы сканирования Apple CSAM (Child Sexual Abuse Material).
«Ни одно правительство не заставит нас расширить инициативу»: Apple ответила на опасения по поводу сканирования пользовательских фото на предмет CSAM
Новые инициативы Apple по борьбе с сексуальной эксплуатацией детей вызвали противоречивую реакцию — общественное недовольство возникло из-за обоснованных опасений насчет возможного…
Apple усилит борьбу с сексуальной эксплуатацией детей — начнет локально проверять фото на iPhone и iPad, а также размывать откровенные снимки в «Сообщениях»
5 августа Apple анонсировала новые функции защиты детей, разработанные в сотрудничестве с экспертами в сфере детской безопасности. Пресс-релиз вышел вскоре после публикации Financial Times о…
Apple будет «сканировать» все фото пользователей iCloud на предмет жестокого обращения с детьми
В этом году Apple, как известно, приняла участие в выставке CES 2020. Это случилось впервые за 27 лет, но купертиновский гигант приехал в Лас-Вегас не для презентации новых устройств, а чтобы…
Google создала новые бесплатные инструменты на базе ИИ для борьбы с распространением материалов сексуального характера с изображением детей
Оперативное обнаружение и удаление материалов сексуального насилия над детьми (Child Sexual Abuse Material – CSAM) является приоритетом для крупнейших интернет-компаний. Однако эта работа нелёгкая, как…
Сообщить об опечатке
Текст, который будет отправлен нашим редакторам: