Новини і статті по темі ❝CSAM❞

Відмова Apple від системи перевірки фотографій iCloud на дитячу порнографію спровокувала нові суперечки

Новини Софт 04.09.2023 о 11:40 comment
У грудні Apple оголосила, що припиняє розробку CSAM — інструменту сканування фото в iCloud для протидії проявам насильства над дітьми, зокрема виявлення випадків сексуальної експлуатації…

Що по модерації? В Mastodon знайшли сотні публікацій з сексуальним насильством над дітьми

Новини WTF 25.07.2023 о 13:35 comment
Інтернет-обсерваторія Стенфордського університету виявила 112 випадків сексуального насильства (причому перший за 5 хвилин після початку пошуку) в 325 000 публікаціях на Mastodon протягом…

WSJ: Apple остаточно відмовилася від суперечливої системи перевірки фотографій iCloud на дитячу порнографію

Новини Софт 08.12.2022 о 20:13 comment
Apple вирішила припинити розробку технології перевірки фото в iCloud для протидії проявам насильства над дітьми, зокрема виявлення випадків сексуальної експлуатації неповнолітніх, шляхом…

Повідомити про помилку

Текст, який буде надіслано нашим редакторам: