CSAM

Відмова Apple від системи перевірки фотографій iCloud на дитячу порнографію спровокувала нові суперечки

У грудні Apple оголосила, що припиняє розробку CSAM — інструменту сканування фото в iCloud для протидії проявам насильства над дітьми,…

04.09.2023

Що по модерації? В Mastodon знайшли сотні публікацій з сексуальним насильством над дітьми

Інтернет-обсерваторія Стенфордського університету виявила 112 випадків сексуального насильства (причому перший за 5 хвилин після початку пошуку) в 325 000 публікаціях…

25.07.2023

WSJ: Apple остаточно відмовилася від суперечливої системи перевірки фотографій iCloud на дитячу порнографію

Apple вирішила припинити розробку технології перевірки фото в iCloud для протидії проявам насильства над дітьми, зокрема виявлення випадків сексуальної експлуатації…

08.12.2022