Відмова Apple від системи перевірки фотографій iCloud на дитячу порнографію спровокувала нові суперечки
У грудні Apple оголосила, що припиняє розробку CSAM — інструменту сканування фото в iCloud для протидії проявам насильства над дітьми, зокрема виявлення випадків сексуальної експлуатації…
Що по модерації? В Mastodon знайшли сотні публікацій з сексуальним насильством над дітьми
Інтернет-обсерваторія Стенфордського університету виявила 112 випадків сексуального насильства (причому перший за 5 хвилин після початку пошуку) в 325 000 публікаціях на Mastodon протягом…
WSJ: Apple остаточно відмовилася від суперечливої системи перевірки фотографій iCloud на дитячу порнографію
Apple вирішила припинити розробку технології перевірки фото в iCloud для протидії проявам насильства над дітьми, зокрема виявлення випадків сексуальної експлуатації неповнолітніх, шляхом…
Повідомити про помилку
Текст, який буде надіслано нашим редакторам: