Новини WTF 25.07.2023 о 13:35 comment views icon

Що по модерації? В Mastodon знайшли сотні публікацій з сексуальним насильством над дітьми

author avatar
https://itc.ua/wp-content/uploads/2022/09/Katya-96x96.jpg *** https://itc.ua/wp-content/uploads/2022/09/Katya-96x96.jpg *** https://itc.ua/wp-content/uploads/2022/09/Katya-96x96.jpg

Катерина Даньшина

Авторка новин

Інтернет-обсерваторія Стенфордського університету виявила 112 випадків сексуального насильства (причому перший за 5 хвилин після початку пошуку) в 325 000 публікаціях на Mastodon протягом дводенного дослідження.

Загалом дослідники просканували 25 найпопулярніших екземплярів (серверів) Mastodon на наявність CSAM – матеріалів про сексуальне насилля над дітьми чи зображень, які показують сексуальне насилля та експлуатацію дітей. Для пошуку використовували інструмент для виявлення відвертих зображень Google SafeSearch API та інструмент, який допомогає знаходити матеріали, позначені як CSAM, PhotoDNA.

Команда ідентифікувала 554 фрагменти контенту, які збігалися з хештегами або ключовими словами, які часто використовують групи сексуального насильства над дітьми в інтернеті, і всі вони були визначені як відверті з «найвищим ступенем достовірності» Google SafeSearch.

Також виявлено ще 713 випадків використання 20 найпопулярніших хештегів, пов’язаних із CSAM, у Fediverse в публікаціях, які містили медіа, а також 1217 текстових публікацій, які вказували на «торгівлю CSAM поза сайтом або грумінг неповнолітніх».

У дослідженні зазначається, що матеріали із зображенням сексуального насильства поширюються в мережі з «‎тривожною» тенденцією.

Раніше цього місяця на сервері mastodon.xyz стався тривалий збій через опублікований CSAM. У дописі про інцидент адміністратор сервера заявив, що їх сповістили про контент, який містив образи сексуального насильства – але модерацію він може приводити лише у свій вільний час, що може зайняти кілька днів. Пізніше з’явилась заява про видалення суперечливого контенту, однак сервер все одно був недоступним для користувачів. Згодом адміністратор mastodon.xyz сказав, що реєстратор додав домен до списку «хибно позитивних», щоб запобігти видаленню в майбутньому.

Курс Job Interview Crash Course від Enlgish4IT.
Отримайте 6 шаблонів відповідей на співбесіді, які ви зможете використовувати для структурування своїх відповідей. Отримайте знижку 10% за промокодом ITCENG.
Приєднатися

«За два дні ми отримали більше сповіщень PhotoDNA, ніж, ймовірно, за всю історію наших перевірок. Такі результати, здається, спричинені відсутністю інструментів, які централізовані платформи соціальних мереж використовують для вирішення проблем безпеки дітей», — сказав дослідник Девід Тіль.

Модерація в децентралізованих мережах, дійсно, дещо відрізняється від підходу таких сайтів, як Facebook, Instagram і Reddit. Кожен екземпляр самостійно контролює модерування, що створює неузгодженість у Fediverse. Дослідники пропонують, щоб такі мережі використовували більш надійні інструменти разом з інтеграцією PhotoDNA та звітами CyberTipline.

Водночас на тлі ребрендингу Twitter Mastodon спостерігає зростання активності. Засновник та гендиректор мережі Євген Рочко каже, що кількість щомісячних активних користувачів неухильно зростала протягом останніх кількох місяців і досягла 2,1 млн.

Про максимум у 2,5 млн Mastodon звітував у жовтні-листопаді — в час, коли Ілон Маск заволодів Twitter. До цього мережа мала приблизно 300 000 активних користувачів щомісяця.

Педофіли використовують нейромережі для створення дитячої порнографії — на форумах в даркнеті виявлено тисячі таких зображень

Курс Job Interview Crash Course від Enlgish4IT.
Отримайте 6 шаблонів відповідей на співбесіді, які ви зможете використовувати для структурування своїх відповідей. Отримайте знижку 10% за промокодом ITCENG.
Приєднатися

Джерело: The Verge


Loading comments...

Повідомити про помилку

Текст, який буде надіслано нашим редакторам: