Рубрики НовиниWTF

Що по модерації? В Mastodon знайшли сотні публікацій з сексуальним насильством над дітьми

Опубликовал
Катерина Даньшина

Інтернет-обсерваторія Стенфордського університету виявила 112 випадків сексуального насильства (причому перший за 5 хвилин після початку пошуку) в 325 000 публікаціях на Mastodon протягом дводенного дослідження.

Загалом дослідники просканували 25 найпопулярніших екземплярів (серверів) Mastodon на наявність CSAM – матеріалів про сексуальне насилля над дітьми чи зображень, які показують сексуальне насилля та експлуатацію дітей. Для пошуку використовували інструмент для виявлення відвертих зображень Google SafeSearch API та інструмент, який допомогає знаходити матеріали, позначені як CSAM, PhotoDNA.

Команда ідентифікувала 554 фрагменти контенту, які збігалися з хештегами або ключовими словами, які часто використовують групи сексуального насильства над дітьми в інтернеті, і всі вони були визначені як відверті з «найвищим ступенем достовірності» Google SafeSearch.

Також виявлено ще 713 випадків використання 20 найпопулярніших хештегів, пов’язаних із CSAM, у Fediverse в публікаціях, які містили медіа, а також 1217 текстових публікацій, які вказували на «торгівлю CSAM поза сайтом або грумінг неповнолітніх».

Онлайн-курс "Digital Marketing" від Laba.
Розширте пул навичок у роботі з аудиторією.Навчіться запускати рекламні кампанії без зайвих витрат бюджету з сучасними інструментами діджитал-маркетингу, включаючи AI.
Детальніше про курс

У дослідженні зазначається, що матеріали із зображенням сексуального насильства поширюються в мережі з «‎тривожною» тенденцією.

Раніше цього місяця на сервері mastodon.xyz стався тривалий збій через опублікований CSAM. У дописі про інцидент адміністратор сервера заявив, що їх сповістили про контент, який містив образи сексуального насильства – але модерацію він може приводити лише у свій вільний час, що може зайняти кілька днів. Пізніше з’явилась заява про видалення суперечливого контенту, однак сервер все одно був недоступним для користувачів. Згодом адміністратор mastodon.xyz сказав, що реєстратор додав домен до списку «хибно позитивних», щоб запобігти видаленню в майбутньому.

«За два дні ми отримали більше сповіщень PhotoDNA, ніж, ймовірно, за всю історію наших перевірок. Такі результати, здається, спричинені відсутністю інструментів, які централізовані платформи соціальних мереж використовують для вирішення проблем безпеки дітей», — сказав дослідник Девід Тіль.

Модерація в децентралізованих мережах, дійсно, дещо відрізняється від підходу таких сайтів, як Facebook, Instagram і Reddit. Кожен екземпляр самостійно контролює модерування, що створює неузгодженість у Fediverse. Дослідники пропонують, щоб такі мережі використовували більш надійні інструменти разом з інтеграцією PhotoDNA та звітами CyberTipline.

Водночас на тлі ребрендингу Twitter Mastodon спостерігає зростання активності. Засновник та гендиректор мережі Євген Рочко каже, що кількість щомісячних активних користувачів неухильно зростала протягом останніх кількох місяців і досягла 2,1 млн.

Про максимум у 2,5 млн Mastodon звітував у жовтні-листопаді — в час, коли Ілон Маск заволодів Twitter. До цього мережа мала приблизно 300 000 активних користувачів щомісяця.

Джерело: The Verge

Disqus Comments Loading...