Рубрики НовостиWTF

Что по модерации? В Mastodon нашли сотни публикаций с сексуальным насилием над детьми

Опубликовал
Катерина Даньшина

Интернет-обсерватория Стэндфордского университета обнаружила 112 случаев сексуального насилия (причем первый через 5 минут после начала поиска) в 325 000 публикациях на Mastodon в течение двухдневного исследования.

Исследователи просканировали 25 самых популярных экземпляров (серверов) Mastodon на наличие CSAM – материалов о сексуальном насилии над детьми или изображений, которые показывают сексуальное насилие и эксплуатацию детей. Для поиска использовали инструмент для обнаружения откровенных изображений Google SafeSearch API и инструмент, помогающий находить материалы, обозначенные как CSAM, PhotoDNA.

Команда также идентифицировала 554 фрагмента контента, которые совпадали с хештегами или ключевыми словами, часто использующимися в группах сексуального насилия над детьми в интернете, и все они были определены как откровенные с «высокой степенью достоверности» Google SafeSearch.

Выявлено еще 713 случаев использования 20 самых популярных хештегов, связанных со CSAM, в публикациях, содержащих медиа, а также 1217 текстовых публикаций, указывающих на «торговлю CSAM вне сайта или груминг несовершеннолетних».

Курс Quality Assurance (QA) від Mate academy.
Курс QA — ідеальний для новачка. Від основ тестування до складних стратегій — опануйте всі технології, щоб жодна помилка не змогла вас оминути. Ми впевнені в якості нашого курсу, тому гарантуємо вам працевлаштування після його завершення.
Зареєструватись на курс

В исследовании отмечается, что материалы с изображением сексуального насилия распространяются в сети с тревожной тенденцией.

Ранее в этом месяце на сервере mastodon.xyz произошел длительный сбой из-за опубликованного CSAM. В сообщении об инциденте администратор сервера заявил, что их известили о контенте, содержащем образы сексуального насилия – но модерацию он может приводить только в свое свободное время, что может занять несколько дней. Позже появилось заявление об удалении противоречивого контента, однако сервер все равно был недоступен для пользователей. Впоследствии администратор mastodon.xyz сказал, что регистратор добавил домен в список «ложно положительных», чтобы предотвратить удаление в будущем.

«За два дня мы получили больше уведомлений PhotoDNA, чем, возможно, за всю историю наших проверок. Такие результаты, вероятно, вызваны отсутствием инструментов, которые централизованные платформы социальных сетей используют для решения проблем безопасности детей», — сказал исследователь Дэвид Тиль.

Модерация в децентрализованных сетях действительно несколько отличается от подхода таких сайтов, как Facebook, Instagram и Reddit. Каждый экземпляр самостоятельно контролирует модерацию, что создает несогласованность в Fediverse. Исследователи предлагают, чтобы такие сети использовали более надежные инструменты вместе с интеграцией PhotoDNA и отчетами CyberTipline.

В то же время, на фоне ребрендинга Twitter Mastodon наблюдает рост активности. Основатель и гендиректор сети Евгений Рочко говорит, что количество ежемесячных активных пользователей неуклонно росло в последние несколько месяцев и сейчас достигло 2,1 млн. человек.

О максимуме в 2,5 млн Mastodon отчитывался в октябре-ноябре — в то время, когда Илон Маск завладел Twitter. До этого у сети было около 300 000 активных пользователей ежемесячно.

Источник: The Verge

Disqus Comments Loading...