Оперативное обнаружение и удаление материалов сексуального насилия над детьми (Child Sexual Abuse Material – CSAM) является приоритетом для крупнейших интернет-компаний. Однако эта работа нелёгкая, как морально, так и физически. Вот почему компания Google выпустила бесплатное программное обеспечение на основе ИИ, предназначенное для помощи в поиске соответствующего материала.
Существующие технические решения в основном работают путём сопоставления изображений и видеороликов с каталогом запрещённого или неправомерного контента. Наиболее известным примером является разработанный компанией Microsoft инструмент под названием PhotoDNA, который используют Facebook и Twitter. Он отлично справляется с уже известным контентом, но не может идентифицировать материал, отсутствующий в базе. Этим занимаются модераторы, которые самостоятельно его просматривают и блокируют вручную.
Используя машинное обучение, новое программное обеспечение от Google сортирует изображения и видео, выделяя вероятный CSAM-контент. Как отмечают в компании, во время тестирования данный инструмент ускорил поиск и обработку данных в 7 раз. Фред Лэнгфорд (Fred Langford), заместитель генерального директора организации Internet Watch Foundation (IWF), считает, что такие инструменты существенно облегчают работу организаций с ограниченными ресурсами, вынужденными обходиться человеческой силой. Он также добавил, что это большой шаг на пути к полностью автоматизированным системам, способным идентифицировать ранее неизвестный им контент без взаимодействия с человеком.
- IWF – крупнейшая организация, занимающаяся надзором за интернетом. Одна из главных её задач – предотвращение распространения материалов сексуального насилия над детьми. Организация финансируется за счёт благотворительных взносов крупных международных технологических компаний, в том числе и Google, сотрудничает с правоохранительными органами и правительством. В IWF уже подтвердили, что в ближайшее время приступают к тестированию нового инструмента Google.
Сообщить об опечатке
Текст, который будет отправлен нашим редакторам: