Блоги
Алгоритмы Facebook научатся эффективно распознавать стрельбу от первого лица

Алгоритмы Facebook научатся эффективно распознавать стрельбу от первого лица

Алгоритмы Facebook научатся эффективно распознавать стрельбу от первого лица


Компания Facebook объявила о намерении повысить качество работы алгоритмов обнаружения на видеороликах стрельбы от первого лица. С этой целью систему искусственного интеллекта натренируют на кадрах, полученных с нательных камер полицейских.

Как сообщается, в рамках партнерства с правоохранительными органами США и Великобритании Facebook бесплатно предоставит им камеры, а взамен получит записи с курсов обучения по обращению с огнестрельным оружием, которые затем задействует для обучения алгоритмов.

В конечном итоге, надеются в Facebook, ИИ сможет эффективнее выявлять эпизоды стрельбы от первого лица на видеоконтенте. Благодаря этому, как утверждается, соцсеть получит возможность не только предотвращать прямые эфиры террористов и удалять загружаемые пользователями ролики, содержащие насилие, более оперативно, но также сообщать о новых инцидентах правоохранительным органам как можно раньше.

«В результате террористам станет гораздо труднее «прославлять» свои атаки и продвигать токсические идеологии, стоящие за ними», — указывают в Facebook.

Примечательно, что собранным датасетом для обучения алгоритмов-модераторов соцсеть в дальнейшем намерена поделиться с другими технологическими компаниями в рамках кампании по борьбе с терроризмом.

Напоследок отметим, что Facebook подверглась жесткой критике этой весной, после того как в новозеландском городе Крайстчерч неонацист Брентон Таррант расстрелял в двух мечетях 51 человека, причем первые 17 минут нападения террорист транслировал через Facebook Live. Представители компании тогда заявляли, что только за первые сутки удалили свыше 1,5 миллиона записей трансляции, загруженных пользователями. Несмотря на это, ролики шокирующего содержания можно было найти в соцсети еще в течение нескольких недель после теракта, что поставило под сомнение способность алгоритмов Facebook отслеживать экстремистский контент. Впоследствии в компании признали проблему, указав, что в настоящее время у них слишком мало видеороликов со стрельбой от первого лица, на которых можно было бы натренировать алгоритмы машинного обучения.


Сообщить об опечатке

Текст, который будет отправлен нашим редакторам: