Многопользовательские шутеры от первого лица, такие как Call of Duty, печально известны из-за токсичности своих лобби и голосовых чатов. Опросы назвали фанатскую базу Call of Duty самой токсичной во всей игровой индустрии ─ однажды вражда между двумя игроками даже привела к вызову отряда спецназа. Activision уже много лет пытается бороться с подобным поведением, и частью решения этой проблемы может быть использование искусственного интеллекта.
Activision заключила партнерское соглашение с компанией Modulate, чтобы внедрить в свои игры «модерацию внутриигрового голосового чата». Новая система модерации, использующая технологию ИИ ToxMod, будет в режиме реального времени выявлять такое поведение, как разжигание ненависти, дискриминацию и преследование.
Компания уже развернула первоначальную бета-версию ToxMod в Северной Америке. ПО на базе ИИ работает в Call of Duty: Modern Warfare II и Call of Duty: Warzone. Глобальный релиз (за исключением Азии) запланирован на 10 ноября вместе с выпуском Call of Duty: Modern Warfare III.
Авторы описывают ToxMod как инструмент, который «сортирует голосовой чат, чтобы отметить плохое поведение, анализирует нюансы каждого разговора, чтобы определить токсичность, и позволяет модераторам быстро реагировать на каждый инцидент, предоставляя соответствующий и точный контекст». Также отмечается, что инструмент призван выйти за рамки простой транскрипции ─ он также учитывает такие факторы, как эмоции и громкость игрока, в контексте, чтобы отличить вредные высказывания от игривых.
Отметим, ToxMod не будет предпринимать каких-либо действий в отношении игроков-нарушителей. Он лишь будет отправлять отчеты модераторам Activision.
Источник: The Verge
Сообщить об опечатке
Текст, который будет отправлен нашим редакторам: