Багатокористувацькі шутери від першої особи, такі як Call of Duty, сумно відомі через токсичність своїх лобі й голосових чатів. Опитування назвали фанатську базу Call of Duty найтоксичнішою у всій ігровій індустрії ─ одного разу ворожнеча між двома гравцями навіть призвела до виклику загону спецпідрозділу. Activision вже багато років намагається боротися з подібною поведінкою, і частиною розв’язання цієї проблеми може бути використання штучного інтелекту.
Activision уклала партнерську угоду з компанією Modulate, щоб запровадити у свої ігри «модерацію внутрішньоігрового голосового чату». Нова система модерації, що використовує технологію ШІ ToxMod, буде в режимі реального часу виявляти таку поведінку, як розпалювання ненависті, дискримінацію та переслідування.
Компанія вже розгорнула початкову бета-версію ToxMod у Північній Америці. ПЗ на базі ШІ працює в Call of Duty: Modern Warfare II та Call of Duty: Warzone. Глобальний реліз (за винятком Азії) заплановано на 10 листопада разом із випуском Call of Duty: Modern Warfare III.
Автори описують ToxMod як інструмент, який «сортує голосовий чат, щоб відзначити погану поведінку, аналізує нюанси кожної розмови, щоб визначити токсичність і дозволяє модераторам швидко реагувати на кожен інцидент, надаючи відповідний та точний контекст». Також наголошується, що інструмент покликаний вийти за рамки простої транскрипції – він також враховує такі фактори, як емоції та гучність гравця, у контексті, щоб відрізнити шкідливі висловлювання від ігрових.
Зазначимо, ToxMod не робитиме жодних дій щодо гравців-порушників. Він лише надсилатиме звіти модераторам Activision.
Джерело: The Verge
Повідомити про помилку
Текст, який буде надіслано нашим редакторам: