Голосовой чат Call of Duty модерируется при помощи искусственного интеллекта

Разработчики игр постепенно пробуют новые методы по борьбе с токсичными игроками в их сетевых проектах. Например, Xbox внедрила новую систему, заключающуюся в получении предупреждений и если их будет много, то на игрока накладываются ограничения вплоть до годового бана, а разработчик Call of Duty пошел еще дальше и привлек к решению проблемы искусственный интеллект.

Несколько часов назад Activision опубликовала материал о внедрении новой системы борьбы с токсичными игроками ToxMod, основанной на обученной модели искусственного интеллекта. Она предназначена для модерации голосового чата, следить за которым очень тяжело даже простому человеку, не говоря о машине, неспособной сочинить произведение искусства.

Судя по тому, что было написано в блоге, ИИ сортирует голосовой чат для дальнейшего анализа, причем сортировка и оценка токсичности происходит по нескольким критериям: тону, тембру, текущих эмоций и контекста разговора. Более того, ИИ умеет отличать простое подшучивание от реально плохого поведения.

Если система определяет человека как токсичного, то конечное решение по его блокировке принимается человеком. Искусственный интеллект только помогает проводить процесс модерации, но не может перманентно блокировать голосовой чат, как и выписывать бан.

Сейчас ToxMod доступна только для модераторов из Северной Америки и в игровых проектах Call of Duty: Modern Warfare II и Warzone, а с выходом MW III распространится на остальной мир, не считая азиатского региона.