Call of Duty combatirá la toxicidad de los chats de voz con un sistema de moderación impulsado por IA

Activision introducirá en los juegos de Call of Duty un sistema de moderación para los chats de voz que está impulsado por inteligencia artificial para combatir la toxicidad de estos espacios en tiempo real.

Activision introducirá en los juegos de Call of Duty un sistema de moderación para los chats de voz que está impulsado por inteligencia artificial para combatir la toxicidad de estos espacios en tiempo real.ACTIVISION
audima

Call of Duty: Modern Warfare III llegará el 10 de noviembre y con él Activision pondrá en marcha el sisema de moderación ToxMod, desarrollado por Modulate, que utiliza la inteligencia artificial para moderar los chats de voz.

Este sistema de moderación actúa en tiempo real para identificar y tomar medidas contra aquellos usuarios que tienen un comportamiento inadecuado en los chats de voz, por utilizar un lenguaje discriminatorio, acosar a otros jugadores o promover el discurso del odio.

ToxMod se unirá a otros sistemas de moderación ya implementados, como el filtrado de texto en 14 idiomas, que actúa sobre el chat y sobre el nombre de usuario y los mecanimos de denuncia del juego.

La editora ha destacado que el 20 por ciento de los jugadores de Call of Duty que recibieron una primera advertencia no volvieron a tener un comportamiento considerado tóxico.

Call of Duty combatirá la toxicidad desde el 10 de noviembre

Y que aquellos que reincidieron sí que fueron penalizados, llegando a restringirles el acceso a los chats de voz y texto.

El nuevo sistema de moderación ya se ha implementado en Norte América, en los juegos Call of Duty: Modern Warfare II y Call of Duty: Warzone, como ha informado ACtivison en su blog oficial.

El 10 noviembre, coincidiendo con el lanzamiento de Call of Duty: Modern Warfare II, ToxMod se implementará a nivel global.

Lo
más leído
del día