Activision, el gigante de los videojuegos, ha revelado los primeros resultados de su herramienta de moderación ToxMod impulsada por inteligencia artificial para Call of Duty. Desde su lanzamiento el año pasado, más de 2 millones de cuentas se han enfrentado a acciones disciplinarias debido a comportamientos disruptivos en el chat de voz.

ToxMod, implementado en agosto en los juegos Call of Duty: Modern Warfare II, Modern Warfare III y Call of Duty: Warzone, utiliza inteligencia artificial para identificar comentarios «perturbadores» en 14 idiomas. La herramienta ha demostrado ser eficaz, evolucionando el enfoque de moderación de Activision, que ha observado una disminución mensual del 8% en los reincidentes desde su introducción.

A pesar de la eficacia de ToxMod, Activision destaca que solo el 20% de los comportamientos disruptivos son reportados por los jugadores, lo que subraya la necesidad de una participación activa de la comunidad en la denuncia de incidentes. La compañía subraya que el sistema de moderación permite medidas contra aquellos que violan el Código de Conducta, incluso en ausencia de informes de usuarios.

La reducción del 50% en casos graves de chat de voz disruptivo desde el lanzamiento de Modern Warfare III refuerza el impacto positivo de ToxMod. Los jugadores que incumplen las políticas se enfrentan a acciones disciplinarias como la restricción del chat de voz y texto. Activision también está explorando vías para que los jugadores proporcionen «comentarios adicionales» en el proceso.

El Código de Conducta actualizado de Call of Duty refuerza la postura de Activision contra el discurso tóxico, con medidas enérgicas contra la intimidación, el acoso y comentarios despectivos. La compañía se compromete a continuar combatiendo la toxicidad en sus juegos y trabajar con la comunidad para garantizar un entorno justo y divertido para todos los jugadores.