Activision, le studio de développement de jeux vidéo, a récemment annoncé sa volonté de lutter contre les comportements toxiques sur Call of Duty, ainsi que sur le prochain opus du jeu. Cette décision a été prise suite aux travaux de l’équipe “anti-toxicité” d’Activision, qui a mis en place une intelligence artificielle (IA) instantanée afin de détecter et réprimer les discours haineux en ligne.
Dans un communiqué publié sur leur blog, les équipes de Call of Duty ont expliqué que le nouveau système de modération du chat vocal du jeu utilise une technologie appelée ToxMod. Cette technologie, développée par Modulate, permet d’identifier en temps réel les discours toxiques, tels que les discours haineux, le langage discriminatoire et le harcèlement. Grâce à cette IA, il ne sera désormais plus possible de proférer n’importe quel type de propos offensant lors des parties en ligne.
Cependant, cette initiative soulève une question importante : où se situe la limite de cette IA ? N’y a-t-il pas un risque que certaines sanctions soient trop sévères ? Activision a tenu à rassurer en précisant que ce « nouveau développement viendra renforcer les systèmes de modération déjà en place, mis en œuvre par l’équipe anti-toxicité de Call of Duty. »
Ces systèmes comprennent un filtrage textuel dans 14 langues pour les messages du jeu (chat et noms d’utilisateurs), ainsi qu’un système de signalement des joueurs.
La véritable difficulté réside donc dans la capacité à distinguer les véritables comportements toxiques des signalements abusifs. Il est fort probable que le travail d’Activision se tourne vers cette problématique dans les semaines à venir.
En effet, avec la sortie imminente de Call of Duty Modern Warfare 3 le 10 novembre prochain, et les dates de la beta déjà annoncées, il sera intéressant de voir comment les équipes d’Activision géreront cette situation.