Un modérateur antitoxicité boosté à l’IA vous surveille sur Call Of Duty
Il n’aura pas fallu attendre longtemps avant que l’intelligence artificielle ne débarque dans les jeux vidéo. Ici, c’est Call Of Duty qui vient de lancer son nouveau modérateur boosté à l’IA, avec son doux nom “ToxMod” sur Modern Warfare2 et Warzone. Le but ? Cibler les joueurs qui abusent et sont néfastes avec les fonctionnalités de chat vocal ou écrit. Il a été confirmé qu’il sera également disponible dans Modern Warfare 3 lors de la sortie du jeu.
Cette nouvelle fonctionnalité est le résultat d’un partenariat entre Activision et Modulate, le créateur de cette toute nouvelle “technologie de modération du chat vocal“. En temps réel, ToxMod détectera les joueurs s’exprimant de manière abusive en jeu et agira en conséquence.
Imaginez si cette technologie avait vue le jour à l’époque de MW2 premier du nom, on aurait eu des millions de bans en 3 jours !
Une technologie complexe et efficace, faites attention à ce que vous dites !
On nous explique que ToxMod est à la recherche de discours haineux, de langage discriminatoire, de harcèlement et de toutes autres formes d’abus. Il s’agit d’un effort d’Activision pour renforcer les mécanismes antitoxicité de Call of Duty, qui incluent désormais également un filtrage basé sur le texte qui surveille le chat en jeu et tente de repérer les comportements malveillants dans 14 langues différentes.
Il est également bon de noté, que dans un article du blog de Call of Duty, que depuis le lancement de Modern Warfare II, plus d’un million de comptes enfreignant le code de conduite ont été détectés et ont fait l’objet de mesures.
Ces dernières semaines, Activision a également introduit une nouvelle clause visant à empêcher les joueurs de faire de faux signalements contre des joueurs qui n’ont rien fait de mal, appelée “Signalement Malveillant”
Le 30 août, la technologie ToxMod a été déployée en Amérique du Nord et sa sortie mondiale est prévue lorsque Modern Warfare 3 sortira.