Il devient de plus en plus complexe pour les développeurs de lutter efficacement contre la triche ou les comportements toxiques dans les jeux en ligne, et pour s'aider, ces derniers font de plus en plus souvent appel à l'intelligence artificielle.

Counter-Strike Global Offensive

C'est le cas pour Counter-Strike GO qui s'est récemment doté de la nouvelle IA baptisée Minerva. Fruit du développement conjoint entre FACEIT, Google Cloud et Jigsaw, Minerva est en place depuis le mois d'aout sur les serveurs du jeu et étudie d'elle-même en analysant les messages postés par les joueurs sur le titre.

A la fin du mois de septembre, Minerva affiche toutefois un triste bilan : 7 millions de messages ont été considérés comme toxiques avec à la clé 90 000 avertissements et 20 000 bans. Si FACEIT se félicite de l'efficacité de son IA, dans les faits la communauté de joueurs est divisée. Certains apprécient de voir les efforts réalisés, et les joueurs les plus toxiques se calmer ou se faire bannir définitivement du jeu. Pour autant, certains s'inquiètent après avoir reçu des avertissements pour des remarques pas forcément déplacées ni agressives et remettent en doute la capacité de l'IA a distinguer l'ironie dans certaines critiques ou de ne pas forcément s'adapter en fonction des termes et des langues parlées.