L'affaire secoue le Royaume-Uni. La police des West Midlands se retrouve au cœur d'une polémique majeure après avoir utilisé des informations erronées, générées par une intelligence artificielle, pour justifier une mesure de sécurité drastique. Le chef de la police, Craig Guildford, a dû présenter ses excuses devant les parlementaires après avoir initialement nié l'usage de l'IA, attribuant l'erreur à une simple recherche Google.
Comment une simple erreur d'IA a-t-elle pu dégénérer en crise politique ?
L'incident trouve son origine dans la préparation d'un match de l'Europa League entre Aston Villa et le club israélien Maccabi Tel Aviv en novembre dernier. Pour évaluer le risque de la rencontre, la police a produit un rapport de renseignement crucial. Or, ce document mentionnait un précédent match houleux entre le Maccabi Tel Aviv et West Ham, qui en réalité n'a jamais eu lieu.
Cette information fictive, créée de toutes pièces, a été utilisée par le Birmingham Safety Advisory Group pour classer le match comme « à haut risque » et interdire la présence des supporters israéliens. La décision a immédiatement provoqué l'indignation de hauts responsables politiques, certains y voyant une potentielle forme d'antisémitisme et une capitulation face aux menaces extrémistes.
Quelles ont été les conséquences pour la police des West Midlands ?
Pour le chef de la police Craig Guildford, les retombées sont désastreuses. Après avoir nié à deux reprises devant la commission des Affaires intérieures que ses services utilisaient l'IA, il a finalement été contraint d'admettre la vérité. Dans une lettre, il confesse que l'erreur provenait bien de l'utilisation de Microsoft Copilot et présente ses « profondes excuses » pour avoir involontairement trompé la commission.
Cette rétractation tardive a amplifié la crise, et les appels à sa démission se sont multipliés, notamment de la part de la leader conservatrice Kemi Badenoch. Pire encore, il a été révélé que la police des West Midlands n'avait officiellement pas approuvé l'usage d'outils d'IA, suggérant que des agents les emploient sans formation ni cadre réglementaire.
Au-delà de l'anecdote, que révèle cette affaire sur les dangers de l'IA ?
Cet événement met en lumière les risques critiques liés à l'intégration non supervisée de l'IA générative dans des domaines aussi sensibles que la sécurité publique. Les modèles linguistiques sont connus pour leurs « hallucinations », c'est-à-dire leur capacité à inventer des faits de manière très convaincante. Microsoft avertit d'ailleurs explicitement que « Copilot peut faire des erreurs ».
L'affaire britannique démontre que sans une vérification humaine rigoureuse, ces outils peuvent conduire à des décisions aux conséquences graves, basées sur des informations totalement fausses. Elle soulève également des questions sur la responsabilité et servira sans doute de jurisprudence dans le débat sur l'encadrement des technologies d'IA dans les services publics.