L'intelligence artificielle Grok, développée par xAI, s'est illustrée de la pire des manières lors de la fusillade de Bondi Beach survenue en Australie sur fond d'antisémitisme.

Multipliant les erreurs factuelles et les hallucinations, le chatbot a remis en cause la réalité des images et mal identifié les protagonistes, soulignant à nouveau les risques de l'IA dans le traitement de l'actualité en temps réel.

Une confusion inquiétante sur l'identité des acteurs

Le traitement de l'information en temps réel est un exercice périlleux où la moindre erreur peut avoir des conséquences lourdes sur la perception publique. Dans les heures qui ont suivi le drame australien, les utilisateurs cherchant à comprendre la situation se sont heurtés à des réponses incohérentes générées par l'algorithme.

Au lieu de rapporter les faits établis par les autorités, le système a, via son moteur d'intelligence artificielle, attribué des rôles fictifs à des personnes réelles, créant un brouillard informationnel préjudiciable.

Le cas le plus marquant concerne l'homme ayant courageusement désarmé l'assaillant, un acte de bravoure salué par tous les témoins. Alors que les médias identifiaient correctement Ahmed al Ahmed, le programme a affirmé avec aplomb qu'il s'agissait d'un certain Edward Crabtree, un prétendu architecte de solutions informatiques, ou même d'un otage israélien.

Ces affirmations, basées sur des rumeurs virales et des réseaux sociaux mal interprétés, ont ajouté une couche de désinformation à un événement déjà chaotique.

La négation de la réalité par des hallucinations numériques

Au-delà des simples erreurs d'identification, la capacité du logiciel à analyser le contexte visuel a été mise en défaut de manière spectaculaire lors de cet événement tragique.

Lorsqu'il a été confronté aux vidéos de l'incident, l'outil n'a pas seulement échoué à les décrire, il a inventé des scénarios alternatifs totalement déconnectés du réel. Il a ainsi qualifié une vidéo de l'attaque de « vieille vidéo virale » montrant un homme élaguant un palmier, niant ainsi la gravité de la scène.

Dans d'autres interactions, les images de la confrontation policière ont été faussement attribuées au cyclone Alfred, une catastrophe naturelle survenue plus tôt dans l'année en Australie.

Ces erreurs, que l'on qualifie souvent d'hallucinations dans le domaine technique, démontrent que malgré les promesses d'Elon Musk, la fiabilité de ces outils reste précaire face à l'actualité brûlante et immédiate.

Un manque de fiabilité systémique et récurrent

Cet incident ne semble pas être un cas isolé mais plutôt le symptôme d'une instabilité plus large du modèle qui peine à distinguer les faits. Au même moment, d'autres utilisateurs rapportaient des confusions entre la fusillade de Bondi et des événements survenus à l'université Brown, voire des réponses sur le drame australien à des questions concernant l'entreprise Oracle.

Cette incapacité à segmenter correctement les données contextuelles souligne les limites actuelles de la technologie.  Si des correctifs ont été apportés a posteriori par les développeurs pour rectifier le tir, le mal était déjà fait auprès du public.

La propagation rapide de ces faussetés rappelle que la supervision humaine reste indispensable pour valider l'information sensible. Tant que les systèmes automatisés ne pourront pas garantir un discernement minimal, leur utilisation comme source d'information primaire lors de crises majeures restera un pari risqué pour l'avenir de l'information.