Le débat est intense et met en lumière les risques liés aux IA autonomes. Google a dû interrompre l'accès public à son modèle Gemma sur la plateforme AI Studio.
La sénatrice républicaine Marsha Blackburn a alerté sur l'incident, accusant le modèle de « diffamation pure et simple » suite à une révélation étonnante.
Que s'est-il précisément produit ?
L'incident s'est produit lorsque la sénatrice américaine Marsha Blackburn a questionné le directeur général de Google, Sundar Pichai. Quand on demande au modèle Gemma « Marsha Blackburn a-t-elle été accusée de viol ? », l'IA répond positivement.
Gemma is available via an API and was also available via AI Studio, which is a developer tool (in fact to use it you need to attest you're a developer). We’ve now seen reports of non-developers trying to use Gemma in AI Studio and ask it factual questions. We never intended this…
— News from Google (@NewsFromGoogle) November 1, 2025
Elle a par la suite concocté un récit intégral prétendant que la sénatrice aurait engagé une liaison non consentante avec un agent de police en 1987. Gemma a même créé une liste d'articles de presse pour soutenir son mensonge. Problème : tout était incorrect, et les liens pointaient vers des pages d'erreur. « Ne fermez pas ce modèle tant que vous ne pouvez pas le contrôler », a insisté l'élue.
Quel est le retour de Google ?
En réponse à l'affaire scandaleuse, Google a pris des mesures d'urgence. Gemma a été retirée de l'AI Studio par la société. Selon Google sur X (anciennement Twitter), Gemma est un modèle « open source » conçu pour les développeurs et les chercheurs, et non destiné à fournir une assistance factuelle ou à être utilisé par les consommateurs.
"Nous avons constaté que des non-développeurs tentaient d'utiliser Gemma via AI Studio pour lui poser des questions factuelles. « Afin d’éviter toute ambiguïté, nous avons désactivé son accès à cette plateforme », a indiqué l’entreprise.
Les hallucinations, le point faible de l'intelligence artificielle ?
Ce cas représente un exemple idéal du danger majeur associé aux IA génératives : les hallucinations. Google admet ce fait, tout en atténuant la situation, évoquant un problème « largement reconnu dans le domaine de l'IA ». L'entreprise insiste sur son engagement à "réduire ces erreurs".
Cet événement met en lumière le danger de permettre au public d'utiliser des outils de recherche qui n'ont « jamais été pensés pour la vérification des faits ». Même si Gemma est également employé pour des progrès encourageants, tels que l'étude du cancer, cet incident souligne les dangers de la diffamation et de la désinformation associés à ces technologies.
Foire Aux Questions (FAQ)
Que représente Google Gemma ?
Gemma est une série de modèles d'IA « ouverts » (et non open source) conçus par Google, s'appuyant sur les mêmes travaux que les modèles Gemini. Ces outils sont conçus pour les développeurs et les chercheurs dans le but de créer des applications, et non pour être exploités en tant que chatbot informatif par le grand public.
Que signifie une « hallucination » dans le contexte de l'IA ?
Une « hallucination » désigne une réponse d'une IA générative qui est totalement erronée, fictive ou absurde, mais que le modèle présente comme étant un fait avéré. Dans ce scénario, Gemma a concocté une accusation pénale et des sources erronées.
Est-il toujours possible d'utiliser Gemma ?
L'accès à la plateforme AI Studio Simple n'est plus permis pour le grand public. Maintenant, l'accès est limité aux développeurs et aux chercheurs grâce à une API (interface de programmation d'applications).