L'AI Act, le premier cadre juridique européen pour l'intelligence artificielle, est entré en vigueur en août 2024. Une de ses mesures phares impose aux fournisseurs de modèles comme ChatGPT ou Gemini de publier un résumé des données utilisées pour leur entraînement. Pourtant, plusieurs mois plus tard, la situation est au point mort. Les poids lourds du secteur, de Google à Mistral en passant par OpenAI, n'ont toujours pas joué le jeu, créant un véritable bras de fer avec les régulateurs européens.

Pourquoi cette obligation de transparence est-elle si cruciale ?

Cette exigence de l'Union européenne n'est pas un simple détail administratif. Elle touche au cœur du modèle économique des intelligences artificielles génératives et vise à protéger le droit d'auteur. En forçant les entreprises à détailler, même de manière synthétique, les sources utilisées pour nourrir leurs algorithmes, la Commission européenne offre aux créateurs un outil précieux. Artistes, écrivains et ayants droit peuvent ainsi vérifier si leurs œuvres protégées ont été aspirées sans leur consentement.

Sans ces informations, il est quasiment impossible pour un auteur de prouver que son travail a été utilisé pour former un modèle d'IA. Cette mesure est donc conçue pour leur donner les moyens d'engager une action en justice et de réclamer d'éventuels dommages et intérêts. Il s'agit d'une tentative de rééquilibrer les forces entre les créateurs de contenu et les géants de la tech qui ont massivement collecté des données sur le web.

Quelles sont les règles exactes et qui doit s'y plier ?

Le AI Act est un règlement européen dont l'application est progressive, mais certaines règles sont déjà en vigueur. La temporalité est essentielle : si un modèle d'IA a été mis sur le marché européen avant août 2025, ses développeurs ont jusqu'en 2027 pour se conformer. En revanche, pour tout modèle lancé après cette date, l'obligation de transparence est immédiate.

Or, OpenAI, Google et l'entreprise française Mistral ont toutes mis sur le marché des modèles après cette date butoir, ce qui les soumet en théorie à cette règle sans délai. Cependant, elles semblent profiter d'une nuance importante : les contrôles officiels et les éventuelles sanctions de la part de la Commission européenne ne débuteront qu'à partir d'août 2026. Une période de grâce que les entreprises exploitent pour retarder l'échéance et ne pas avoir à dévoiler leurs mécanismes internes trop tôt.

Que risquent réellement les entreprises récalcitrantes ?

La réticence des géants de l'IA n'est pas surprenante, car la divulgation de leurs sources d'entraînement pourrait menacer leur modèle économique. Leurs systèmes ont été formés sur des quantités astronomiques de données, incluant très probablement des contenus protégés. Rendre ces informations publiques exposerait OpenAI et ses concurrents à une vague de poursuites et de demandes d'indemnisation potentiellement colossales. Officiellement, les entreprises évoquent la « complexité technique » et leur incapacité à retracer précisément toutes les sources.

À partir d'août 2026, la patience de la Commission européenne pourrait cependant atteindre ses limites. Le non-respect des obligations de transparence est passible d'amendes conséquentes. Sur le papier, la sanction peut atteindre 15 millions d'euros ou 3 % du chiffre d'affaires annuel mondial, ce qui représente des sommes considérables. Reste à savoir si la menace sera suffisante pour faire plier des acteurs qui, jusqu'à présent, ont fait de l'opacité une stratégie centrale.

Source : Euractiv