Une véritable vague de poursuites judiciaires déferle sur les géants de la tech comme OpenAI, Google ou encore Meta. Au cœur des accusations se trouve une pratique massive : l'entraînement de leurs modèles d'intelligence artificielle sur des corpus de données gigantesques, incluant des centaines de milliers de livres, d'articles et d'images, souvent sans autorisation ni compensation financière pour les auteurs. Ces derniers dénoncent un « pillage » à grande échelle, tandis que les entreprises d'IA invoquent des exceptions juridiques pour justifier leur méthode. Le conflit est désormais mondial, mais les prochains mois verront des verdicts clés qui pourraient tout changer.
Quel est l'enjeu principal du bras de fer judiciaire aux États-Unis ?
Aux États-Unis, le débat se cristallise autour d'un concept juridique central : le « fair use » (usage équitable). Cette doctrine autorise l'utilisation d'œuvres protégées sans permission si le résultat est suffisamment « transformateur ». Les entreprises d'IA soutiennent que l'entraînement de leurs modèles entre dans ce cadre. Un premier coup de semonce a été donné fin 2025 avec un accord record de 1,5 milliard de dollars versé par la startup Anthropic pour clore un recours collectif d'écrivains, évitant ainsi un procès au verdict incertain.
Cet accord illustre les sommes colossales en jeu, mais ne tranche pas la question de fond. Pour l'heure, le flou juridique persiste, car les décisions judiciaires divergent fortement. Un juge californien a estimé que l'entraînement d'une IA était « quintessentiellement transformatif », tandis qu'un autre, dans une affaire similaire, a alerté sur le risque que l'IA « inonde le marché » de contenus et sape les incitations des créateurs, menaçant la raison d’être du droit d'auteur.
Comment l'Europe compte-t-elle encadrer l'intelligence artificielle ?
De l'autre côté de l'Atlantique, l'Union européenne a choisi une voie différente, celle de la législation. Avec l'AI Act européen, elle met en place une approche par le risque : plus l'impact potentiel d'un système est élevé, plus les contraintes sont fortes. Cette approche pragmatique marque une rupture en matière de réglementation technologique, en se concentrant sur les usages concrets plutôt que sur la technologie elle-même.
Pour les IA génératives et les chatbots, l'obligation principale est la transparence non négociable : l'utilisateur doit toujours savoir qu'il interagit avec une machine. Plus important encore, les modèles d’IA généralistes (comme ceux derrière ChatGPT) devront publier des résumés de leurs données d'entraînement et se conformer à la législation sur le droit d'auteur. En cas de non-respect, les entreprises s'exposent à des sanctions financières colossales, pouvant atteindre 7 % de leur chiffre d'affaires mondial.
Quelles stratégies se dessinent pour l'avenir des créateurs et de l'IA ?
Face à cette incertitude juridique et réglementaire, deux stratégies opposées émergent pour les ayants droit. La première est l'affrontement judiciaire, une voie choisie par de nombreux auteurs et artistes pour faire valoir leurs droits et obtenir réparation. Cette approche vise à forcer les tribunaux à statuer que l'entraînement des IA n'est pas un usage équitable et nécessite une licence préalable.
La seconde voie est celle de la voie de la négociation et du partenariat. Certains acteurs majeurs, plutôt que de combattre la technologie, cherchent à en tirer parti. Fin 2025, Disney a par exemple investi 1 milliard de dollars dans OpenAI et lui a accordé une licence d'utilisation de ses personnages. De même, Warner Music a conclu des accords avec des startups d'IA musicale. Ces alliances dessinent les contours de nouveaux modèles économiques où la collaboration pourrait prévaloir, redéfinissant durablement les rapports de force entre les créateurs et la technologie d'IA.