Le débat sur l'intelligence artificielle et le droit d'auteur franchit une nouvelle étape en France. Un groupe de six sénateurs de divers bords politiques a déposé une proposition de loi visant à encadrer l'entraînement des IA génératives. Présenté le 17 décembre en commission de la culture, ce texte court mais puissant pourrait bouleverser les rapports de force entre créateurs et géants de la tech, en instaurant un principe simple : inverser la charge de la preuve.

Pourquoi une telle loi est-elle jugée nécessaire ?

Selon les porteurs du texte, dont Catherine Morin-Desailly et Pierre Ouzoulias, le développement actuel de l'intelligence artificielle s'apparente à un « pillage organisé » des œuvres protégées. Pour entraîner des systèmes comme ChatGPT ou Le Chat de Mistral AI, des milliards de données sont collectées sur le web, incluant des textes, des images et des musiques protégés par le droit d'auteur. Ce « moissonnage », comme le qualifient les sénateurs, s'effectue massivement sans autorisation préalable ni aucune rémunération pour les créateurs.

IA pillage des œuvres (2)

Le problème majeur réside dans l'opacité des entreprises de la tech. Il est aujourd'hui quasi impossible pour un artiste de prouver que son travail a servi à former un modèle, car les développeurs ne publient pas la liste exhaustive de leurs sources d'entraînement. La proposition de loi entend donc combler ce vide juridique et rééquilibrer la balance, après l'échec d'une phase de concertation entre les ayants droit et les acteurs du numérique.

Comment fonctionnerait concrètement cette présomption d'exploitation ?

L'article unique de cette proposition de loi modifierait le code de la propriété intellectuelle. Il stipule que, « sauf preuve contraire », une œuvre est présumée avoir été exploitée par un système d'IA dès qu'un indice rend cette exploitation vraisemblable. En clair, la charge de la preuve serait complètement inversée. Ce ne serait plus à l'auteur de prouver le vol, mais à l'entreprise d'IA de démontrer son innocence.

Les sénateurs donnent des exemples concrets : si un outil d'IA génère un contenu « à la manière de » ou dans le style reconnaissable d'un créateur, ou s'il est capable de citer des extraits d'un texte, cela constituerait un indice suffisant pour enclencher la présomption. Les parlementaires estiment qu'il est juste que les professionnels de la donnée, qui maîtrisent la technologie, portent ce fardeau probatoire plutôt que les artistes démunis face à la complexité technique.

mistral-ai-le-chat

Quelles sont les réactions du secteur de la tech et du gouvernement ?

Cette initiative a provoqué une levée de boucliers immédiate chez les acteurs français de l'IA. Mistral AI, la pépite française, a dénoncé un texte qui viendrait « se saborder » et compromettrait la capacité de l'Europe à rester dans la course mondiale. Le lobby France Digitale partage ces craintes, s'interrogeant sur la compatibilité de la loi avec le droit européen et le risque d'une perte de compétitivité pour les entreprises nationales.

Au sein du gouvernement, les positions sont plus nuancées. Le ministère de la Culture, sous l'égide de Rachida Dati, s'était déjà montré favorable à une inversion de la charge de la preuve. En revanche, le cabinet de la ministre déléguée au Numérique, Anne Le Hénanff, se montre plus prudent, déclarant être « particulièrement vigilant à ce qu'aucune mesure ne soit prise qui pénalise la filière IA française ». L'exécutif étudie encore la constitutionnalité de la proposition, qui promet des débats animés au Sénat.