La semaine dernière, Anthropic a coupé l'accès à ses modèles d'IA pour l'un de ses plus grands concurrents, OpenAI.

Les équipes du créateur de ChatGPT auraient été surprises en train d'utiliser les outils d'Anthropic d'une manière qui enfreint directement les règles, et ce, à quelques encablures de l'arrivée très attendue de GPT-5.

Une utilisation jugée illégitime

Au cœur de la discorde se trouve Claude Code, un outil de génération de code. Porte-parole d'Anthropic, Christopher Nulty a déclaré Wired que « Claude Code est devenu le choix de prédilection des codeurs du monde entier, il n'était donc pas surprenant d'apprendre que le personnel technique d'OpenAI utilisait également nos outils de codage avant le lancement de GPT-5 ».

Il ajoute qu'il s'agit malheureusement d'une « violation directe de nos conditions d'utilisation ». Celles-ci interdisent formellement d'utiliser le service pour construire un produit ou un service concurrent, y compris pour entraîner des modèles d'IA concurrents.

La défense d'OpenAI : une pratique standard ?

Les équipes d'OpenAI se connectaient directement à Claude via l'API (accès développeur). L'objectif, selon la directrice de la communication d'OpenAI, était loin d'être malveillant. Elle souligne des tests comparatifs pour évaluer les capacités de Claude en matière de code, d'écriture créative ou de réponses à des requêtes sensibles, afin d'améliorer les propres modèles d'OpenAI.

« Il est standard dans l'industrie d'évaluer d'autres systèmes d'IA pour mesurer les progrès et améliorer la sécurité. Bien que nous respections la décision d'Anthropic de nous couper l'accès son API, elle est décevante étant donné que notre API reste disponible pour eux », a expliqué Hannah Wong. Un argument de pratique standard qui n'a visiblement pas convaincu.

Un conflit aux allures de déjà-vu

Cette manœuvre n'est pas une première dans le secteur. Anthropic avait déjà montré les dents il y a quelques mois en restreignant l'accès à la start-up Windsurf, alors que des rumeurs d'acquisition par OpenAI circulaient.

Directeur scientifique d'Anthropic, Jared Kaplan avait alors sobrement commenté : « Je pense qu'il serait étrange pour nous de vendre Claude à OpenAI. »

Avec la nouvelle décision touchant son concurrent OpenAI, Anthropic a tout de même précisé qu'un accès resterait possible pour des évaluations de sécurité, semant un peu de confusion sur la portée réelle de l'interdiction.

Source : Wired