Start-up californienne d'IA qui développe la famille de modèles et le chatbot Claude, Anthropic annonce sa décision de cesser de vendre ses services d'intelligence artificielle à toutes les entreprises détenues majoritairement par des entités chinoises.

Pour ce concurrent d'OpenAI, la mesure à effet immédiat s'applique aussi à la Russie, l'Iran et la Corée du Nord, et concerne même les filiales des groupes concernés opérant hors de leurs frontières.

Combler une faille de sécurité

L'accès aux IA américaines comme Claude ou ChatGPT était déjà interdit sur le sol chinois. Néanmoins, les entreprises les plus déterminées avaient trouvé la parade en créant des filiales dans des pays tiers, par exemple Singapour, pour accéder à des technologies sans éveiller les soupçons.

Au Financial Times, un dirigeant d'Anthropic parle de « combler une faille qui permet aux entreprises chinoises d'accéder à l'IA de pointe ».

Des risques militaires et économiques

Le tour de vis est opéré à l'aune de craintes pour la sécurité nationale, sachant que la législation chinoise peut forcer n'importe quelle entreprise à partager ses données et à coopérer avec les services de renseignement et l'armée.

« Lorsque ces entités accèdent à nos services via des filiales, elles pourraient utiliser nos capacités pour développer des applications et des services qui servent en fin de compte les services militaires et de renseignement adverses et des objectifs militaires plus larges », écrit Anthropic.

Il s'agit aussi de protéger une avance technologique américaine. Des techniques comme la distillation pourraient permettre à la Chine de « copier » les modèles d'IA américains pour accélérer son propre développement. Rappelons qu'OpenAI a accusé la start-up chinoise DeepSeek d'avoir utilisé ses modèles pour entraîner le sien.

anthropic-claude-raisonnement

Un impact financier assumé

Cette décision n'est pas sans conséquence pour Anthropic. La société, récemment valorisée à 183 milliards de dollars, s'attend à un impact sur son chiffre d'affaires mondial de « quelques centaines de millions de dollars ». C'est un coût assumé pour mettre en lumière ce qui est décrit comme un « problème important ».

Des géants comme ByteDance, Tencent ou Alibaba pourraient être directement touchés. Le Financial Times note que c'est la première fois qu'une grande entreprise américaine d'IA impose une telle interdiction de manière formelle.