L'arrivée de l'intelligence artificielle de la firme chinoise DeepSeek a causé un certain trouble dans l'assurance affichée par les entreprises américaines et renforcée par les déclarations de Donald Trump lors de son investiture.

En offrant des performances égales voire supérieures sur certains aspects aux meilleurs modèles d'IA américains pour une fraction de leur prix, l'IA chinoise met à mal les certitudes sur les investissements massifs en cours pour étoffer les capacités des IA.

Sans utiliser les accélérateurs IA les plus puissants disponibles et en faisant preuve d'astuce dans le fonctionnement du modèle d'IA, la firme chinoise démontre qu'il est possible de créer des systèmes IA performants pour bien moins cher que ce que proposent les grands groupes US.

DeepSeek secoue le secteur de l'IA

La mise en service de DeepSeek R1 a créé un vent de panique dans l'industrie IA et fait plonger le cours en Bourse de la plupart des acteurs du secteur mais aussi des fabricants de puces et des concepteurs d'équipements, cassant la croyance qu'il faudra toujours plus de lourds investissements pour faire progresser l'IA.

Les reculs sont massifs, à l'image de Nvidia, principal fournisseur mondial d'accélérateurs IA, qui a perdu 17% de valeur en l'espace de quelques jours et beaucoup d'autres perdant entre 5 et 10%. Le spécialiste des GPU a ainsi dû faire face à un recul record de 593 milliards de dollars de capitalisation boursière, jamais vu jusqu'à présent pour une entreprise.

DeepSeek IA generative chine

L'heure est donc à l'urgence de rassurer les investisseurs et observateurs en tentant de relativiser quelque peu, sans dénigrer les qualités de l'IA chinoise. Nvidia reconnaît ainsi que DeepSeek a réussi un joli coup en démontrant l'intérêt d'une approche en vogue dans l'IA et vue comme une voie d'avenir : le test-time scaling.

Plutôt que de s'appuyer seulement sur la puissance brute d'un grand nombre de GPU, elle utilise les capacités disponibles pour amplifier la qualité des réponses de l'IA, un peu comme si une personne mettait toutes ses facultés mentales en action pour résoudre subtilement un problème plutôt que de se référer uniquement à ses connaissances acquises (dans le cas de l'IA par l'entraînement sur des jeux de données) et avec la force d'une réflexion de l'IA en temps réel.

Cette approche est l'un des moyens à l'étude pour tenter de faire reculer le moment où la progression de l'intelligence artificielle va stagner faute de nouvelles connaissances à absorber, même en ajoutant de nouveaux accélérateurs IA.

DeepSeek exploiterait cette nouvelle approche avec succès et, pour Nvidia, cela illustre comment de nouveaux modèles d'IA efficaces peuvent être créés en utilisant cette technique.

Pour la firme, cela signale aussi l'importance de laisser à la Chine un accès aux puces IA, plaidant ainsi pour sa cause après avoir régulièrement limité la puissance des puces destinées à la Chine pour répondre aux nouvelles réglementations des Etats-Unis.

Malgré les rumeurs selon lesquelles DeepSeek aurait profité d'un réseau de GPU Nvidia de dernière génération en cloud, l'IA chinoise aurait été créée à partir de composants moins puissants Nvidia H800 autorisés en Chine pour un investissement de seulement 6 millions de dollars.

L'Amérique obsédée par sa sécurité nationale n'oubliera tout de même pas que les données fournies à DeepSeek sont stockées sur des serveurs opérant en Chine, avec tous les risques associés, fantasmés ou réels.

Sam Altman impressionné mais fidèle à sa stratégie

Mais si le test-time scaling permet de créer des IA aussi efficaces, pourquoi s'obstiner à investir des dizaines de milliards de dollars dans des infrastructures géantes, comme l'on annoncé récemment Microsoft et Meta, et comme veut le faire OpenAI avec le projet Stargate qui pourrait atteindre 500 milliards de dollars ?

Sam Altman, patron d'OpenAI, reconnaît que DeepSeek R1 affiche des performances impressionnantes et pour un prix entre 20 et 50 fois inférieur à celui de son modèle o1.

Pour autant, il continue d'affirmer que les progrès d'OpenAI ne pourront être réalisés qu'avec une plus grande puissance de calcul : " [OpenAI] estime que disposer de plus de puissance de calcul est plus important que jamais pour atteindre nos objectifs".

Cette montée en puissance apportera de nouveaux modèles d'IA plus performants et on n'échappe pas au couplet optimiste : "vous serez épatés par les prochains modèles next gen".

openai

Toutefois, il risque de devenir rapidement compliqué de justifier une telle démarche si les IA alimentées par des centaines de milliers de GPU surpuissants ne démontrent pas une réelle supériorité par rapport à ces modèles d'IA bien moins coûteux.

L'émergence d'une forme de superintelligence artificielle semble être l'objectif motivant cette course à l'armement de l'IA, qu'il s'agisse de la fameuse AGI (intelligence artificielle générale) ou d'une collection d'IA spécialisées constituant une intelligence collective supérieure à l'esprit humain.

Sam Altman ne s'en est pas caché dans ses commentaires en indiquant vouloir apporter à tous des AGI et plus encore ("AGI and beyond"), qui reste son obsession première et la raison de cette course de vitesse au détriment de l'aspect de la sécurité des IA, régulièrement critiqué, sinon dénoncé chez OpenAI.

Mais cette évoution est-elle souhaitable et vaut-elle les sacrifices grandissants en ressources qu'elle est en train de mobiliser, jusqu'à entrer en concurrence avec les besoins de l'humanité ?

Source : Reuters