Le développement de l'intelligence artificielle passe par des centres de données comptant des dizaines ou des centaines de milliers de composants dédiés travaillant ensemble pour l'entraînement IA puis pour l'inférence.
Le groupe Nvidia est devenu une référence incontournable en la matière grâce à ses GPU et ses accélérateurs IA dédiés que les géants du secteur s'arrachent afin de bâtir des infrastructures soutenant la progression des performances des intelligences artificielles.
Pour ses puces d'entraînement IA, Meta choisit RISC-V
Mais cela crée dans le même temps une dépendance et une compétition entre les entreprises pour l'accès aux ressources. D'où une volonté grandissante de sortir de ces blocages en développant soi-même ses propres composants.
Cela a deux avantages : pouvoir disposer de ses propres composants, sous réserve d'accéder à des capacités de production, et être en mesure de les adapter finement aux besoins.
Googe, Microsoft et Amazon ont déjà annoncé des processeurs et accélérateurs dédiés et ce sera peut-être bientôt aussi le cas du groupe Meta. Ce dernier prépare son propre accélérateur IA conçu a priori avec l'aide de Broadcom et le fondeur taiwanais TSMC qui en assurera la production.
Ce composant dédié à l'entraînement IA aura aussi une particularité : il exploitera la jeune architecture open source, modulaire et flexible RISC-V qui commence à attirer l'attention en tant qu'alternative aux solutions propriétaires couramment utilisées.
Le design du composant serait finalisé et les premiers exemplaires destinés à vérifier que tout fonctionne parfaitement avant de lancer la production de masse auraient déjà été fabriqués (phase dite de tape-out).
Meta aurait commencé à le déployer à petite échelle pour le valider et le calendrier d'un lancement officiel à partir de 2026 semble envisageable, même si la firme aura toujours énormément besoin des GPU de Nvidia.
Reuters rapporte que la firme a abandonné le développement d'une puce d'inférence en 2022 dans le cadre de son programme MTIA (Meta Training and Inference Accelerator), les performances n'étant pas à la hauteur des attentes, et c'est ce qui l'a conduite a commander des GPU Nvidia en masse, pour plusieurs milliards de dollars.
RISC-V, une architecture qui gagne à être connue
La création d'une puce d'entraînement IA en passant par RISC-V plutôt que des GPU répond aussi à une autre problématique : le tassement des performances des intelligences artificielles.
Le secteur arrive à un point d'inflexion pour lequel ajouter des GPU supplémentaires n'apporte qu'un gain marginal dans la qualité de réponse des IA tout en augmentant fortement les ressources nécessaires (composants, électricité, eau...).
Passer par l'architecture RISC-V peut donc constituer une voie d'avenir pour des solutions sur mesure en termes de performances comme de consommation d'énergie pour obtenir la meilleure efficience par watt, jusqu'à faire mieux que les solutions GPU de Nvidia.
Meta AI, au coeur des Meta Ray-Ban
Ces problématiques sont aussi au coeur des solutions de la firme Cerebras et de ses systèmes WSE (Wafer-Scaled Engines) qui agrègent des centaines de milliers de coeurs fonctionnant ensemble sur une puce géante de la taille d'un wafer, avec l'atout d'un coût de fonctionnement moindre et d'un rythme de production de tokens en sortie plus élevé, rendant l'IA plus réactive dans ses réponses, notamment lorsqu'elle utilise des modes de raisonnement.
Il reste à voir si les promesses de l'accélérateur d'entraînement IA de Meta soutiendra la progression de ses modèles de langage Llama (notamment les différentes versions de Llama 4) et du chatbot Meta AI utilisé avec succès dans des produits comme les lunettes connectées Meta Ray-Ban.