La start-up française Mistral AI lance sa nouvelle génération Mistral 3 de modèles d'IA. Cette offensive se matérialise par une famille de dix modèles open weight (poids ouverts) sous licence Apache 2.0, conçus pour couvrir un large spectre d'usages.

En vedette se trouve Mistral Large 3, un modèle de pointe multimodal et multilingue, mais aussi la gamme Ministral 3, une série de modèles plus compacts et axés sur le rapport performance/coût.

Qu'est-ce que Mistral Large 3 apporte de nouveau ?

Mistral Large 3 se positionne comme l'un des meilleurs modèles ouverts au monde, rivalisant directement avec les géants du secteur.

Entraîné sur 3000 GPU H200 de Nvida, il s'agit d'un modèle à mélange d'experts (MoE) avec 41 milliards de paramètres actifs sur un total de 675 milliards. Cette architecture lui confère une grande efficacité pour traiter des tâches complexes et analyser de longs documents grâce à une fenêtre de contexte de 256 000 tokens.

L'un de ses atouts est d'intégrer nativement des capacités multimodales (texte et image) et multilingues. Sa polyvalence le destine à des applications variées comme l'analyse de documents, la génération de code ou l'automatisation de flux de travail complexes.

Miser sur des modèles plus petits avec Ministral 3

La gamme Ministral 3 est composée de neuf modèles déclinés en trois tailles (3B, 8B et 14B de paramètres) et trois variantes (Base, Instruct et Reasoning). Avec des modèles plus petits, l'objectif est de proposer des solutions plus rapides, moins coûteuses et capables de fonctionner dans des environnements contraints.

Guillaume Lample, Cofondateur de MistralAI, Guillaume Lample explique à TechCrunch que " la grande majorité des cas d'usage en entreprise peuvent être traités par de petits modèles, surtout si vous les affinez ".

Capables de fonctionner sur un seul GPU, ces modèles peuvent être déployés sur des serveurs locaux, des ordinateurs portables et même des robots, garantissant l'accessibilité de l'IA, même pour les personnes sans accès à Internet.

Mistral AI dans l'écosystème de l'IA

En publiant ses modèles sous licence Apache 2.0, Mistral entend " donner du pouvoir à la communauté des développeurs et mettre réellement l'IA entre les mains des gens ".

Cette ouverture est rendue possible grâce à des partenariats, notamment avec Nvidia pour l'entraînement sur les GPU Hopper, mais aussi avec vLLM et Red Hat pour faciliter l'accès et le déploiement des modèles.

En plus de Mistral AI Studio, Mistral 3 est disponible sur de nombreuses plateformes comme Amazon Bedrock, Azure Foundry, Hugging Face (Mistral Large 3 et Ministral 3) et autres.