L'entreprise française Lingua Custodia se réinvente en Dragon LLM et dévoile sa propre architecture d'intelligence artificielle, entraînée sur des supercalculateurs européens.

Baptisée Dragon, cette technologie se veut une alternative souveraine et économe en ressources face aux modèles américains, promettant une efficacité comparable avec une consommation énergétique drastiquement réduite.

Fondée en 2011, la société Lingua Custodia s'était initialement fait un nom dans le secteur très spécialisé de la traduction automatique pour le monde de la finance.  Mais après près de 15 ans d'existence, l'entreprise opère un virage stratégique majeur.

Elle abandonne son identité historique pour devenir Dragon LLM, une nouvelle entité entièrement dédiée au développement de grands modèles de langage.

Une architecture souveraine née en Europe

Le cœur de cette nouvelle ambition repose sur Dragon, une architecture d'IA entièrement conçue en interne. Pour y parvenir, l'entreprise a bénéficié d'un atout de taille : un accès privilégié aux supercalculateurs européens.

Dragon LLM logo

Lauréate du programme Large AI Grand Challenge de la Commission européenne en 2024, Dragon LLM a pu entraîner ses modèles sur les puissantes infrastructures d'EuroHPC, notamment Leonardo en Italie et Jupiter en Allemagne. Cette approche garantit une origine purement européenne à sa technologie, un argument de poids dans la quête de souveraineté numérique du continent.

Le pari de la frugalité technologique

Face aux géants américains et asiatiques, Dragon LLM ne cherche pas à copier mais à innover. L'entreprise mise sur le concept de modèles frugaux, plus petits mais optimisés pour être tout aussi performants.

La promesse est audacieuse : Dragon offrirait des performances comparables à celles des modèles comme GPT ou Llama, tout en utilisant trois fois moins de puissance de calcul.

Dragon LLM dirigeants

Olivier Debeugny, CEO, Raheel Qader, Head of R&D
et Jean-Gabriel Barthélémy, AI Engineer, Dragon LLM

Cette sobriété permettrait de faire tourner l'IA sur des serveurs conventionnels, sans dépendre de parcs massifs de GPU, tout en divisant par deux la consommation énergétique.

Cet argument écologique et économique est stratégique à l'heure où la demande énergétique des data centers explose. Le fondateur, Olivier Debeugny, souligne d'ailleurs que ce développement s'est fait sans lever le moindre euro de capital, en s'appuyant sur la puissance publique européenne.

Quelles sont les prochaines étapes ?

Un premier modèle de démonstration, Dragon-3B-Base-alpha, doté de 3,7 milliards de paramètres, a déjà été rendu public sur la plateforme Hugging Face. L'entreprise prévoit de décliner rapidement son offre avec des versions plus puissantes, notamment des modèles 3B et 7B entraînés sur plus de 10 mille milliards de tokens. Des versions spécialisées, notamment pour le secteur financier, sont également au programme, développées avec le soutien de France 2030.

La gamme complète de modèles, qui inclura des versions open source et propriétaires, devrait être mise sur le marché début novembre. Avec cette feuille de route claire, Dragon LLM se positionne comme l'un des rares acteurs européens capables de proposer une alternative crédible et durable aux technologies qui dominent actuellement le marché mondial de l'IA.