En fin de semaine dernière, OpenAI a terminé ses douze jours d'annonces en dévoilant les modèles o3 et o3 mini qui prendront la suite de ses modèles o1 et o1 mini en étant plus efficaces, voire moins coûteux (pour o3 mini). Si la dénomination o2 a été zappée, ce n'est pas à cause du gap franchi, mais d'abord pour éviter un problème de marque déposée avec l'opérateur britannique O2.

À l'instar de Gemini 2.0 Flash Thinking de Google… annoncé quelques heures auparavant, o3 s'inscrit dans la lignée des modèles de raisonnement taillés pour la résolution de tâches plus complexes, notamment dans les domaines scientifiques et le codage.

Avec une optimisation pour la programmation, OpenAI a prévu de rendre o3 mini disponible en janvier prochain, tandis que ce devrait être début 2025 pour o3. Introduit comme un modèle d'avant-garde, o3 jouera un rôle important pour ChatGPT et l'ère des agents IA. Patron et cofondateur d'OpenAI, Sam Altman souligne la prochaine phase de l'IA pour des tâches nécessitant beaucoup de raisonnement.

Sur la voie de l'AGI avec o3

Sur le benchmark ARC-AGI conçu pour comparer l'intelligence artificielle à l'intelligence humaine, o3 établit un record en obtenant un score de 75,7 % sur un ensemble d'évaluation semi-privé. Sans les exigences de coût de calcul imposées par le test, ce score est même porté à 87,5 %.

o3-arc-agi

Créateur du benchmark et chercheur en IA, François Chollet souligne que o3 est « très impressionnant et représente une étape importante sur la voie de l'intelligence artificielle générale », tout en estimant qu'il ne s'agit pas encore de cette IAG (ou AGI ; Artificial general intelligence).

« Il y a encore un bon nombre de tâches ARC-AGI-1 très faciles que o3 ne peut pas résoudre, et nous avons des indications préliminaires que ARC-AGI-2 restera extrêmement difficile pour o3. »

Selon Sam Altman, l'AGI pourrait arriver dès 2025. Pour cette intelligence artificielle générale, OpenAI retient comme définition globale des systèmes IA généralement plus intelligents que les humains et qui profitent à toute l'humanité. À court terme, les ambitions semblent toutefois avoir été revues à la baisse sur l'impact pour la société.

GPT-5 rencontrerait des difficultés

Pour l'AGI sous la houlette d'OpenAI, le modèle GPT-5 a souvent été perçu comme la prochaine grosse (ré)évolution en ce sens. Il est désormais permis d'en douter et de se demander si o3 (et la suite prévue) n'est pas mieux placé dans cette perspective.

Sur Reddit, Sam Altman avait prévenu : « Nous avons de très bonnes sorties à venir dans le courant de cette année ! Rien que nous appellerons GPT-5, cependant. » Une déclaration qui est dorénavant confirmée.

OpenAI

D'après le Wall Street Journal, le développement de GPT-5 au nom de code Orion est en proie à des difficultés et ses résultats ne seraient pas aussi prometteurs qu'initialement attendu. La problématique serait en lien avec l'entraînement d'un grand modèle de langage (LLM) de cette taille. Il nécessite une énorme quantité de données, une imposante puissance de calcul, et donc des coûts qui grimpent en flèche.

Compte tenu des résultats obtenus avec GPT-5, l'investissement consenti serait remis en cause. La stratégie d'exploiter des jeux de données toujours plus volumineux est susceptible de prendre du plomb dans l'aile. Au bénéfice de modèles comme o3 ?