La semaine dernière, Google a dévoilé Gemini 2.0 et a notamment déployé une version expérimentale de Gemini 2.0 Flash. Toujours à titre expérimental, une version estampillée Thinking de Gemini 2.0 Flash est désormais proposée.
Le modèle Gemini 2.0 Flash Thinking sonne comme une réponse au modèle o1 d'OpenAI et ses différentes déclinaisons. Il entre dans la classe des modèles capables de raisonner à la manière d'un humain. Du moins, ils ont des points communs avec les modèles de raisonnement humains et intègrent des mécanismes d'auto-vérification.
« Gemini 2.0 Flash Thinking est un modèle expérimental qui est entraîné à générer le processus de réflexion par lequel le modèle passe dans le cadre de sa réponse », écrit Google. Pour une réponse apportée, c'est une décomposition et un affichage de plusieurs étapes.
Google DeepMind vante des résultats prometteurs
Généralement adaptés à la résolution de tâches plus complexes, une contrepartie avec les modèles de raisonnement est davantage de temps de calcul, ce qui se traduit également par des temps de réponse plus importants.
Scientifique en chef de Google DeepMind, Jeff Dean souligne une puissance de calcul accrue pour Gemini 2.0 Flash Thinking qui capitalise sur la vitesse du modèle Gemini Flash 2.0. « Nous constatons des résultats prometteurs lorsque nous augmentons le temps de calcul de l'inférence. »
Cela étant, il s'agit toujours d'une version préliminaire. Elle est disponible dans Google AI Studio et pour une utilisation directe avec l'API Gemini.
Selon Chatbot Arena, Gemini 2.0 Flash Thinking occupe la première place dans toutes les catégories. Attention néanmoins, l'arrivée de o3 d'OpenAI (la prochaine génération du modèle o1) serait proche...