OpenAI a officiellement dévoilé GPT-4. Un grand modèle de langage promis plus fiable, plus créatif et ayant la capacité de traiter des instructions beaucoup plus nuancées par rapport à GPT-3.5 qui a fait fonctionner ChatGPT à ses débuts.
L'IA est en outre multimodale et peut analyser des images en entrée, en plus du texte. Des données dès lors plus complexes, mais sans la possibilité de générer des images en sortie. La surprise est d'apprendre que le nouveau Bing fonctionnait déjà sur GPT-4, avec une version personnalisée pour la recherche.
Microsoft avait entretenu le flou à ce sujet, préférant mettre en avant un modèle propriétaire Prometheus afin d'intégrer le modèle d'IA d'OpenAI. " Si vous avez utilisé le nouveau Bing en preview au cours des cinq dernières semaines, vous avez déjà eu un aperçu de la puissance du dernier modèle d'OpenAI. "
We’re happy to confirm the new Bing is running on GPT-4, which we’ve customized for search.https://t.co/RVj26gJVQG
— Yusuf Mehdi (@yusuf_i_mehdi) March 14, 2023
Try it out by joining the new Bing preview at https://t.co/tRrsjYDpfr. pic.twitter.com/zUCUbHa05U
Responsable Consumer Marketing chez Microsoft, Yusuf Mehdi écrit qu'au fur et à mesure que OpenAI met à jour GPT-4 et les versions ultérieures, Bing bénéficie des améliorations inhérentes. Pour autant… Bing Chat n'accepte pas les images.
Un couple GPT-4 et Prometheus
L'association de GPT-4 et de Prometheus de Microsoft suppose des mesures différentes pour l'encadrement du modèle, en plus de l'accès à des informations du Web. C'est probablement ce qui explique pourquoi les améliorations vantées pour GPT-4 non pas nécessairement été visibles avec le nouveau Bing, en comparaison avec ChatGPT et GPT-3.5.
Qui plus est, l'agent conversationnel de Bing a pu avoir quelques comportements étranges, même si la situation a connu une amélioration à ce niveau. Cela se mesure aussi au fait que dans une conversation, ce sont désormais jusqu'à 15 échanges autorisés et 150 conversations par jour pour un utilisateur.
Microsoft avait admis que plus les sessions sont longues pour les conversations, plus le modèle sous-jacent est susceptible de devenir confus.