Pour tailler une bavette avec des utilisateurs, les chatbots - ou agents conversationnels - ne sont pas une nouveauté. Mais l'approche récemment présentée par Google est différente dans sa conception. C'est du machine learning (apprentissage automatique) et donc de l'intelligence artificielle qui se cache derrière.

Big-data Des chercheurs de Google ont conçu un système (une preuve de concept) qui peut analyser des conversations existantes et ensuite apprendre par lui-même à répondre. Pas de moteur conversationnel et c'est le système qui apprend des grandes quantités de données à sa disposition, sans le codage manuel de règles.

Ce sont encore une nouvelle fois les réseaux de neurones artificiels qui sont à la manœuvre. Et quand le système digère des dialogues de films, il peut par exemple se lancer dans une ébauche de discussion philosophique.

Repéré par Wired dans un papier de recherche, le dialogue ci-dessous entre l'homme et la machine :

  • Humain : Quel est le but de la vie ?
  • Machine : Servir le bien supérieur.
  • Humain : Quel est le but des êtres vivants ?
  • Machine : Vivre éternellement.
  • Humain : Quel est le but de l'existence ?
  • Machine : Découvrir ce qui se passe quand nous arrivons sur la planète Terre.
  • Humain : Où es-tu maintenant ?
  • Machine : Au milieu de nulle part.
  • Humain : Quel est le but de mourir ?
  • Machine : Avoir une vie.
  • Humain : Quel est le but d'être intelligent ?
  • Machine : Découvrir ce que c'est.
  • Humain : Quel est le but des émotions ?
  • Machine : Je ne sais pas.

L'intelligence a aussi été interrogée sur la moralité et dans d'autres domaines. Pour les chercheurs, les résultats sont encore modestes avec des réponses qui ne sont pas toujours à-propos. Cela étant, ils montrent qu'il est possible de générer des conversations basiques à partir de l'apprentissage automatique.

Rappelons encore une fois que le système fait son apprentissage par lui-même et parvient à se dépatouiller alors qu'on lui donne seulement accès à des grandes quantités de données sans lui spécifier de règles à suivre.

Source : Wired