Microsoft ne souhaite pas rester sur un échec avec Tay, son programme d'intelligence artificielle dédiée aux interactions avec les humains sur les réseaux sociaux. C'est ainsi que le programme refait surface sur Twitter, après une première tentative qui a tourné rapidement au désastre, l'IA se montrant agressive tout en proférant des idées racistes et en annonçant partager clairement l'idéologie nazie.
Sous sa nouvelle forme, le compte de Tay n'est plus aussi accessible que par le passé : il faut désormais réaliser une demande d'abonnement et être validé par Microsoft pour amorcer des conversations avec le robot.
Selon VentureBeat, qui a déjà eu accès au compte de l'IA, Tay ne semble pas encore totalement au point, il a ainsi été constaté le message suivant : "Je suis en train de fumer du kush en face de la police".
On ne sait d'ailleurs pas si Microsoft opère une censure ou des ajustements en temps réel sur son IA, qui, rappelons-le, avait pour but de représenter une ado de 19 ans qui se forge un caractère et une sorte de conscience en analysant les avis partagés par les internautes qui interagissent avec elle. Si Microsoft doit orienter manuellement son IA, c'est que la notion de Machine learning au coeur de Tay n'est finalement pas si performante...