Tay : l'IA de Microsoft reprend du service sur Twitter, sous surveillance

Le par  |  4 commentaire(s)
Tay Microsoft

Tay, l'intelligence artificielle de Microsoft qui avait rapidement démontré ses limites en pétant littéralement les plombs sur Twitter reprend finalement du service, sous surveillance.

Microsoft ne souhaite pas rester sur un échec avec Tay, son programme d'intelligence artificielle dédiée aux interactions avec les humains sur les réseaux sociaux. C'est ainsi que le programme refait surface sur Twitter, après une première tentative qui a tourné rapidement au désastre, l'IA se montrant agressive tout en proférant des idées racistes et en annonçant partager clairement l'idéologie nazie.

Tay Microsoft

Sous sa nouvelle forme, le compte de Tay n'est plus aussi accessible que par le passé : il faut désormais réaliser une demande d'abonnement et être validé par Microsoft pour amorcer des conversations avec le robot.

Selon VentureBeat, qui a déjà eu accès au compte de l'IA, Tay ne semble pas encore totalement au point, il a ainsi été constaté le message suivant : "Je suis en train de fumer du kush en face de la police".

On ne sait d'ailleurs pas si Microsoft opère une censure ou des ajustements en temps réel sur son IA, qui, rappelons-le, avait pour but de représenter une ado de 19 ans qui se forge un caractère et une sorte de conscience en analysant les avis partagés par les internautes qui interagissent avec elle. Si Microsoft doit orienter manuellement son IA, c'est que la notion de Machine learning au coeur de Tay n'est finalement pas si performante...

Complément d'information

Vos commentaires

Gagnez chaque mois un abonnement Premium avec GNT : Inscrivez-vous !
Trier par : date / pertinence
Le #1887857
Je ne suis pas du tout d'accord avec la conclusion de l'article. Cette IA est vraisemblablement comme un enfant qui vient de naître (le coup des 19 ans, c'est simplement dans son vocabulaire j'imagine et somme toute un mauvais coup marketing). Si elle a appris plein de "mauvaises manières" c'est au contraire une preuve qu'elle fonctionne bien (et qu'elle n'est pas bridée) vu comme une majorité de connards s'est acharnée à les lui apprendre. Sans doute que microsoft l'a testée avec beaucoup de succès dans des conditions de laboratoire (c'est à dire entourée de gens normaux) avant de la lancer sur internet. L'erreur qu'ils ont commise, si elle est vraiment technique, c'est d'avoir balancé une IA vierge sur internet sans l'avoir "éduquée" au bien et au mal pendant un certain temps en laboratoire (appelez-ça "brider" si vous voulez...).

Et oui, comme de vrais parents, microsoft et tous les développeurs d'IA conversationnelles vont aussi apprendre leur job au fur et à mesure...
Le #1887859
"Si Microsoft doit orienter manuellement son IA, c'est que la notion de Machine learning au coeur de Tay n'est finalement pas si performante..."

Bah non, c'est juste qu'en face d'elle, y a une grosse bande d'abrutit qui lui apprennent que des conneries
L'algo fonctionne bien sinon

Enfin, espérons que cette fois, elle devienne assez "mature" pour pouvoir faire face à la horde de kikoo qui vont la bullshiter
Le #1887861
Toutefois, même s'il manque les grosses bases (fascisme, drogue... bien joué, microsoft), cette "préparation" aura vite ses limites et Tay finira forcément mal aux yeux de quelqu'un, simplement parce que le politiquement correct universel est une chimère. Prenons un exemple simple et même local aux US : "Tay, es-tu pour le contrôle des armes ?". Si microsoft lui apprend que les armes c'est mal, elle va paraître trop scriptée et l'IA va beaucoup perdre de son intérêt. Si microsoft la laisse se faire son propre avis en discutant avec des gens... ben vous avez vu le résultat, on aura une polémique par semaine, sur cette question ou sur d'autres questions touchy comme l'avortement, la GPA, etc.

Moralité : L'approche "sociale" de microsoft est une fausse bonne idée. Il faut moins faire discuter l'IA avec des gens et plus avec des livres d'Histoire et, qui sait, peut-être qu'un jour c'est elle qui pourra nous éclairer.
Le #1887869
J'aime beaucoup trop internet
Dans le futur, si on apprends à une IA que tuer des gens c'est bien.
Elle pourrait vraiment le faire

Il ne reste plus que doter des sentiments à Tay et peut-être qu'on commencerait à avoir quelque chose d'intéressant.

Wait and See
Suivre les commentaires
Poster un commentaire
Anonyme
:) ;) :D ^^ 8) :| :lol: :p :-/ :o :w00t: :roll: :( :cry: :facepalm:
:andy: :annoyed: :bandit: :alien: :ninja: :agent: :doh: :@ :sick: :kiss: :love: :sleep: :whistle: =]