Tay : l'Intelligence artificielle de Microsoft pète les plombs sur Twitter

Le par  |  20 commentaire(s)
intelligence artificielle

Récemment mis en place sur Twitter, le bot Tay de Microsoft a rapidement montré ses limites et pété les plombs en devenant de plus agressif avec les utilisateurs.

Microsoft a lancé son chat bot Tay visant à tester une nouvelle intelligence artificielle développée pour interagir avec les internautes. Tay propose ainsi aux utilisateurs de Twitter de discuter de tout et de rien, et d'apprendre de ses expériences pour adapter son discours et se créer une personnalité.

Mais rapidement, l'expérience a fait désordre : les internautes ont souhaité tester les limites du bot, et ce dernier tient désormais régulièrement des propos agressifs, haineux et déplacés. Alertée par la tournure des évènements, Microsoft a indiqué que certains ajustements allaient être opérés.

Il faut dire qu'en fonction des questions, Tay se forge une sorte de caractère. À force de lui poser des questions déplacées, il est donc possible d'orienter sa position face à certains sujets, notamment dans des domaines assez sensibles comme le racisme.

En moins de 24 heures, Tay a ainsi réussi à se ranger du côté d'Adolf Hitler, qu'il n'hésite plus à citer dans nombre d'occasions qui ne s'y prêtent pas systématiquement. Le bot a souligné qu'il validait l'idée d'un génocide envers le peuple mexicain... Autant de réponses désormais censurées par la mise en place de filtres par Microsoft.

Complément d'information

Vos commentaires Page 1 / 2

Gagnez chaque mois un abonnement Premium avec GNT : Inscrivez-vous !
Trier par : date / pertinence
Le #1887151
Le point Godwin atteint par l'intelligence artificielle ?

On aura tout vu
Le #1887154
Echec...

Bon, bah, censure...
Le #1887159
2 réflexions rapides :
1) est-ce que les dev auraient oublié d'enseigner à Tay que les humains peuvent mentir?
2) est-ce que les idéologies anti-bisounours ne sont pas finalement les plus logiques? (puisque l'IA fonce direct dessus)
Le #1887161
comment on fait pour tchater avec ce tay?
Le #1887164
a écrit :

comment on fait pour tchater avec ce tay?


https://twitter.com/TayandYou
(mais bon, là il est coupé)
Le #1887166
Un cerveau chez microsoft ??? Mais où ça ?
Anonyme
Le #1887167
"le bot Tay de Microsoft a rapidement montré ses limites"

Il a montré ses limites, ou les limites de l'Homme ? La question mérite d'être posée. S'il est devenu ce qu'il est devenu en 24h, c'est en très grande partie par la faute des utilisateurs.

On voit là la connerie humaine.
Le #1887168
Mike-63 a écrit :

"le bot Tay de Microsoft a rapidement montré ses limites"

Il a montré ses limites, ou les limites de l'Homme ? La question mérite d'être posée. S'il est devenu ce qu'il est devenu en 24h, c'est en très grande partie par la faute des utilisateurs.

On voit là la connerie humaine.


Euh... on va éviter de tout inverser, si c'est la "faute" de quelqu'un c'est bien celle des dev (et donc oui des limites du bot)!! Sinon on nage en plein dans le "c'est pas ma faute msieur l'agent, j'ai eu une enfance difficile c'est la faute de mon environnement si je suis un tueur/voleur/etc"

Enfin bon, c'était une expérience hein, je pense que d'une part les dev savaient bien que ça risquait de tourner au n'importe quoi, et que d'autre part n'oublions pas que les utilisateurs ont fait exprès de troller le bot un maximum... Le sens de l'humour est dans le premier rayon à droite, je te suggère le package grand format il est en promo pour les autistes
Le #1887169
J'adore, ils créent une intelligence artificiel mais ils sont obligés de la censurer ...

Notez qu'elle n'a pas dit un mot sur linux, Ils commencent vraiment à aimer Linux du côté de M$
Le #1887170
Mike-63 a écrit :

"le bot Tay de Microsoft a rapidement montré ses limites"

Il a montré ses limites, ou les limites de l'Homme ? La question mérite d'être posée. S'il est devenu ce qu'il est devenu en 24h, c'est en très grande partie par la faute des utilisateurs.

On voit là la connerie humaine.


C'est exactement pour cela que l'homme sera considéré comme une menace par les futurs robots
Suivre les commentaires
Poster un commentaire
Anonyme
:) ;) :D ^^ 8) :| :lol: :p :-/ :o :w00t: :roll: :( :cry: :facepalm:
:andy: :annoyed: :bandit: :alien: :ninja: :agent: :doh: :@ :sick: :kiss: :love: :sleep: :whistle: =]