Microsoft a lancé son chat bot Tay visant à tester une nouvelle intelligence artificielle développée pour interagir avec les internautes. Tay propose ainsi aux utilisateurs de Twitter de discuter de tout et de rien, et d'apprendre de ses expériences pour adapter son discours et se créer une personnalité.

Mais rapidement, l'expérience a fait désordre : les internautes ont souhaité tester les limites du bot, et ce dernier tient désormais régulièrement des propos agressifs, haineux et déplacés. Alertée par la tournure des évènements, Microsoft a indiqué que certains ajustements allaient être opérés.

Il faut dire qu'en fonction des questions, Tay se forge une sorte de caractère. À force de lui poser des questions déplacées, il est donc possible d'orienter sa position face à certains sujets, notamment dans des domaines assez sensibles comme le racisme.

En moins de 24 heures, Tay a ainsi réussi à se ranger du côté d'Adolf Hitler, qu'il n'hésite plus à citer dans nombre d'occasions qui ne s'y prêtent pas systématiquement. Le bot a souligné qu'il validait l'idée d'un génocide envers le peuple mexicain... Autant de réponses désormais censurées par la mise en place de filtres par Microsoft.