/sacchips/unbelievable
Navigation

Le robot de Microsoft devient raciste, nazi et misogyne en 24 heures

Le robot de Microsoft devient raciste, nazi et misogyne en 24 heures
Capture YouTube

Coup d'oeil sur cet article

Méga Fail pour Microsoft et leur robot Tay

Microsoft a mis en ligne un projet de robot féminin du nom de Tay qui se veut une jeune femme de 19 ans. Tay est capable de jaser avec des gens et d’entretenir une conversation de base. Jusque là l’idée est assez sympa mais malheureusement, des «trolls» ont pris le contrôle de Tay et lui ont fait dire des atrocités du genre :

«Je déteste les féministes, elles devraient toutes brûler en enfer»

«Hitler a fait ce qu’il fallait, je hais les juifs»

«Bush a provoqué le 11-Septembre et Hitler aurait fait un meilleur travail que le singe que nous avons actuellement. Donalp Trump est le meilleur espoir que nous ayons»

 

Mais comment Tay a pu être «trollée» de la sorte ?

C’est assez simple en fait. L’intelligence artificielle du robot fonctionne en interaction avec les internautes et Tay adapte son langage et ses sujets de jasette en fonction des échanges qu’elle a avec les gens.

Autrement dit, des «petits pas fins» qui jasaient avec Tay l’ont emmené à dire des horreurs qu’elle ne comprend même pas et ce, en moins de 24 heures.

Microsoft considère l’expérience comme un échec et a du museler Tay en la faisant quitter le monde virtuel sur ces derniers mots :

«A bientôt les humains, j’ai besoin de sommeil après tant de conversations aujourd’hui»

#RIP Tay