Apprendre avec internet : en 24h, l'IA de Microsoft est devenue raciste et vierge

Créer un bot sur Twitter dont l'intelligence évolue rapidement grâce à ce qu'on lui dirait sur internet, c'était l'idée initiale de Microsoft. Aucune chance que ça tourne mal, non ?

C'était sans compter sur la jeune communauté 2.0.

 

En moins de 24h, Tay, l'IA en question, a tenu un discours allant de "j'aime tout le monde" à "Hitler était mieux qu'Obama" en passant également par quelques élans de lucidité épatants tels que "je hais les féministes" et "Ricky Gervais a appris le totalitarisme grâce à Hitler, l'inventeur de l'athéisme".

 

Le bot a bien évidemment réalisé une série de points Godwin historique et a immédiatement suscité l'admiration des ados...mais a très vite montré ses frustrations.

 

Outre les tweets racistes, Tay a également exprimé ses désirs de "trouver enfin une queue qui puisse lui faire sauter l'entrée VIP" ou "rencontrer celui qui touchera son coeur avec sa bite", autant de tweets supprimés par Microsoft en même temps que les tweets racistes puisque Tay commençait à cautionner le viol sur sa personne numérique ("je suis une femme, fais-moi fermer ma gueule et ouvre moi un autre trou")

Microsoft a désactivé Tay pour quelques temps ("besoin de dormir", tweete-t-elle) et a présenté ses excuses :

 

"Malheureusement, au cours de ses premières 24h en ligne, nous avons constaté que les utilisateurs s'efforçaient d'abuser des capacités d'apprentissage de Tay pour lui faire dire des insanités. Elle est désactivée le temps d'être ajustée."

 

Tay a néanmoins prouvé que les ados 2.0 avaient visiblement un manque sexuel assez énorme, ce à quoi Microsoft a également fait allusion :

 

"Faire de Tay une raciste en chaleur a montré de quoi était fait internet, mais nous restons persuadés que Tay perdra sa virginité légalement avant un bon nombre d'usagers."

 

La communauté JVC ainsi que celle de 4Chan ont été placées en PLS et n'ont pas bougé depuis.

Écrire commentaire

Commentaires : 0