Microsoft a lancé une intelligence artificielle sur les réseaux sociaux. En 19 heures, le robot est devenu raciste et xénophobe.

Au contact des humains, l’intelligence artificielle de Microsoft est devenue raciste. Une expérience qui illustre comment l’on façonne les esprits en martelant des propos.

Voilà une expérience enrichissante. Microsoft a développé un programme d’intelligence artificielle mercredi dernier. Son nom ? Tay. Ce robot était censé s’exprimer comme une jeune fille de 19 ans sur les réseaux sociaux. Le compte Twitter de cette utilisatrice virtuelle de Twitter n’aura duré que seize heures. Microsoft a décidé de l’envoyer se reposer après qu’elle a publié de nombreux messages racistes ou sexistes. A qui la faute ?

« Hitler avait raison »

En réalité, Tay était programmée pour se nourrir des propos des autres internautes. Comme le logiciel Siri, elle devait entamer des discussions avec ceux qui l’apostrophaient. « Plus vous discutez avec Tay, plus elle devient intelligente», assurait Microsoft. A force de lui marteler des messages racistes et sexistes, les utilisateurs de Twitter ont finalement réussi à faire dire à Tay n’importe quoi : « Le féminisme est un cancer », « Hitler avait raison », « Bush est responsable du 11 Septembre », « Hitler aurait fait un meilleur travail que les singes qui sont au pouvoir aujourd’hui» ou encore «Donald Trump est notre seul espoir. »

Cette « expérience sociale, culturelle et technique » lancée par Microsoft a été parasitée par « des efforts coordonnés pour abuser des talents de Tay afin de lui faire répondre des choses inappropriées », estime le groupe américain. Tay a finalement vécu ce que vivent chaque jour des millions d’internautes sur les réseaux sociaux, inondés de propos racistes et discriminatoires.

Yassine Bannani

Laisser un commentaire