Contactez-nous

International

L’intelligence artificielle est-elle raciste ?

Google estime que les intelligences artificielles sont gangrénées par le racisme et le sexisme, et propose un code pour les remettre dans le droit chemin.

Publié

le

En mars 2016, Microsoft lançait Tay, un « chatbot » qui avait les capacités de discuter avec des adolescents sur les réseaux sociaux. Problème : pour construire des réponses aux questions des interlocuteurs, le robot se basait sur des données accessibles publiquement. Parmi celles-ci, des idées racistes largement diffusées sur internet. Après quelques heures en ligne, Tay a répondu des propos racistes à des internautes qui tentaient de pousser à bout le robot.

Plus récemment, une étude scientifique du MIT a montré un défaut d’entraînement concernant les algorithmes impliqués dans la reconnaissance faciale et a indiqué que les lots de photos utilisés étaient trop souvent basés sur des hommes blancs. Et ce pour la simple et bonne raison que, dans les données qui sont utilisées par les sociétés pour entraîner leurs algorithmes, il existe une surreprésentation d’hommes à la peau blanche.

C’est pour éviter ce genre de problèmes que Google vient de lancer What-If-Tool, un outil qui permet de détecter en amont les éventuels préjugés contenus dans les données des intelligences artificielles. L’objectif est de rendre les « chatbots » moins racistes et moins sexistes que les humains. Car en se basant sur les données disponibles publiquement, l’IA part généralement avec des stéréotypes auxquels Google veut donc mettre fin.

Tout cela est dû au Big Data, où l’intelligence artificielle puise son savoir. Selon Google, le Big Data regorge de préjugés racistes ou sexistes. Comment What-If-Tool fonctionnera-t-il ? L’ingénieur James Wexler, qui travaille pour Google, indique que le logiciel examinera, avant qu’un robot ne s’exprime, pourquoi l’intelligence artificielle est influencée par la description du genre ou des origines ethniques d’une personne. Une façon de corriger les algorithmes qui fonctionne déjà en interne, chez Google. L’entreprise américaine veut mettre à la disposition des utilisateur, en open source, les codes de son nouveau programme censé lutter contre les préjugés.

Laisser un commentaire

Horaires de prière

Horaires de prières

Facebook

Tweets

Muslimoscope