En utilisant ce site, vous acceptez la Politique de confidentialité et les Conditions d'utilisation.
Accept
LeMuslimPostLeMuslimPost
Notification Afficher plus
Actualités
Reportage biaisé sur l’islam : M6, la chaîne multirécidiviste
A la une Actualité Société
L'Etat veut neutraliser la religion au travail.
Fait religieux en entreprise : à la fin, ce sont les managers qui créent les normes
A la une Actualité Société
À Lyon, face à la justice, Génération identitaire n’assume plus
A la une Actualité Société
La communauté ouïghoure de Chine oppressée.
Ouïghours : des pays musulmans à la rescousse de… la Chine !
A la une Actualité International
Enseignement du fait religieux dans l’école laïque : quel bilan ?
A la une Actualité Société
Aa
  • Accueil
  • A la une
    A la uneAfficher plus
    Reportage biaisé sur l’islam : M6, la chaîne multirécidiviste
    26 janvier 2023
    L'Etat veut neutraliser la religion au travail.
    Fait religieux en entreprise : à la fin, ce sont les managers qui créent les normes
    20 janvier 2023
    À Lyon, face à la justice, Génération identitaire n’assume plus
    18 janvier 2023
    La communauté ouïghoure de Chine oppressée.
    Ouïghours : des pays musulmans à la rescousse de… la Chine !
    17 janvier 2023
    Enseignement du fait religieux dans l’école laïque : quel bilan ?
    16 janvier 2023
  • Actualité
    ActualitéAfficher plus
    Reportage biaisé sur l’islam : M6, la chaîne multirécidiviste
    26 janvier 2023
    L'Etat veut neutraliser la religion au travail.
    Fait religieux en entreprise : à la fin, ce sont les managers qui créent les normes
    20 janvier 2023
    À Lyon, face à la justice, Génération identitaire n’assume plus
    18 janvier 2023
    La communauté ouïghoure de Chine oppressée.
    Ouïghours : des pays musulmans à la rescousse de… la Chine !
    17 janvier 2023
    Enseignement du fait religieux dans l’école laïque : quel bilan ?
    16 janvier 2023
  • International
    InternationalAfficher plus
    La communauté ouïghoure de Chine oppressée.
    Ouïghours : des pays musulmans à la rescousse de… la Chine !
    17 janvier 2023
    Basquiat, l’artiste qui dénonçait les violences faites envers les communautés afro-américaines
    11 janvier 2023
    Comment la Palestine s’est invitée à la Coupe du monde au Qatar
    20 décembre 2022
    L’armée israélienne avoue le meurtre d’une jeune Palestinienne
    13 décembre 2022
    L’« islam de France » au cœur de la bataille Algérie-Maroc ?
    30 novembre 2022
  • Politique
    PolitiqueAfficher plus
    Giroud ne veut plus être récupéré par les racistes
    15 décembre 2022
    Eric Ciotti en voyage en Israël
    Avec Ciotti, la droite se droitise encore
    5 décembre 2022
    Abattage rituel : le RN prouve qu’il se fout du bien-être animal
    23 novembre 2022
    À Strasbourg, pourquoi la justice a interdit le financement municipal de la mosquée
    16 novembre 2022
    Oui, des élus RN sont racistes (et ce n’est pas une nouveauté)
    4 novembre 2022
  • Société
    SociétéAfficher plus
    Reportage biaisé sur l’islam : M6, la chaîne multirécidiviste
    26 janvier 2023
    L'Etat veut neutraliser la religion au travail.
    Fait religieux en entreprise : à la fin, ce sont les managers qui créent les normes
    20 janvier 2023
    À Lyon, face à la justice, Génération identitaire n’assume plus
    18 janvier 2023
    Enseignement du fait religieux dans l’école laïque : quel bilan ?
    16 janvier 2023
    Callac, Cabannes… L’extrême droite gouverne-t-elle la France ?
    12 janvier 2023
En train de lire: Les outils d’analyse faciale peuvent-ils faire augmenter le racisme ?
Partager
Aa
LeMuslimPostLeMuslimPost
  • Accueil
  • A la une
  • Actualité
  • International
  • Politique
  • Société
Search
  • Accueil
  • A la une
  • Actualité
  • International
  • Politique
  • Société
Vous avez un compte existant ? S\'identifier
Suivez-nous
LeMuslimPost > Blog > A la une > Les outils d’analyse faciale peuvent-ils faire augmenter le racisme ?
A la uneActualitéSociété

Les outils d’analyse faciale peuvent-ils faire augmenter le racisme ?

Rédaction LMP
Dernière mise à jour: 2022/10/21 at 10:58
Rédaction LMP Publié 21 octobre 2022
Partager
Partager

Les technologies de reconnaissance faciale sont devenues largement répandues grâce à des dispositifs de plus en plus sophistiqués et à des modes populaires. Mais quels sont les risques ?

Contents
Balayages faciaux quotidiensRisques potentielsProfilage numérique pseudoscientifiqueBâtir de meilleures habitudes

Le 14 décembre, les gouvernements de la Colombie-Britannique, de l’Alberta et du Québec ont ordonné à l’entreprise de reconnaissance faciale Clearview AI d’arrêter de recueillir les images de personnes obtenues sans leur consentement, et de les supprimer. Les discussions concernant les risques des systèmes de reconnaissance faciale qui utilisent des technologies d’analyse automatisée du visage portent généralement sur les entreprises, les gouvernements nationaux et l’application de la loi. Mais le plus inquiétant est la façon dont la reconnaissance et l’analyse faciales ont été intégrées à notre quotidien.

Au Royaume-Uni, la police fait face à une enquête minutieuse pour son utilisation de la reconnaissance faciale en temps réel dans les espaces publics. En Chine, le gouvernement suit les membres de la minorité ouïgoure au moyen de technologies de balayage de visage.

Mais pour saisir l’ampleur et l’impact de ces systèmes, il faut aussi se pencher sur les pratiques courantes des utilisateurs du grand public qui appliquent de façon routinière le balayage et l’analyse faciaux, contribuant ainsi à l’érosion de la vie privée et à la hausse de la discrimination raciale et du racisme. Enquête de PBS sur les problèmes de vie privée et de préjugés liés à la reconnaissance faciale.

En tant que chercheur sur les pratiques visuelles des médias mobiles et leur rapport historique avec les inégalités sociales, j’explore régulièrement en quoi les actions des utilisateurs peuvent établir ou changer les normes concernant des sujets comme la vie privée et l’identité. Dans ce contexte, l’adoption et l’utilisation de systèmes et de produits d’analyse faciale dans notre quotidien pourraient atteindre un point charnière dangereux.

Balayages faciaux quotidiens

Les algorithmes libres qui détectent les caractéristiques faciales rendent l’analyse ou la reconnaissance faciales facile à ajouter pour les développeurs d’applications. Nous utilisons déjà la reconnaissance faciale pour déverrouiller nos téléphones ou pour payer des biens. Les caméras vidéo intégrées aux téléphones intelligents utilisent la reconnaissance faciale pour identifier les visiteurs ainsi que personnaliser les affichages à l’écran et les rappels audio. La fonction de mise au point automatique des caméras de cellulaires inclut la détection et le suivi du visage, tandis que le stockage infonuagique des photos génère des albums et des diaporamas thématiques en trouvant et en regroupant les visages qu’il reconnaît dans les clichés que nous prenons.

L’analyse faciale est utilisée par de nombreuses applications, y compris les filtres et accessoires des médias sociaux qui produisent des effets comme le vieillissement artificiel ou l’animation des traits du visage. Les applications d’autoamélioration et de prévisions pour la beauté, l’horoscope ou la détection de l’ethnicité génèrent également des conseils et des conclusions en fonction de balayages faciaux.

Mais l’utilisation des systèmes d’analyse faciale pour l’horoscope, les égoportraits ou l’identification de personnes peut avoir des répercussions sociétales à long terme : elle peut en effet faciliter une surveillance et un suivi à grande échelle tout en maintenant les inégalités sociales systémiques.

Risques potentiels

Lorsqu’elles sont répétées dans le temps, ces utilisations, caractérisées par un faible risque et une gratification instantanée, peuvent nous habituer de façon plus générale au balayage facial, ouvrant la porte à des systèmes plus vastes appliqués dans différents contextes. Or, nous n’avons aucun contrôle – et très peu d’information – sur les personnes qui dirigent ces systèmes et sur la façon dont les données sont utilisées.

Si nous soumettons déjà notre visage à un examen automatisé, non seulement avec notre consentement, mais en plus avec notre participation active, il ne nous semblera pas particulièrement intrusif d’être assujettis à des balayages et analyses semblables lorsque nous nous déplaçons dans des espaces publics ou que nous accédons à des services.

En outre, notre utilisation personnelle des technologies d’analyse faciale contribue directement au développement et à la mise en œuvre de systèmes élargis destinés à suivre la population, à créer des classements de clients ou à établir des bassins de suspects lors d’enquêtes. Les entreprises peuvent recueillir et partager les données qui lient nos photos à notre identité, ou constituer de plus grands ensembles de données afin d’apprendre aux systèmes d’IA à reconnaître les visages ou les émotions.

Même si nous utilisons une plate-forme qui restreint ce genre d’usages, les produits partenaires peuvent ne pas avoir à respecter les mêmes restrictions. Le développement de nouvelles bases de données de personnes peut être lucratif, en particulier si ces bases de données comprennent un grand nombre d’images faciales de chaque utilisateur, ou si elles peuvent associer des images à des renseignements personnels, comme des noms de compte d’utilisateur.

Profilage numérique pseudoscientifique

Ce qui est peut-être encore plus troublant est que notre acceptation croissante des technologies d’analyse faciale contribue à la façon dont celles-ci déterminent non seulement l’identité d’une personne, mais aussi son milieu, sa personnalité et sa valeur sociale.

Cartographie numérique d’un visage souriant
Les technologies d’analyse faciale qui prédisent des caractéristiques comme l’ethnicité et la beauté reposent sur des principes pseudoscientifiques. (Shutterstock)

Nombre d’applications de prédiction et de diagnostic effectuent un balayage du visage pour déterminer l’ethnicité, la beauté, le bien-être, les émotions et même le potentiel salarial en se basant sur les pseudosciences historiques et troublantes de la phrénologie, de la physionomie et de l’eugénisme.

Ces systèmes interreliés se fondaient sur différents degrés d’analyse faciale pour justifier les hiérarchies raciales, l’esclavage, la stérilisation forcée et l’incarcération préventive.

Notre utilisation des technologies d’analyse faciale peut perpétuer ces croyances et préjugés en donnant l’impression qu’elles ont une place légitime dans la société. Cette complicité peut par la suite justifier la mise en place de systèmes semblables d’analyse faciale automatisée pour trier les candidats à un poste ou déterminer la criminalité, par exemple.

Bâtir de meilleures habitudes

La régulation entourant la collecte, l’interprétation et la distribution de données biométriques par les systèmes de reconnaissance faciale n’est pas aussi rapide que notre utilisation quotidienne du balayage et de l’analyse faciaux. Les politiques se sont un peu améliorées en Europe et dans certaines parties des États-Unis, mais une réglementation plus rigoureuse est nécessaire.

Par ailleurs, nous devons confronter nos propres habitudes et suppositions. En quoi nous mettons-nous et les autres, en particulier les populations marginalisées, à risque en banalisant une telle analyse par les machines ?

La mise en place de quelques ajustements simples pourrait nous aider à mieux aborder l’effrayante intégration des systèmes d’analyse faciale à notre quotidien. Il serait bon de commencer par changer les réglages d’applis et d’appareils afin de minimiser les balayages et partages. Avant de télécharger une appli, faites des recherches à son sujet et lisez-en les conditions d’utilisation.

Résistez à la brève excitation d’essayer la toute dernière mode d’effet facial dans les médias sociaux – avons-nous vraiment besoin de savoir à quoi on ressemble comme personnage Pixar ? Repensez-y avant d’utiliser des appareils intelligents équipés de technologies de reconnaissance faciale. Ayez conscience des droits des personnes dont l’image pourrait être prise par un appareil domestique intelligent ; vous devriez toujours obtenir le consentement explicite des personnes qui passent devant l’objectif.

S’ils se multiplient parmi les utilisateurs, les produits et les plates-formes, ces petits changements peuvent protéger nos données et nous donner du temps pour mieux réfléchir aux risques, aux avantages et au déploiement justifié des technologies de reconnaissance faciale.

Stephen Monteiro est professeur assistant de communication à la Concordia University.

Vous pourriez aussi aimer

Reportage biaisé sur l’islam : M6, la chaîne multirécidiviste

Fait religieux en entreprise : à la fin, ce sont les managers qui créent les normes

À Lyon, face à la justice, Génération identitaire n’assume plus

Ouïghours : des pays musulmans à la rescousse de… la Chine !

Rédaction LMP 21 octobre 2022
Partagez cet article
Facebook Twitter Email Print
LeMuslimPostLeMuslimPost
Suivez-nous

©2022 - LeMuslimPost. All Rights Reserved.

  • TENDANCE
  • ISLAMOPHOBIE
  • PALESTINE
  • HALAL

Supprimé de la liste de lecture

Annuler