Profilage racial : après IBM, Microsoft et Amazon réduisent la voilure de leur reconnaissance faciale

Mickaël Bazoge |

Les technologies de reconnaissance faciale à des fins de surveillance des populations n'ont plus trop la cote depuis l'explosion des émeutes contre le racisme et la violence policière aux États-Unis et ailleurs. IBM a cessé de vendre des logiciels de reconnaissance ou d'analyse des visages, et arrête aussi tout développement et recherche sur le sujet (lire : IBM abandonne la reconnaissance faciale pour ne pas alimenter le profilage racial).

Amazon et Microsoft ont décidé d'emboîter le pas d'IBM, sans être aussi radicaux toutefois. Le géant du commerce en ligne a annoncé un « moratoire » d'un an sur l'usage par la police de Rekognition, sa technologie de reconnaissance faciale. Elle reste disponible pour les organisations de lutte contre le trafic d'être humain et l'exploitation des mineurs.

Amazon demande au gouvernement américain de voter une législation plus musclée concernant l'usage éthique des technologies de reconnaissance des visages. L'entreprise espère que ce moratoire donnera le temps nécessaire au Congrès US de décider des bonnes pratiques en la matière. Amazon a été assez discret sur l'utilisation de Rekognition par la police aux États-Unis ; a priori, elle n'était réellement utilisée que par deux services, en Oregon et en Floride.

Microsoft a pris le même chemin qu'Amazon : le géant du logiciel a décidé de ne pas vendre sa technologie de reconnaissance faciale aux services de police aux États-Unis tant qu'une loi n'aura pas été votée sur le sujet (d'ailleurs, aucun service ne s'en sert). Brad Smith, le président du groupe, a laissé entendre au Washington Post que Microsoft se gardait la possibilité de fournir son système aux organismes de lutte contre le trafic humain et autres causes, là aussi à l'instar d'Amazon.

Ces technologies ont été pointées du doigt dans des études qui, en 2018 et 2019, ont établi des biais raciaux contre les personnes avec une peau sombre. Des biais dus au fait que ces systèmes sont entraînés avec des modèles majoritairement blancs et masculins.

Accédez aux commentaires de l'article