September 24, 2021

Facebook AI met le label « primates » sur une vidéo d’hommes noirs, dans ce que l’entreprise qualifie d’erreur « inacceptable »

James Martin/CNET

Les utilisateurs de Facebook qui ont récemment regardé une vidéo mettant en vedette des hommes noirs ont reçu une invite automatisée leur demandant s’ils souhaitaient “continuer à voir des vidéos sur les primates”, une erreur que le réseau social a qualifiée d'”inacceptable” dans les déclarations aux organes de presse.

La vidéo, publiée en juin dernier par le tabloïd britannique The Daily Mail, montrait des hommes noirs en conflit avec des policiers et des civils blancs, a rapporté le New York Times vendredi soir. Facebook s’est excusé pour l’invite et a déclaré qu’il avait désactivé la fonction alimentée par l’IA et enquêtait pour s’assurer que le problème ne se reproduisait pas.

“Comme nous l’avons dit, bien que nous ayons apporté des améliorations à notre IA, nous savons qu’elle n’est pas parfaite et nous avons encore des progrès à faire. Nous nous excusons auprès de tous ceux qui ont pu voir ces recommandations offensantes”, a déclaré Facebook dans un communiqué envoyé aux médias. organisations.

La nouvelle survient alors que Facebook et d’autres sociétés de médias sociaux continuent de lutter pour répondre aux préoccupations selon lesquelles ils ne s’attaquent pas de manière adéquate au racisme sur leurs sites. Plus tôt cette année, Facebook, Twitter et d’autres ont été critiqués pour ne pas avoir mis fin à la haine anti-asiatique sur leurs plateformes au milieu de la pandémie de coronavirus. Des sites ont également été censurés en juillet pour ne pas avoir mis fin aux abus racistes après la défaite de l’Angleterre en finale de la Coupe d’Europe.

L’invite Facebook bâclée est également un autre exemple de problèmes liés à l’IA et à la race. Les systèmes de reconnaissance faciale, y compris ceux utilisés par les forces de l’ordre, sont connus pour avoir du mal à identifier avec précision les personnes de couleur, ce qui les expose au risque d’être accusées à tort de crimes.

En rapport: Pourquoi la technologie a aggravé l’injustice raciale et comment y remédier

Plus généralement, l’erreur souligne la préoccupation quant à savoir si le biais est codé dans les technologies qui jouent un rôle clé dans nos vies, telles que les algorithmes utilisés pour filtrer les demandeurs de prêts immobiliers.

En juillet de l’année dernière, Facebook avait annoncé la création d’équipes chargées d’examiner les préjugés raciaux potentiels dans les algorithmes et les produits utilisés par le réseau social et par Instagram, propriété de Facebook.

D’autres géants de la technologie ont lutté contre les gaffes de leurs systèmes automatisés. En 2015, Google s’est excusé lorsqu’un algorithme de son application Photo a étiqueté par erreur les Noirs de « gorilles ».


Lecture en cours:
Regarde ça:

De Jim Crow à ‘Jim Code’ : comment la technologie a exacerbé le racisme…


16:42

{

|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|