Skip to Content
image description

Changer les récits : comment des données inclusives de qualité peuvent réduire les inégalités pour les femmes noires  

Rédigé par Ester Pinheiro, chargée de communication – espagnol, Equal Measures 2030 en conversation avec les PDG de Data for Black Lives, Yeshimabeit Milner et DataedX, Brandeis Marshal  

La sous-représentation et la mauvaise représentation des femmes noires dans les données sont un problème alarmant. La stigmatisation des données, associée à la rareté de leur représentation, efface les perspectives et les expériences des femmes noires et risque de perpétuer et d’exacerber les inégalités, les préjugés et la polarisation existants. 

Selon un document sur la perception des femmes noires par le public, rédigé par la Northwestern University et l’IPR, les jeunes filles noires aux États-Unis souffrent d’un phénomène « d’adultisation ». Elles sont considérées comme plus dangereuses et sexuellement plus conscientes, ce qui influence les perceptions selon lesquelles elles méritent des peines plus sévères que leurs pairs. Comme l’indique l’article, « ces résultats ont des implications importantes pour comprendre le rôle potentiel du grand public dans l’élaboration des expériences punitives des jeunes filles noires et soulèvent des questions sur les conséquences de leur punition pour la démocratie. » 

Yeshimabeit Milner, PDG de Data for Black Lives, souligne que les femmes noires sont représentées de manière disproportionnée, en particulier dans les données relatives à la justice pénale, en raison de représentations historiques erronées : « Nous avons été bombardés de représentations et de stéréotypes historiquement négatifs des femmes noires. Ces récits et programmes médiatiques ont été façonnés par des données erronées ou fausses et ne font que renforcer les politiques qui rendent les femmes noires encore plus vulnérables. » 

L’un des mythes les plus répandus dont souffrent les femmes noires est celui des bébés du crack. Milner souligne que « dans les années 80, on pensait qu’il y avait toutes ces femmes noires qui prenaient du crack et qui donnaient naissance à des bébés qui allaient devenir une menace pour la société. Or, 20 à 30 ans plus tard, ce sont ces bébés qui sont allés à l’université. L’issue d’un ‘mauvais enfant’ ne dépend pas de la consommation de crack par sa mère, mais de la pauvreté et du manque d’accès aux ressources, telles que l’éducation ou les soins de santé. »   

Les données sont essentielles pour démystifier les préjugés raciaux  

Lorsqu’il s’agit de l’industrie technologique et de ses produits, les femmes noires et les autres minorités sont sous-représentées. Pour renverser cette tendance et accroître la représentation, nous avons besoin de politiques efficaces. Nous avons besoin de politiques fondées sur des données de qualité, dont l’impact est mesuré à l’aide de perspectives critiques en matière de race et de genre.  

« L’utilisation de données sur l’état, l’utilisation et les inégalités dont sont victimes les communautés historiquement exclues, comme les Noirs, fournit un contexte historique, culturel et politique qui renseigne sur les lacunes des politiques existantes. Les données peuvent être utilisées soit pour nous aider à remédier à ces oublis intentionnels de notre passé, soit pour étendre l’oppression. Les données nous permettent de savoir si nous progressons ou si nous régressons dans l’élaboration de nos politiques technologiques », déclare Brandeis Marshall, fondatrice et directrice générale du groupe DataedX.  

Les efforts de collaboration de DataedX ont décelé des disparités raciales et de genre dans les domaines de données, fournissant des preuves quantitatives pour des aperçus qualitatifs. Conscient de ces disparités, le groupe a formulé plusieurs recommandations visant à garantir que les domaines de données ne laissent pas les minorités de côté. Ces recommandations ont été reprises dans le projet de déclaration des droits de l’IA publié par la Maison Blanche en octobre 2022.  

De surcroît, Data for Black Lives considère les données comme un outil permettant de dénoncer et de demander de la redevabilité. Comme l’affirme Milner, « les données sont une action collective qui permet d’avoir en partie des contre-récits et d’inverser des décennies de politiques, de programmes et de règles non écrites que les femmes noires suivent de la part de ceux qui dirigent la société et la scène du pouvoir. »  

Il ne s’agit pas seulement de données ventilées : les algorithmes racistes  

Si des données ventilées diverses et représentatives sont essentielles pour éviter la perpétuation des préjugés, nous devons également prêter attention aux algorithmes et à leur pouvoir dans la prise de décision. Comme le souligne la directrice générale de Data for Black Lives, « il s’agit de savoir quels et comment sont ces modèles, comment les systèmes de données d’aujourd’hui catégorisent-ils. » Tout d’abord, comment les algorithmes reconnaissent-ils et sont-ils capables de détecter la race et le sexe d’une personne ? Et une fois qu’ils disposent de ces informations, comment les algorithmes classent-ils les personnes en fonction, une fois de plus, des schémas historiques de discrimination ?  

Mme Milner donne un exemple qu’elle a partagée à la Maison Blanche et au Congrès américain concernant l’intelligence artificielle et les droits civils. Elle espère détrôner la note de crédit du modèle FICO en tant qu’indicateur prédominant du risque en termes de prêt. « C’est l’algorithme le plus puissant dans notre pays car plus de 90% de la population est notée par celui-ci avant de louer. »  

« À beaucoup d’entre nous, en particulier aux femmes noires, on nous dit que “ la raison pour laquelle notre cote de crédit est basse est parce que nous n’avons pas effectué nos paiements, ou à cause de ceci ou de tous ces facteurs (…) ”, mais nous ne pouvons jamais savoir quels sont les vrais facteurs, parce qu’il s’agit d’un algorithme propriétaire appartenant à une société privée. »  

Parmi les mères noires aux États-Unis, plus de 4 sur 5 (3 millions sur 3,7 millions de femmes, soit 81,1 %) sont des soutiens de famille et sont chargées d’assurer la prochaine génération de leur famille. « Beaucoup d’entre nous ont pour mission de prendre soin de toute notre famille élargie, et nous devrions avoir le droit de bénéficier d’un crédit et de ne pas avoir à payer plus pour les mêmes produits, qu’il s’agisse d’une assurance automobile, d’un prêt immobilier ou de soins médicaux – cela fait vraiment la différence. » 

D’autre part, selon certains algorithmes comme le système de notation FICO, du fait d’être noires et d’être femmes, elles sont automatiquement considérées comme moins méritantes. « Bien qu’’il soit illégal aux États-Unis de refuser un logement à quelqu’un en raison de sa race ou de son sexe, il n’est pas possible de poursuivre un algorithme en justice. »  

Pour Mme Milner, c’est la raison pour laquelle il est important de disposer de données ventilées, afin de pénétrer sous le capot de certains de ces algorithmes très puissants et de comprendre comment ils catégorisent et détectent la race et le sexe d’une personne.  

En ce qui concerne l’avenir, Brandeis Marshal dévoile l’espoir qu’elle nourrit pour les prochaines années en matière de gouvernance des données et de défense des droits. « À l’avenir, une législation sur la gouvernance des données et de l’IA sera créée, probablement sous la pression du peuple. Les gouvernements fédéraux et l’État étendront légèrement celle-ci, la codifieront dans la loi et développeront des protocoles d’application. L’accent a été mis sur la réglementation des Big Tech ces dernières années, mais je pense que la gouvernance progressive des données et de l’IA que nous verrons émanera d’abord des petites entreprises. »  

image description
image description
Back to top