Skip to Content
image description

Cambiar las narrativas: Cómo pueden los datos de calidad inclusivos reducir las desigualdades que viven las mujeres negras  

Escrito por Ester Pinheiro, oficial de Comunicación en español, Equal Measures 2030 en conversación con las CEO de Data for Black Lives. Y Yeshimabeit Milner, y de DataedX, Brandeis Marshal  

La subrepresentación y la mala representación de mujeres negras en datos es una cuestión alarmante. La combinación de la estigmatización en los datos y la falta de representación en ellos borra las perspectivas y experiencias de las mujeres negras y amenaza con perpetuar y exacerbar las desigualdades, los sesgos y los prejuicios existentes. 

Según una publicación sobre las percepciones públicas hacia las mujeres negras elaborada por Northwestern University y el IPR, las niñas negras en EE. UU. sufren una “adultificación”. Son vistas como personas más peligrosas e hipersexualizadas, por tanto, la percepción preponderante sobre ellas es que “merecen penas más severas” que sus pares. De acuerdo con el informe, “estos hallazgos tienen implicancias importantes para comprender el potencial rol del público general a la hora de moldear las experiencias punitivas de las niñas negras y plantea preguntas sobre las consecuencias de su punición para la democracia”. 

Yeshimabeit Milner, CEO de Data for Black Lives (Datos para las Personas Negras), destaca cómo las mujeres negras están desproporcionadamente representadas, en particular en los datos de la justicia penal, debido a su histórica representación errónea. “A lo largo de la historia, vimos miles de representaciones y estereotipos negativos sobre mujeres negras. Esas narrativas y agendas mediáticas se apoyaron en datos imprecisos o falsos y solo han logrado más políticas que han vulnerado aún más a las mujeres negras”. 

Uno de los mitos predominantes que afecta a las mujeres negras es el de los bebés del crack. Milner señala que “en los 80, circulaba la idea de que las mujeres negras que consumían crack estaban dando a luz a bebés que iban a poner en riesgo a la sociedad. Sin embargo, si se observa qué pasó 20 o 30 años después, esos bebés eran las personas adultas que ahora iban a la universidad. Que a ‘una persona le terminara yendo mal en la vida’ no dependía de si su madre había usado crack o no, sino de la pobreza, de la falta de acceso a recursos, como educación o atención médica”.   

Los datos son clave para desmitificar los sesgos raciales  

Cuando hablamos de industria y productos tecnológicos, las mujeres negras y otras minorías están subrepresentadas. Para invertir esta tendencia y aumentar la representación necesitamos políticas eficaces y que estén promovidas por datos de calidad y que midan su impacto e incluyan perspectivas claves de raza y género.  

“Usar datos sobre el estado, el uso y las inequidades que atacan históricamente a las comunidades excluidas, como las personas negras, ofrece un contexto histórico, cultural y político que arroja luz donde las políticas existentes no lo hacen. Los datos pueden ayudarnos a remediar estas negligencias deliberadas de nuestro pasado o a expandir la opresión. Los datos son un marcador de cuán progresistas o retrógrados somos en el desarrollo de políticas tecnológicas”, afirma Brandeis Marshall, fundadora y CEO del grupo DataedX’s.  

Los esfuerzos de colaboración de DataedX revelaron disparidades en los campos de datos en cuanto a género y raza, lo que ha generado evidencia cuantitativa sobre información cualitativa. Conscientes de estas disparidades, el grupo elaboró varias recomendaciones para garantizar que los campos de datos no dejen a las minorías de lado. Dichas recomendaciones se vieron plasmadas en el Programa de Acción para una Declaración de Derechos sobre la IA, emitido por la Casa Blanca en octubre de 2022.    

De igual modo, Data for Black Lives considera que los datos son una herramienta de denuncia y de reclamo de rendición de cuentas. En palabras de Milner, “los datos son acción colectiva para, en parte, contrarrestar algunas narrativas y revertir décadas de políticas, programas y reglas no escritas que las mujeres negras siguen y que son impuestas por quienes ejercen poder y dominan la sociedad”.  

No es solo sobre datos desagregados: algoritmos son racistas  

Si bien es vital contar con datos desagregados diversos y representativos para prevenir la perpetuación de los sesgos, también debemos prestar atención a los algoritmos y su poder en la toma de decisiones. Como destaca la CEO de Data for Black Lives: “Tiene que ver con cuáles son y cómo son estos patrones, con cómo los sistemas de datos están categorizando en la actualidad. Primero, ¿cómo reconocen y son capaces los algoritmos de detectar la raza y el género de una persona? Y una vez que tienen la información, ¿cómo los algoritmos categorizan basándose, una vez más, en patrones históricos de discriminación?”.  

Milner da un ejemplo que compartió en la Casa Blanca y el Congreso estadounidense sobre la inteligencia artificial y los derechos civiles. Ella espera destronar el modelo crediticio de puntaje FICO como indicador predominante de riesgo en términos de préstamos. “Es el algoritmo más potente en nuestro país por que más del 90% de la población recibe un puntaje antes de poder alquilar”.  

“A muchas personas se nos dice, especialmente a las mujeres negras: ‘Tienes un bajo puntaje crediticio porque no pagaste a tiempo o porque tal o cual factor (…)’, pero nunca nos dicen los motivos reales, porque este es un algoritmo patentado que pertenece a una empresa privada”.  

Entre las madres negras en EE.UU., más de 4 de 5 (es decir, 3 millones de 3,7 millones de mujeres, o el 81,1%) son las jefas de hogar y encargadas de la siguiente generación de su familia. “Muchas de nosotras tenemos la tarea de cuidar a toda nuestra familia extendida y debemos tener el derecho de obtener créditos y de no pagar más por los mismos productos: ya sea el seguro del automóvil, los préstamos hipotecarios, la atención médica, porque todo esto marca una diferencia”. 

Por otra parte, según algunos algoritmos como el sistema de puntaje FICO, como ellas son negras y mujeres, automáticamente son consideradas menos valiosas. “Aunque sea ilegal en EE.UU. negarle a alguien la vivienda por su raza o género, no podemos demandar a un algoritmo en la corte, así que esto es lo que vivimos muchas mujeres negras”.  

Para Milner, por este motivo los datos son importantes, para llegar al fondo de algunos de esos poderosos algoritmos y comprender cómo están categorizando y detectando la raza y el género de las personas.  

De cara al futuro, Brandeis Marshal expresa que tiene la esperanza de que en los años venideros sobre la gobernanza de datos y la incidencia. “En el futuro, es probable que las personas pujen por una legislación sobre la gobernanza de datos y de la IA, que el estado y los gobiernos federales ampliarán levemente, codificarán en leyes y desarrollarán protocolos de aplicación. En los últimos años, el foco estuvo en regular a los gigantes tecnológicos, pero creo que la gobernanza progresista de datos y de la IA primero surgirá de las pequeñas empresas”.  

image description
image description
Back to top