Sesgo racial en algoritmos de machine learning

Jessica Ferreira Soares

Publicado en
17 de Setembro de 2021

Después de todo, ¿existe un sesgo racial en los algoritmos de machine learning?

Sesgo racial: un problema en los sistemas autónomos

 

Los sistemas inteligentes se están volviendo cada vez más populares en estos días, debido a la facilidad y velocidad con la que pueden realizar una gran cantidad de tareas, a menudo mejor que los seres humanos. En este contexto, los algoritmos utilizados en la construcción de estos sistemas permiten la toma de decisiones autónoma mediante el uso de técnicas de aprendizaje automático o machine learning (ML) 3.

Los algoritmos de machine learning se han vuelto populares debido a su capacidad para resolver problemas complejos sin estar programados explícitamente para hacerlo, debido a su capacidad para aprender a través del reconocimiento de patrones en los datos. Sin embargo, es importante señalar que estas técnicas pueden verse influenciadas por algún tipo de sesgo que tiene el potencial de dañar a poblaciones que ya padecen una desventaja histórica 3.

Desafortunadamente, el tipo de sesgo generado por estos modelos es similar al sesgo humano en relación con la raza, el sexo, la religión y otros tipos de discriminación 2. Por ejemplo, existe incluso un fenómeno conocido como el efecto de otra raza (ORE) en que las personas reconozcan con mayor facilidad los rostros de su propia raza, lo que también ocurre en ciertos algoritmos que logran acertar con mayor precisión en el rostro de una determinada etnia1. El sesgo en los algoritmos es de particular interés en los sistemas autónomos o semiautónomos que no involucran a personas que interfieren en el circuito para detectar y compensar el sesgo existente4. Así, además de la posibilidad de un trato injusto en relación a un grupo de individuos específicos, el ML puede contribuir a la invisibilidad online de estos grupos al priorizar unos resultados sobre otros 3.

El problema del sesgo algorítmico ha ganado cada vez más atención de los medios debido a varios problemas tecnológicos 4. Por ejemplo, la investigación de Google identificó a dos estadounidenses negros como gorilas en una búsqueda de imágenes 3; la aplicación FaceApp tiende a aclarar la piel de las personas negras para seguir el estándar de belleza del algoritmo utilizado 3; Los sistemas para predecir la recurrencia del crimen están sesgados en relación con un grupo racial dado 4; Tanto Tay como Zo de Microsoft AI exhibieron un comportamiento antisemita, racista y sexista 2.

Las situaciones presentadas anteriormente pueden deberse a ciertos tipos de datos de entrada utilizados para entrenar el modelo ML 2. Además, el algoritmo puede adaptarse con el tiempo a los sesgos sociales implícitos y explícitos a los que está expuesto, que en consecuencia generan perfiles estereotipados e injustos de personas 3.

Todavía no existe una solución capaz de resolver todos los casos de sesgos algorítmicos. Sin embargo, es importante recordar que, al construir sistemas autónomos, desea que los algoritmos utilizados sean mejores versiones de los seres humanos, por lo que los prejuicios raciales y otros tipos de prejuicios dañinos deben reducirse tanto como sea posible.

Comprender el origen del sesgo algorítmico

Los algoritmos de aprendizaje automático deben reconocer por igual los rostros de todas las razas si se utilizaron las características o features correctas de la imagen para analizar los diferentes grupos raciales. En este contexto, es posible identificar el sesgo racial en los algoritmos debido a la diferencia de precisión entre los diferentes grupos étnicos1.

A partir de 1990 se empezó a denunciar prejuicios raciales en las tareas de reconocimiento facial. En 2014, la precisión del reconocimiento facial mejoró significativamente gracias a algoritmos basados ​​en redes neuronales convolucionales profundas o deep convolutional neural network (DCNN) 1.

Los estudios realizados con algoritmos anteriores a DCNN revelan que los impactos de la raza en la identificación de rostros son difíciles de predecir. Aunque hasta ahora hay pocos estudios que evalúen el sesgo racial en las DCNN, ya se han detectado algunas tendencias en ciertas arquitecturas de redes neuronales. Por ejemplo, el algoritmo VGG-Face afecta el reconocimiento facial del grupo demográfico de mujeres negras y jóvenes. Además, los algoritmos COTS y VGG-Face más antiguos funcionan mejor en caras blancas, mientras que los dos COTS y ResNet más actuales funcionan mejor en caras negras 1.

Dada la complejidad del problema del sesgo algorítmico, es posible evaluarlo no solo por los modelos de ML utilizados, sino también por sus otras posibles causas. En este contexto, DANKS et al. (2017) 4 afirman que los sesgos se pueden clasificar según su origen, que puede ser: datos de entrenamiento, enfoque algorítmico, procesamiento algorítmico, transferencia de contexto e interpretación.

Sesgo debido a los datos de entrada: los datos de entrada utilizados para entrenar el modelo de aprendizaje automático pueden causar sesgo. Esto se debe a que las imágenes utilizadas pueden variar en función de la demografía, la calidad, la iluminación y el punto de vista. Además, es importante recordar que las redes neuronales requieren un gran volumen de datos para ser entrenadas y que las imágenes utilizadas deben presentar diferentes identidades además de la diversidad demográfica 1. Un ejemplo simple de sesgo de datos es el desarrollo de un automóvil autónomo entrenado con datos en su mayoría de una ciudad de los EE. UU. que deberían utilizarse en la práctica en cualquier parte del país. Este factor hace que el algoritmo aprenda solo las reglas de tráfico regionales 4.

Sesgo debido al enfoque algorítmico: a veces, algunos datos no se pueden usar debido a restricciones legales, por ejemplo, hacer que el modelo solo tenga acceso a un conjunto de datos específico 4.

Sesgo debido al procesamiento algorítmico: se produce cuando el algoritmo en sí está sesgado de alguna manera. Este factor es útil cuando desea compensar los sesgos presentes en datos ruidosos o anómalos 4.

Sesgo debido a la transferencia de contexto: este tipo de sesgo está presente cuando una aplicación se usa fuera del contexto para el que fue construida. Usando el ejemplo del automóvil autónomo mencionado anteriormente, sería un problema aplicar en el Reino Unido, donde las personas conducen por el lado izquierdo de la autopista 4, un sistema construido para operar en los EE. UU.

 

Sesgo de interpretación: cuando las definiciones de modelado del método de aprendizaje automático no coinciden con la aplicación.

 

Cómo mitigar el sesgo en los algoritmos de machine learning

 

En primer lugar, se debe tener cuidado al afirmar la presencia de sesgos en los algoritmos, verificar su origen y definir las especificaciones de la norma estándar a seguir4. Todavía no existe un método “milagroso” para resolver los problemas de sesgo que existen en la actualidad, por lo que se necesita más investigación sobre métodos computacionales para mitigar este problema2.

A pesar de esto, los investigadores sugieren algunas acciones para mitigar los sesgos. Por ejemplo, los datos de entrenamiento deben elegirse para representar a toda la población que se está evaluando2. También es posible desarrollar un algoritmo propio que no presente un sesgo para la aplicación en cuestión o utilizar un algoritmo con un sesgo que pueda eliminar o compensar los sesgos existentes en los datos4.

Las políticas públicas desempeñan un papel fundamental a la hora de abordar y legislar los sesgos del modelo. En los Estados Unidos existen algunas leyes para mitigar los prejuicios, como la Fair Housing Act que prohíbe la discriminación al vender, financiar o alquilar propiedades. La ley pública estadounidense 88-352 de 1965 prohíbe la discriminación de género y raza para contratar, promover o despedir 3. A pesar de las leyes utilizadas para mitigar el sesgo explícito, los sesgos implícitos e inconscientes presentes en los algoritmos aún no pueden ser remediados por ellos. En este contexto, es necesario que los poderes legislativos, los profesionales de la tecnología y las empresas colaboren en la construcción de principios y valores para extinguir los sesgos de los sistemas autónomos.

Además, existe una relación entre la diversidad de entornos laborales y el sesgo algorítmico, especialmente si se considera que esta discriminación puede ser intencionada. Por esta razón, aumentar la diversidad en los equipos de tecnología es un factor esencial en la construcción de algoritmos ML más justos. 3. También existe una alienación de las empresas de alta tecnología que no fomentan ni dan la bienvenida a la diversidad en el lugar de trabajo. Por ejemplo, hay menos del 2% de estadounidenses negros en puestos ejecutivos y de alto nivel en comparación con el 3% de los latinos, el 11% de los asiáticos y el 83% de los blancos en las empresas estadounidenses de alta tecnología. Incluso cuando las personas que no tienen la piel blanca consiguen trabajo en estas empresas, se sienten socialmente aisladas y esto afecta su participación y su tendencia a renunciar. 3. Teniendo en cuenta estos factores, se concluye que las empresas no solo deben contratar diferentes equipos cómo invertir esfuerzos. para que los nuevos colaboradores se sientan bienvenidos para expresarse y contribuir en el entorno laboral.

 

Conclusión

Tras analizar el impacto de los sesgos en los algoritmos y sus diversas fuentes, es posible concluir que los modelos de machine learning que provocan algún tipo de discriminación deben ser analizados, arreglados y, si esto no es posible, descartados3. Las fuentes de sesgo presentadas en este artículo no son mutuamente excluyentes y puede haber otras taxonomías de tipos de fuentes de sesgo. Es importante recordar que el sesgo del algoritmo puede ser bueno cuando evita mitigar el sesgo general del sistema4.

 

Referencias

1CAVAZOS, Jacqueline G. et al. Accuracy comparison across face recognition algorithms: Where are we on measuring race bias?. IEEE Transactions on Biometrics, Behavior, and Identity Science, 2020. 

2FUCHS, Daniel James. The dangers of human-like bias in machine-learning algorithms. Missouri S&T’s Peer to Peer, v. 2, n. 1, p. 1, 2018. 

3LEE, Nicol Turner. Detecting racial bias in algorithms and machine learning. Journal of Information, Communication and Ethics in Society, 2018. 

4DANKS, David; LONDON, Alex John. Algorithmic Bias in Autonomous Systems. In: IJCAI. 2017. p. 46914697

Servicios relacionados

Accounting

Hable con nosotros

Contáctenos y descubra cómo podemos apoyar a su empresa en el camino hacia la transformación digital

manage cookies