Este artigo é sobre Covid-19

Viés racial em algoritmos de machine learning

Jessica Ferreira Soares

Cientista de Dados da Qintess

Publicado em
20 de Agosto de 2021

Entenda se é possível haver um viés racial no algorítmo do machine learning. Entenda o que podem ser esses vieses e mais. Confira já

Viés racial em algoritmos de machine learning 

 

Viés racial: Um problema em sistemas autônomos 

Sistemas inteligentes vem se tornando cada vez mais populares nos dias atuais, devido a facilidade e rapidez com a qual eles conseguem realizar um grande número de tarefas, apresentando muitas vezes, uma performance melhor que a de seres humanos. Nesse contexto, os algoritmos utilizados na construção desses sistemas possibilitam tomada de decisão autônoma através do uso de técnicas de aprendizado de máquina ou machine learning (ML) 3.  

Os algoritmos de machine learning se tornaram populares devido a sua capacidade de resolver problemas complexos sem ser explicitamente programados para isso, devido a sua capacidade de aprender através do reconhecimento de padrões nos dados2. Entretanto, é importante observar que essas técnicas podem sofrer a influência de algum tipo de viés que tem o potencial de prejudicar populações que já sofrem com uma desvantagem histórica 3. 

Infelizmente, o tipo de viés gerado por esses modelos é parecido com o viés humano em relação a raça, sexo, religião e outros tipos de discriminação 2. Por exemplo, há inclusive um fenômeno conhecido como other-race effect (ORE) no qual as pessoas reconhecem as faces da própria raça com maior facilidade, o que ocorre também em certos algoritmos que conseguem acertar com mais precisão a face de uma determinada etnia1. O viés em algoritmos é particularmente preocupante em sistemas inteligentes autônomos ou semiautônomos que não envolvem a interferência de pessoas no loop para detectar e compensar o viés existente4. Dessa maneira, além da possibilidade do tratamento injusto em relação à um grupo de indivíduos específicos, o ML pode contribuir para a invisibilidade online desses grupos através da priorização de alguns resultados em relação a outros 3. 

O problema de viés algorítmico tem ganhado cada vez mais atenção da mídia devido a diversos problemas tecnológicos 4. Por exemplo, a pesquisa do Google identificou dois americanos negros como gorilas em uma busca de imagens 3; o aplicativo FaceApp tende a clarear a pele de pessoas negras para seguir o padrão de beleza do algoritmo utilizado 3; Sistemas para predizer reincidência de crimes são enviesados em relação à um determinado grupo racial 4; ambas as  AIs da Microsoft Tay e Zo apresentaram um comportamento anti semita, racista e sexista 2. 

As situações apresentadas anteriormente, podem ser decorrentes de certos tipos de dados de entrada utilizados para treinar o modelo de ML 2. Além disso, o algoritmo pode se adaptar ao decorrer do tempo aos vieses sociais implícitos e explícitos aos quais ele é exposto que consequentemente geram perfis estereotipados e injustos de pessoas 3. 

Ainda não existe uma solução capaz de resolver todos os casos de vieses algorítmicos. Porém é importante lembrar que ao construir sistemas autônomos, deseja-se que os algoritmos utilizados sejam melhores versões dos seres humanos, por isso deve-se reduzir ao máximo o viés racial e outros tipos de vieses prejudiciais 4. 

 

 

 

Entendendo a origem do viés algorítmico 

Os algoritmos de aprendizado de máquina devem reconhecer igualmente as faces de todas as raças se as características das imagens ou  features corretas foram usadas para analisar os diferentes grupos raciais. Nesse contexto, é possível identificar o viés racial em algoritmos pela diferença de acurácias entre grupos étnicos distintos1. 

Desde 1990, o viés racial começou a ser reportado nas tarefas de reconhecimento de faces. Em 2014, a acurácia do reconhecimento facial melhorou significativamente devido aos algoritmos baseados em redes neurais convolucionais profundas ou deep convolutional neural network (DCNN) 1. 

Os estudos feitos com algoritmos pre-DCNN revelam que a raça impacta na identificação de faces de uma forma difícil de predizer. Apesar de até o momento haver poucos estudos que avaliam o viés racial em DCNNs, algumas tendências já foram detectadas em certas arquiteturas de redes neurais. Por exemplo, o algoritmo VGG-Face afeta o reconhecimento facial do grupo demográfico de mulheres negras e jovens.  Além disso, os algoritmos COTS mais antigos e VGG-Face performam melhor em faces brancas enquanto os dois COTS mais atuais e o ResNet têm melhor performance em faces negras 1. 

Dada a complexidade do problema tecnológico do viés algoritmo, é possível avaliá-lo não só pelos modelos de ML utilizados, mas também pelas suas outras possíveis causas. Nesse contexto, DANKS et al. (2017) 4 afirmam que os vieses podem ser classificados de acordo com a sua fonte podendo essas ser: dados de treino, foco algorítmico, processamento algorítmico, transferência de contexto e interpretação.  

Viés devido aos dados de entrada: Os dados de entrada utilizados para treinar o modelo de machine learning podem causar viés. Isso ocorre porque as imagens utilizadas podem variar na demografia, qualidade, iluminação e ponto de vista. Além disso, é importante lembrar que as redes neurais necessitam de um grande volume de dados para serem treinadas e que as imagens utilizadas devem apresentar diferentes identidades além da diversidade demográfica 1. Um exemplo simples de viés nos dados, é o desenvolvimento de um carro autônomo treinado com dados majoritariamente de uma cidade do US que deve ser utilizado na prática em qualquer lugar do país. Esse fator faz com que o algoritmo aprenda apenas normas de trânsito regionais 4. 

Viés devido ao foco algorítmico: Às vezes alguns dados não podem ser utilizados devido a restrições legais, por exemplo, fazendo com que o modelo tenha acesso apenas à um conjunto de dados específico 4. 

Viés devido ao processamento algorítmico: Ocorre quando o próprio algoritmo é enviesado de alguma forma. Esse fator é útil quando se quer compensar vieses presentes em tipos de dados ruidosos ou anômalos 4. 

Viés devido à transferência de contexto: Esse tipo de viés está presente quando uma aplicação é utilizada fora do contexto para o qual ela foi construída. Utilizando o exemplo do carro autônomo mencionado anteriormente, seria um problema aplicar no Reino Unido, onde as pessoas dirigem do lado esquerdo da rodovia 4, um sistema inteligente construído para operar no EUA. 

Viés devido à interpretação:  Quando definições da modelagem do método de machine learning não coincidem com a aplicação. 

 

 

Como mitigar o viés em algoritmos de machine learning 

Antes de tudo deve-se ter cuidado ao afirmar a presença de viés em algoritmos, verificando a sua fonte e definindo as especificações da norma padrão a ser seguida4. Ainda não existe um método “bala de prata” para resolver os problemas de viés que existem hoje, portanto é necessário que mais pesquisas sobre métodos computacionais para mitigar esse problema sejam desenvolvidas2. 

Apesar disso, pesquisadores sugerem algumas ações para mitigar os vieses. Por exemplo, o dado de treino deve ser escolhido de forma a representar toda a população que está sendo avaliada2. Também é possível desenvolver um algoritmo próprio que não apresenta viés para a aplicação em questão ou usar um algoritmo com viés que possa eliminar ou compensar vieses existentes nos dados4. 

As políticas públicas têm um papel essencial para endereçar e legislar os vieses dos modelos. Nos Estados Unidos há algumas leis para mitigar vieses como a Fair Housing Act  que proíbe a discriminação na venda, financiamento ou aluguel de imóveis. A lei pública americana 88-352 de 1965 proíbe a discriminação de gênero e raça para contratar, promover ou demitir 3. Apesar das leis utilizadas para mitigar o viés explicito, os vieses implícitos e inconscientes presentes nos algoritmos ainda não conseguem ser sanados por elas 3. Nesse contexto, é necessário que os poderes legislativos, profissionais da área de tecnologia e as empresas trabalhem juntos na construção de princípios e valores para extinguir vieses de sistemas autônomos. 

Além disso, há uma relação entre os ambientes de trabalho diversos e o viés algorítmico, especialmente considerando que essa descriminação pode ser intencional. Por esse motivo, aumentar a diversidades nos times de tecnologia é um fator essencial para a construção de algoritmos de ML mais justos 3. Também existe uma alienação das empresas de hightech que nem encorajam nem recebem bem a diversidade no ambiente de trabalho. Por exemplo, há menos de 2% de negros americanos em posições sênior e executivas quando comparados a 3% de latinos, 11% de asiáticos e 83% de brancos nas empresas hightech americanas. Mesmo quando as pessoas que não possuem pele branca conseguem empregos nessas empresas, elas se sentem socialmente isoladas e isso afeta a sua participação e na sua tendência de pedir demissão 3.  Considerando esses fatores, conclui-se que as empresas não só devem contratar times diversos como investir esforços para que os novos funcionários se sintam acolhidos para se expressar e contribuir no ambiente de trabalho. 

Conclusão 

Após analisar o impacto de vieses em algoritmos e suas diversas fontes, é possível concluir que os modelos de machine learning que provocam algum tipo de descriminação devem ser analisados, consertados e caso isso não seja possível, descartados3. As fontes de viés apresentadas nesse artigo não são mutualmente exclusivas, além de poder haver outras taxonomias de tipos de fontes de viés. É importante lembrar que o viés do algoritmo pode ser bom quando ele evita a mitigar o viés geral do sistema4. 

Referências 

1CAVAZOS, Jacqueline G. et al. Accuracy comparison across face recognition algorithms: Where are we on measuring race bias?. IEEE Transactions on Biometrics, Behavior, and Identity Science, 2020. 

2FUCHS, Daniel James. The dangers of human-like bias in machine-learning algorithms. Missouri S&T’s Peer to Peer, v. 2, n. 1, p. 1, 2018. 

3LEE, Nicol Turner. Detecting racial bias in algorithms and machine learning. Journal of Information, Communication and Ethics in Society, 2018. 

4DANKS, David; LONDON, Alex John. Algorithmic Bias in Autonomous Systems. In: IJCAI. 2017. p. 46914697

Este artigo é sobre Covid-19

Fale conosco

Entre em contato conosco e saiba como podemos apoiar a sua empresa no caminho rumo à transformação digital

manage cookies