110 views 6 mins

Algoritmo e preconceito: especialista analisa como a tecnologia pode perpetuar o racismo

em Tecnologia
terça-feira, 22 de setembro de 2020

Especialista Andre Miceli destaca que algoritmos podem fazer associações raciais e que análises dos dados coletados sofrem influência humana

Andre Miceli (*)

A inteligência artificial está cada vez mais inserida na sociedade, em nossas vidas e até mesmo decisões. Utilizamos, mesmo sem saber exatamente como essa tecnologia se aplica, em nosso consumo, escolhas, segurança, trabalho, saúde, deslocamentos e até mesmo nas formas de nos relacionarmos virtualmente com as pessoas.

Mas quem constrói os algoritmos que desempenham todas essas funções? Quais são as bases que estruturam esses dados? Os modelos matemáticos das tecnologias não possuem a capacidade de questionar, eles vão exclusivamente interpretar os dados que colocamos para eles. E isso pode gerar muitos problemas. O preconceito é um deles e se mostra cada vez mais presente. E isso tem a ver com a influência humana na programação dos dados.

“A tecnologia perpetua o preconceito porque foi desenvolvida com essa base. Racismo, sexismo, homofobia, classicismo, nacionalismo, preconceito religioso e xenofobia podem surgir nesse processo de análise de dados analisados pela inteligência artificial, sem chance de contestação, em seus moldes atuais. Os algoritmos enviesados dependem muito da configuração desenvolvida pelos humanos que os constroem, por isso é fundamental considerar o papel dos algoritmos na tomada de decisões, especialmente nos casos em que os algoritmos desempenham um papel fundamental na formação de um processo de decisão, mesmo quando a decisão final é feita por humanos”, destaca André Miceli, coordenador do MBA de Marketing, Inteligência e Negócios Digitais da Fundação Getúlio Vargas (FGV).

De acordo com o especialista, os preconceitos estão atrelados a pressupostos humanos, ou seja, sempre pode haver um viés. Frequentemente, recorremos à tecnologia para ajudar a resolver problemas. Mas quando a sociedade define, enquadra e representa as pessoas de cor como “o problema”, essas soluções geralmente fazem mais mal do que bem. Projetamos tecnologias de reconhecimento facial que visam suspeitos de crimes com base na cor da pele.

“Os algoritmos são apenas automatizados. E se você não corrigir o viés, estaremos automatizando o preconceito. Portanto, a questão que devemos enfrentar é se continuaremos projetando e implantando ferramentas que levam a essa direção, visando atender a determinados propósitos. Se não queremos a tecnologia seja usada para perpetuar o racismo, devemos garantir que não conflitemos problemas sociais como crime, violência ou doença com negros e pardos, por exemplo. Quando fazemos isso, corremos o risco de transformar essas pessoas nos problemas que implantamos para nossa tecnologia resolver, na ameaça que projetamos para erradicar”, analisa.

Mas como evitar que os algoritmos continuem sofrendo essa influência e de certa forma até ampliando o preconceito? A inclusão de outros olhares no processo de programação, com uma equipe mais inclusiva, traz abordagens diferentes e ajuda a identificar falhas nos sistemas antes que, de fato, se tornem um problema. Além, é claro, de outras mudanças estruturais.
“Três ações são muito importantes para corrigir o viés na inteligência artificial e nos algoritmos. O primeiro é a mudança dos modelos matemáticos, para garantir que os usados são adequados a cada uma de suas funções; o segundo é a necessidade de um Data 7 que seja representativo, que não utilize sub conjuntos que reforçam os vieses da sociedade – quanto maior o volume de dados, melhor a avaliação que os algoritmos vão fazer; e por fim, o monitoramento constante e assertivo da performance com dados reais. Encontrar essa valia entre o que os algoritmos disseram e o que de fato acontece”, explica Andre Miceli.

Há pessoas em todas as etapas desse processo. Correções devem ser feitas para evitar viés. Variáveis sem causalidade entre elas, sem levar a correlação em conta.

“O entendimento das informações coletadas pelas máquinas precisa ser revisto. Estamos reproduzindo esse momento binário que é característico de um dado matemático. Não podemos aceitar essa limitação e permitir a amplificação disso por um algoritmo”, finaliza.

(*) É Especialista em sociedade digital, Andre Miceli é coordenador do MBA de Marketing, Inteligência e Negócios Digitais da Fundação Getúlio Vargas (FGV) e CEO da MIT Technology Review Brasil.