Patrícia Ajeje (*)
O avanço da Inteligência Artificial (IA) marcou uma nova era na forma como empresas e organizações realizam processos de recrutamento e seleção de candidatos. A capacidade da IA de analisar dados, identificar padrões e tomar decisões aparentemente objetivas gerou otimismo quanto à eficiência e eficácia dessas ferramentas. No entanto, essa revolução tecnológica trouxe à tona um debate ético crucial sobre os impactos da IA na vida das pessoas, especialmente quando se trata de questões de diversidade, equidade e inclusão.
O debate ético em torno do desenvolvimento da IA não é novo, mas ganhou destaque significativo nos últimos anos. Nos anos 80 e 90, os Estados Unidos investiram US$ 400 milhões de dólares no desenvolvimento da IA levando a questionamentos morais sobre seu impacto. Contudo, foi apenas em 2016 que entidades governamentais e organizações da sociedade civil começaram a produzir publicações sobre a regulamentação da IA, com foco na proteção dos direitos humanos.
O uso da IA em processos de recrutamento cresceu substancialmente, especialmente com a pandemia de COVID-19. Muitas organizações adotaram ferramentas de IA para melhorar a eficiência do recrutamento em volume e a gestão do local de trabalho. No entanto, em estudo recente, pesquisadores da Universidade de Cambridge destacam preocupações cruciais. Eles questionam a alegação de que a IA pode avaliar candidatos de forma objetiva, sem levar em conta gênero e raça. A realidade é que muitas vezes, as tentativas de “despojar” o gênero e a raça dos sistemas de IA não compreendem plenamente esses conceitos e não são verdadeiramente neutras. Isso resulta em viés e reflete a relação de poder entre quem desenvolve a IA e os candidatos.
Hoje, o desenvolvimento de IA é muitas vezes realizado por grupos de pessoas altamente técnicas e homogêneas, o que abre precedentes para que sejam criados sistemas baseados em uma visão limitada do mundo. As ferramentas de recrutamento por IA ajudam a produzir o “candidato ideal” que elas supostamente identificam, construindo associações entre palavras. Ou seja, elas não apenas identificam os atributos dos candidatos, mas influenciam como essas características são percebidas pelos empregadores. Casos emblemáticos, como o da Amazon, que abandonou um mecanismo de recrutamento devido a discriminação de gênero, demonstram que o uso inadequado da IA pode ter sérias consequências.
A União Europeia tem dado passos significativos para regulamentar a IA proibindo sistemas que reforçam desigualdades ou discriminam candidatos. No entanto, nos Estados Unidos, a regulamentação é fragmentada. A autoridade e a responsabilidade pela regulamentação e governança de IA são distribuídas entre as agências federais. Os dois documentos que regem essa área – o Blueprint for an AI bill of rights, da Casa Branca, e NIST risk management framework, do Instituto Nacional de Padrões e Tecnologia – são de orientação voluntária, sem força de lei. Algumas cidades, como Nova York, começaram a tomar medidas por conta própria, exigindo auditorias de viés em algoritmos de recrutamento.
Embora países como México, Brasil, Argentina, Colômbia, Chile, Equador, Costa Rica, Paraguai, Peru, República Dominicana e Trinidad e Tobago tenham demonstrado avanços significativos nessa questão, no âmbito regional, ainda não há uma posição consolidada para estabelecer os princípios éticos de uso da IA. No Brasil, pelo menos quatro projetos de lei estão em tramitação no Congresso Nacional, com destaque para o PL 2338/23, que considera de alto risco os sistemas de IA usados em recrutamento e sujeitos a avaliação de impacto algorítmico.
A trajetória do impacto da IA na igualdade de gênero está intrinsecamente ligada à forma como a IA é desenvolvida, implementada, usada e governada. A ideia de que uma única proposta regulatória possa servir como uma “bala de prata” capaz de resolver todos os problemas é ilusória. A IA é uma tecnologia em constante evolução, e as leis nem sempre conseguem acompanhar seu ritmo frenético de desenvolvimento.
Garantir a igualdade de gênero em avanços tecnológicos é fundamental. Formuladores de políticas e organizações enfrentam o desafio de reconhecer que o gênero é um sistema interseccional complexo. A IA deve considerar essas interações entre gênero, raça e outros fatores sociais ao ser desenvolvida e usada. Viés nos dados de treinamento resulta em viés nos resultados da IA exigindo uma revisão crítica das ferramentas de recrutamento por IA para evitar a perpetuação de desigualdades de gênero.
A busca pela igualdade de gênero no contexto da IA é difícil, mas crucial. Encontrar um equilíbrio entre avanços tecnológicos e direitos individuais é um compromisso coletivo. Líderes e organizações desempenham um papel fundamental ao promover uma cultura de diversidade, equidade e inclusão. Isso não apenas torna os ambientes de trabalho mais justos, mas também influencia positivamente o desenvolvimento responsável da IA. Assim, poderemos aproveitar os benefícios da IA sem comprometer direitos humanos e os valores democráticos.
(*) Mãe, engenheira química, administradora de empresas e CEO da Chem-Trend América do Norte (EUA, Canadá e México).