Governança de IA: Estamos Gerenciando o Risco da IA ou Criando uma IA de Risco?

em Conexão Corporativa
quarta-feira, 01 de outubro de 2025

Uma análise crítica dos frameworks de governança, do voluntarismo do NIST à incerteza regulatória no Brasil, e o perigo do “teatro da conformidade”.

Glades Chuery (*)

A Inteligência Artificial deixou de ser promessa e já impacta a sociedade com benefícios e riscos. A resposta institucional a esses riscos foi a criação de frameworks de governança, mas a questão central é: estamos realmente gerindo os perigos da IA ou apenas construindo uma “IA de risco”?

O NIST, nos EUA, lançou em 2023 o AI Risk Management Framework (AI RMF 1.0), estruturado em quatro funções — Governar, Mapear, Medir e Gerir. O modelo é flexível, voluntário e busca promover sistemas de IA confiáveis, seguros, transparentes e justos. Entretanto, sua natureza voluntária é também sua fragilidade: sem mecanismos de enforcement, acaba servindo mais como guia de boas práticas do que como instrumento eficaz de mitigação. Num mercado em que velocidade e lucro predominam, confiar na autorregulação é comparável a pedir que a raposa cuide do galinheiro.

Em contraste, a União Europeia avançou com o EU AI Act, a primeira legislação abrangente e obrigatória sobre IA, baseada em risco e acompanhada de sanções pesadas para o descumprimento — multas de até €35 milhões ou 7% do faturamento global. A diferença revela a fratura filosófica entre abordagens voluntárias e vinculativas na governança global da IA.

O Brasil caminha lentamente com o PL 2338/2023, inspirado na União Europeia. A proposta cria o Sistema Nacional de Regulação e Governança da Inteligência Artificial (SIA), coordenado pela ANPD. Apesar da ambição regulatória, o desenho institucional gera incertezas: sobreposição de competências entre ANPD e outras autoridades, risco de burocracia excessiva e insegurança jurídica. O perigo é construir um “monstro” regulatório antes mesmo de dominar a tecnologia, sufocando a inovação responsável e favorecendo zonas cinzentas.

O cerne do debate, no entanto, vai além: não se trata apenas de mitigar riscos da IA, mas de reconhecer que estamos desenvolvendo uma “IA de risco”. Modelos de larga escala (LLMs), cada vez mais usados, são opacos até mesmo para seus criadores, mudando de forma imprevisível ao interagir com o mundo real. Admitir a necessidade de “gerir viés” é reconhecer que aceitamos implantar sistemas enviesados em larga escala e que a governança virou mera gestão de danos. Em vez de prevenir riscos fundamentais, lidamos com consequências inevitáveis.

Assim, a proliferação de frameworks corre o risco de se tornar um “teatro da conformidade”: um checklist para garantir selos de “IA responsável”, enquanto os riscos estruturais seguem intocados. O desafio é sair da superfície, questionar a validade dos frameworks e enfrentar os perigos da complacência regulatória.

No fim, a pergunta que permanece é se estamos realmente construindo pontes para um futuro mais seguro com a IA, ou apenas decorando as grades de uma jaula dourada que nós mesmos projetamos.

(*) Mãe da Helena, é uma das principais vozes no Brasil em Governança, Inovação e Inteligência Artificial Aplicada aos Negócios. É Business Partnership Manager no Grupo Ag Capital, Referência em Taxtech.