Ninguém questiona a ascensão dos sistemas de inteligência artificial no dia a dia das empresas e dos cidadãos. Essa utilização da IA ocorre de diversas formas por meio de tecnologias como a generativa, com destaque para ChatGPT e Gemini (anteriormente chamada de Bard); dados precisos e em tempo real de geolocalização; reconhecimento facial; e processamento cognitivo avançado (como machine learning).
Todos esses recursos demandam esforços dos reguladores e legisladores para que sejam regulamentados, sem que isso represente um obstáculo à inovação ou à continuação do desenvolvimento tecnológico. Enquanto alguns países europeus manifestam que são favoráveis a liberar o reconhecimento facial, o Parlamento da União Europeia quer impor restrições rígidas a ele por meio do chamado AI Act, que tem gerado debates intensos.
Nos EUA, a probabilidade é baixa de lei federal para regulamentar IA, mas reguladores como a FTC (Federal Trade Commission) têm respondido às preocupações da sociedade sobre o impacto da IA generativa, com a abertura de investigações sobre plataformas de inteligência artificial. A IA está transformando diversas indústrias, com impactos visíveis nos serviços financeiros, na agricultura e no setor de saúde, por meio do ganho de produtividade nas operações e da reconfiguração do trabalho.
Esses sistemas estão permitindo, entre outros avanços, uma gestão logística mais eficaz, otimizando a utilização da energia elétrica, criando uso mais eficiente dos leitos hospitalares por meio da análise de dados de pacientes e modelagem preditiva, além de estarem viabilizando experiências personalizadas para o consumidor. Com as empresas dispostas a utilizar IA no mundo inteiro e receosas de ficarem para trás no mercado, os níveis de investimento nessa tecnologia são 18 vezes superiores aos observados em 2013.
Por outro lado, os riscos e consequências não intencionais preocupam. Há diversos exemplos disso como software de imitação da voz que pode fazer uma pessoa se passar por outra para convencer sistemas de banco e do local de trabalho, bem como amigos e familiares, obtendo assim benefícios financeiros ou acesso a informações sigilosas e dados pessoais. Ou, ainda, o reforço de vieses inconscientes em plataformas de IA, com desrespeito aos direitos das pessoas.
Por fim, o comprometimento da segurança dos dados pessoais e a produção de fake news não podem ser ignorados, já que têm potencial para desestabilizar a sociedade, incluindo o sistema financeiro. É nesse contexto que a EY, no estudo “The Artificial Intelligence (AI) global regulatory landscape”, se debruçou sobre as abordagens de momento dos reguladores e legisladores na União Europeia, nos EUA, no Reino Unido, na China, no Canadá, no Japão, na Coreia do Sul e em Singapura para identificar cinco tendências regulatórias em IA reunidas a seguir:
1) Observância dos princípios da OCDE – Os textos legais que estão sendo discutidos, assim como eventuais orientações, estão em consonância com os princípios da IA definidos pela OCDE e aprovados pelo G20, como respeito aos direitos humanos; transparência; e gestão eficaz dos riscos envolvidos nos sistemas.
2) Abordagem baseada no risco – A tendência é que os sistemas de inteligência artificial sejam regulamentados conforme uma abordagem baseada no risco. Isso significa que as obrigações de conformidade devem ser proporcionais ao nível de risco oferecido à sociedade.
Na UE, no AI Act, a proposta é que os sistemas sejam divididos em categorias: baixo risco à sociedade, como games; risco limitado, como chatbots; alto risco, como veículos autônomos; e risco inaceitável, como sistemas biométricos de vigilância. Cada uma dessas classificações traz obrigações de privacidade e transparência para as companhias, que devem seguir as regras da categoria na qual seus serviços e produtos se enquadram.
3) IA com regras abrangentes ou específicas para cada setor – Alguns setores econômicos que utilizam sistemas de IA de alto risco podem ser regulamentados com regras específicas. É o caso das empresas envolvidas com veículos autônomos, que, por circularem na via pública, trazem risco de atropelamento. Também é o caso dos serviços financeiros em relação à análise de risco de crédito dos consumidores interessados em contratar um empréstimo.
Há um desafio nessa escolha porque a legislação deverá contemplar uma série de utilizações, abrangendo casos diversos, o que se mostra muito difícil considerando a velocidade própria da tecnologia. Já outras jurisdições perceberam a impossibilidade disso e estão optando pela criação de regras gerais, aplicáveis a todos os setores econômicos ou a blocos de setores.
4) Alinhamento político – De forma geral, as jurisdições estão considerando implementar as regras de IA no contexto de outras regulamentações de política digital, como cibersegurança, privacidade dos dados e proteção da propriedade intelectual, com a União Europeia adotando a abordagem mais abrangente nesse sentido.
5) Colaboração do setor privado – Muitas jurisdições estão usando o modelo de sandbox (ambiente de testes) como uma ferramenta para o setor privado colaborar com os legisladores. Há muitos benefícios nisso, incluindo desenvolver uma regulação mais efetiva e que não iniba investimentos, além de promover a comunicação entre os formuladores de políticas e o setor privado.
O objetivo é criar uma regulação que promova o uso seguro e ético da IA, considerando especialmente as implicações das inovações de alto risco para a sociedade, o que exigirá supervisão rigorosa – ou ao menos mais rigorosa do que a padrão.
Ainda segundo o estudo da EY, as regulações globais devem se conectar ou ter pontos em comum por três motivos principais: redução de custos de adequação ou conformidade para as companhias, que fazem cada vez mais negócios globais; garantia de regras consistentes, comparáveis e eficazes em todas as jurisdições; e fornecimento de efetiva proteção aos consumidores em relação aos serviços globais de IA. – Fonte: Agência EY/[email protected].