134 views 4 mins

Lei da IA: um marco regulatório e seus desafios para o Brasil

em Mercado
segunda-feira, 03 de junho de 2024

Maria Heloisa Chiaverini de Melo (*)

A aprovação da primeira legislação mundial sobre inteligência artificial (IA) na União Europeia marca um avanço significativo na regulamentação dessa tecnologia. A lei adota uma abordagem baseada em riscos, impondo regulamentações mais rigorosas a sistemas que apresentam maiores riscos para a sociedade.

Este marco regulatório estabelece um padrão global e tem como objetivo fomentar o desenvolvimento e a adoção de sistemas de IA seguros e confiáveis, priorizando o respeito aos direitos fundamentais dos cidadãos. A inteligência artificial é uma ferramenta poderosa que pode agilizar processos e encurtar prazos, mas também carrega desafios significativos, especialmente em países onde ainda não há regras que normatizem seu uso.

Precisamos lembrar que, embora ainda não haja uma regulamentação específica para IA no Brasil, existem duas legislações que abrangem o uso ético da tecnologia: a Lei Geral de Proteção de Dados (LGPD) e o Marco Civil da Internet. Além disso, a Autoridade Nacional de Proteção de Dados (ANPD) lançou um estudo sobre o Projeto de Lei 2338/2023, que busca categorizar métodos e técnicas de IA de alto risco e riscos intoleráveis, gerando algumas proibições.

As empresas e players que atuam com IA podem se basear nesse arcabouço legal para nortear suas ações, mas o maior impacto social da falta de regulamentação é a insegurança sobre o que é considerado de alto risco ao livre desenvolvimento da personalidade dos indivíduos.

Muitas práticas são claramente antiéticas, como usar dados pessoais para treinar IA sem consentimento ou com consentimento condicionado ao uso da tecnologia, e usar dados sensíveis sem governança, fazendo com que a IA reproduza preconceitos socialmente estruturados.

Nesse cenário, nossos principais desafios são a transparência no processamento de dados, especialmente os sensíveis, e a garantia de que esses dados não serão desviados de sua finalidade original. Hoje, não sabemos se ao ceder um dado ele vai se manter dentro da finalidade ou haverá um desvio que possa gerar um impacto na nossa imagem ou personalidade. Para mitigar esses riscos, é preciso investir em uma governança robusta de algoritmos e práticas éticas.

. Diversidade de vozes – A IA tem o potencial de promover a inclusão e o acesso a serviços e oportunidades para grupos historicamente marginalizados. Para isso acontecer, é preciso que os desenvolvedores de IA estejam comprometidos com a criação de sistemas transparentes, justos e respeitosos com a diversidade humana.

A colaboração entre especialistas em tecnologia, direito e ética será fundamental para construir políticas robustas de governança e navegar por esse território complexo, assegurando que o avanço da IA ocorra de forma alinhada com os valores éticos.

As empresas brasileiras devem estar atentas a essa nova legislação e se preparar para adotar práticas éticas e responsáveis no uso de IA. Investir em governança, treinamento ético e diversidade nas equipes são passos essenciais para garantir que a IA seja utilizada de forma justa e segura, promovendo a inovação e o respeito aos direitos fundamentais.

(*) – É advogada especialista em Compliance, Governança e Direito Digital e CEO da BrevenLaw (https://brevenlaw.com).