220 views 8 mins

Apenas 28% das empresas estão preparadas para a regulação da inteligência artificial

em Mais
terça-feira, 06 de junho de 2023

chombosan_CANVA

Apesar de ainda não ser regulado, o uso da inteligência artificial nas empresas tem crescido de forma exponencial. Diante desse avanço, o Boston Consulting Group (BCG) desenvolveu um novo estudo e encontrou um cenário limitado de preparação dos negócios para essa nova fase da tecnologia: apenas 28% dos 2.700 líderes globais entrevistados afirmaram estar totalmente prontos para as leis e regulações que estão por vir.
 
Segundo a análise do BCG, a melhor forma para o mercado se preparar para esse futuro da IA é por meio do desenvolvimento de um programa de inteligência artificial responsável (RAI, na sigla em inglês). Essa iniciativa tem como objetivo garantir o uso ético da tecnologia, considerando seus impactos nos negócios e pessoas, além de facilitar a governança dos sistemas. Uma RAI deve ter foco em um conjunto de princípios como: responsabilidade, transparência, privacidade e segurança. Assim, há uma diretriz clara para que os algoritmos sejam desenvolvidos e implementados de forma equitativa e inclusiva. Essa é uma estrutura benéfica tanto para criadores quanto usuários de inteligência artificial e ajudará ambos a estarem prontos para qualquer regulamentação que surgir no futuro.
 
“Um programa de IA responsável deve ser visto como um mecanismo de inovação, que aprimora o desempenho da tecnologia e estabelece ciclos de melhorias e de revisão, que ajudam a prevenir falhas ao levantar preocupações que envolvem a tecnologia. Empresas que compreenderem esse conceito e tratarem as regulamentações como oportunidade, em vez de um obstáculo, podem se destacar no mercado”, afirma Henrique Sinatura, diretor executivo e sócio do BCG.
 
O artigo também aponta que os negócios com maior maturidade digital são mais propícios a desenvolverem um programa de RAI e que a iniciativa leva cerca de três anos para fazer um progresso significativo, por isso exige esforço e comprometimento. Porém essa dedicação traz vantagens: a inteligência artificial responsável ajuda as empresas a dimensionarem seus investimentos de IA, a identificar e corrigir problemas de forma antecipada, e a aumentar a adoção da tecnologia por clientes e colaboradores, ao mesmo tempo em que minimiza falhas.
 
“Nossa pesquisa mostrou que companhias mais maduras digitalmente têm quase seis vezes mais chances de estarem preparadas para a regulamentação da IA. Notamos, também, que os setores de telecomunicações, tecnologia e consumo estão na frente dos demais em termos de preparação, mostrando que a ferramenta pode colaborar, e muito, com o relacionamento e jornada do consumidor”, aponta Sinatura.
 
De forma geral, o BCG conclui que existem cinco princípios em comum em empresas que desenvolveram um programa de IA responsável bem-sucedido. São eles:
 
Liderança de RAI emponderada: os líderes de um projeto de RAI precisam desempenhar um papel crítico na manutenção das iniciativas no caminho certo. Para terem sucesso, eles ainda precisam ser colaborativos e devem contar com uma equipe multifuncional (representando unidades de negócios, bem como os departamentos jurídico, de RH, de TI e de marketing) para projetar e liderar programas RAI. Por isso, os relacionamentos são essenciais para a liderança, dando suporte para implementar os programas da RAI em toda a organização.
 
Construir e fomentar uma estrutura ética de IA: no centro da RAI está um conjunto de princípios e políticas que devem ser incorporados à cultura e às políticas da empresa. Isso estabelece uma base que faz com que seja mais fácil a empresa se adaptar caso surjam regulamentações específicas, pois ela já pratica esses princípios. Assim, mitiga o risco de prejudicar metas e investimentos.
 
Humanos na IA: a maioria dos regulamentos de IA atuais e que estão sendo propostos exigem uma forte governança humana, o que se alinha com um princípio central da RAI: envolvimento humano em processos e plataformas de inteligência artificial. A pesquisa aponta que quase dois terços dos respondentes acreditam que é importante projetar sistemas de IA que aumentam a capacidade humana, e não a sua substituição – e eles já estão aplicando esse princípio.
 
Ferramentas e métodos para revisão: a IA responsável abrange o ciclo de vida de um sistema de inteligência artificial e a sua meta é detectar e resolver problemas o quanto antes, além de manter a atenção aos riscos durante e após seu lançamento. O primeiro passo para isso é garantir a revisão constante de que os princípios básicos do RAI, como transparência e inclusão, estejam integrados nos processos para construir e trabalhar com algoritmos. Para as organizações, a grande vantagem de se investir nesse monitoramento está na possibilidade de ter mais credibilidade diante de governos e clientes.
 
Participar do ecossistema de RAI: na pesquisa do BCG foi apontado que quase 90% das empresas contribuem ativamente para um grupo de trabalho de inteligência artificial responsável. Essa é uma estratégia válida que promove a colaboração e o compartilhamento de informações, o que pode ajudar direcionar o desenvolvimento das melhores práticas nos projetos. Além disso, o ecossistema RAI é vasto e está crescendo rapidamente, tornando-se um lugar para encontrar parceiros, clientes, organizações e fóruns que podem ajudar a desenvolver e dimensionar casos de uso de IA.
 
“Usar a inteligência artificial com responsabilidade é, de certa forma, criar valor com ela. A incerteza que temos sobre o escopo dos regulamentos que estão por vir não pode ser um fator para impedir o desenvolvimento de um programa de uso da tecnologia de forma responsável. Quem começar agora a trabalhar na RAI conseguirá ajudar a moldar o futuro da IA”, finaliza Sinatura.
 
O estudo completo está disponível, em inglês, no site do BCG (https://www.bcg.com/publications/2023/how-to-prepare-for-ai-regulation).