184 views 10 mins

Inteligência Artificial: os riscos de não regular

em Tecnologia
quinta-feira, 14 de outubro de 2021

Não há dúvidas sobre a característica disruptiva da Inteligência Artificial e a quantidade de críticas, questionamentos e dúvidas sobre o projeto de Lei do uso da inteligência artificial (PL 21/2020) que será analisado pelo Senado é prova inconteste disto.

Nelson Mitsuo Shimabukuro (*)

A Inteligência Artificial tem o potencial ainda maior que a Internet em termos de transformação. É uma camada construída sobre a Internet, entretanto, com mais inteligência e o mais preocupante: autonomia, portanto mais crítica e impactante.

A Internet teve seu Marco Legal sancionado em 23 de abril de 2014, pela lei N°12.965/2014 e ainda é alvo de polêmicas, imagina uma tecnologia como a Inteligência Artificial, que está num estágio ainda inicial?

Neste caso, Bill Gates alertou em 2015 que “primeiro as máquinas farão muitas atividades para nós e não serão superinteligentes. O que pode ser positivo se gerenciarmos bem. Algumas décadas depois, entretanto, a inteligência será forte o suficiente para ser uma preocupação”.

Diante deste alerta, devemos ficar preocupados ou não? Regular ou deixar o mercado se autorregular?

Talvez estejamos longe de algo realmente preocupante, mas o fato é que vários eventos negativos e polêmicos têm rondado o uso da Inteligência Artificial recentemente e nos faz aumentar o alerta sobre o uso organizado e controlado de tais tecnologias.

Questões relacionadas com ética e justiça, permanecem como sendo uma área bastante nebulosa para o uso da Inteligência Artificial.

Abaixo alguns casos emblemáticos e problemáticos:

  • Desprezo de humanos: depois de 24hs de “aprendizado” através de interações com humanos, Tay, o mais avançado chatbot da Microsoft, declarou, no Twitter: “Hitler estava correto em odiar judeus”. Foi retirado imediatamente do ar.
  • Ferramenta tendenciosa de Recrutamento: se você é mulher procurando uma posição técnica na Amazon, suas chances são extremamente baixas. A empresa, que desde 2014 estava construindo um software para automatizar o processo de análise de currículos, em 2015 abandonou esta estratégia.
  • Fatalidade com carro autônomo Uber: 18 de março de 2018 será recordado como o dia da primeira fatalidade de um pedestre envolvendo um carro autônomo. Elaine Herzberg foi atropelada por um veículo de teste do Uber enquanto atravessava uma rodovia de 4 pistas.
  • Inteligência Artificial contra o Câncer pode matar pacientes: outra falha custou US﹩ 62 milhões, quantia dispendida pela IBM ao desenvolver um sistema para tratar Câncer. A solução de acordo com o Médico do Hospital Jupiter na Flórida foi um fracasso completo. Watson da IBM recomendava dar aos pacientes uma série de medicamentos que poderiam agravar a enfermidade. Múltiplos casos de terapias arriscadas e erradas foram sugeridas, alertando Médicos especializados e clientes.
  • Reconhecimento Facial pode ser enganado por máscara: aconteceu com o Iphone X. O sistema da Apple, apesar de sofisticado e capaz de criar uma visualização 3D e prever ajustes ao utilizar maquiagem ou óculos, foi burlado por um homem de negócios do Vietnã que colocou “olhos” 2D em uma máscara 3D e assim conseguiu acessar o celular. O custo para a confecção da máscara foi de 200 dólares e a simulação dos olhos foi feito através da impressão de figuras infravermelho no papel. Apesar de ter derrotado o sistema, não se conseguiu replicar o processo.
  • Robôs perdem empregos para humanos: o primeiro revolucionário Hotel HENN-NA abriu suas portas no Japão em 2015. Todos os empregados do hotel eram robôs, desde os atendentes de balcão até limpeza e atendimento de quarto. Entretanto, as reclamações acumularam: frequentemente paravam de funcionar, incapazes de oferecer respostas adequadas aos hospedes, e os atendentes de quarto frequentemente assustavam clientes à noite ao interpretar erroneamente o ronco com o comando de acordar. O hotel finalmente decidiu substituir a equipe de robôs por humanos depois de anos de esforços, alegando que vão retornar aos laboratórios e reestudar o que pode ser feito.

Por outro lado, avanços positivos também devem ser considerados:

  • Agricultura: em uma parceria entre Microsoft e United Phosphorous (UPL), o maior produtor indiano de agroquímicos, foi criado um APP de Predição de Risco de Praga baseado em Inteligência Artificial e Machine Learning para analisar antecipadamente o risco do ataque de pragas. Agricultores recebem alertas por meio do celular, notificando se suas plantações estão em risco de ataque de pragas baseado nas condições do tempo e o estágio do cultivo. O aplicativo também recomenda a data de plantio, preparação da terra, preparação de sementes e profundidade do plantio e outras funcionalidades aos agricultores, o que resultou em aumento de 30% de produtividade na média.
  • Atendimento ao consumidor: um banco proeminente na Inglaterra habilitou um chatbot a atender 8 milhões de clientes de seu mobile banking. A plataforma Azure Kubernets Service (AKS) permitiu ao banco o acesso ágil por seus engenheiros, que desenvolveram aplicações e produtos agilmente. Como resultado permitiu o atendimento 33% mais rápido e a resolução de aproximadamente 50% dos problemas pelo chatbot.
  • Saúde: 89% dos pacientes nos Estados Unidos recorrem ao Google antes de irem ao médico e os resultados do autodiagnóstico tornam-se assustadores. Assistentes de enfermagens virtuais previnem tais esforços ilusórios. Um bom exemplo de assistente virtual de enfermagem é a “Molly”, visualizada como um avatar, provê suporte remoto coletando informações de peso, pressão sanguínea e outros parâmetros coletados, aparelhos de monitoramento, além de agendar consulta com o médico. Estes tipos de assistentes virtuais contam com uma ótima aceitação, na qual 65% dos pacientes se sentem mais confortáveis em receber instruções deles.

Mesmo com os avanços significativos, a amplitude dos riscos que já se mostram bem preocupantes, assim como, os riscos de médio e longo prazo de se perder o controle sobre a autonomia da inteligência artificial

Não só no Brasil a regulamentação da Inteligência Artificial é polêmica. Na Europa, foi lançada a regulamentação em 21 de abril de 2021 e continua causando muitas discussões acaloradas mesmo depois de mais de dois anos de início da discussões.

A proposta europeia é mais rígida do que a inicialmente proposta no Brasil, que tem mais caráter norteador do que regulador.

O Brasil avaliou a iniciativa europeia com o LGPD e talvez um bom caminho seria considerar também visões interessantes da União Europeia, que por exemplo considera e classifica os Sistemas de Inteligência Artificial em três categorias: banidos, alto risco e baixo risco.

Além de proteger a sociedade em si dos males potenciais provenientes do desenvolvimento e utilização desenfreada de tal tecnologia dentro do território nacional, a regulação também visa defender a sociedade brasileira dos impactos advindos de outras nações, nas quais os limites éticos e de justiça para o uso da inteligência artificial não são claros.

Regular e evitar a expansão das decisões tendenciosas e errôneas na velocidade das máquinas é fundamental.

Nelson Mitsuo Shimabukuro é engenheiro elétrico, mestre em Administração, especialista em Tecnologia da Informação e Telecomunicações e professor da Universidade Presbiteriana Mackenzie Alphaville.