Vivaldo José Breternitz (*)
O medo dos robôs assassinos é tão antigo quanto os próprios robôs – pensadores como o empresário Elon Musk e o neurocientista Sam Harris há muito argumentam que a Inteligência Artificial (IA) aplicada aos robôs representa uma séria ameaça à civilização. Agora, um relatório da ONU pode aumentar esse medo, ao declarar que um drone atacou, e possivelmente matou soldados, sem receber comandos de um operador humano; esse é considerado o primeiro caso registrado de um ataque do tipo.
O fato aconteceu em março de 2020 na Líbia, um país que vivia uma guerra civil em que outros países estavam envolvidos. A Turquia, um dos principais envolvidos, usou um drone Kargu-2, que localizou e atacou forças inimigas em retirada. O drone, uma pequena máquina de 7 quilos, que pode carregar diferentes tipos de munição, com o uso de visão computacional e IA, identificou as forças inimigas e atacou-as.
A empresa fabricante do drone, a STM, diz que o dispositivo “pode ser usado com eficácia contra alvos estáticos ou móveis por meio de seus recursos de processamento de imagem em tempo real e algoritmos de aprendizado de máquina” – ferramentas típicas de IA. Em 2018, a ONU tentou discutir um tratado que baniria as armas autônomas, mas a medida foi bloqueada tanto pelos EUA quanto pela Rússia. Entidades como a Human Rights Watch tem feito campanhas contra essas armas desde 2013.
Pesquisadores como Max Tegman, que trabalha com aprendizado de máquina no MIT, também alertam para o perigo trazido pela disseminação dessas armas e lembram que é hora de os líderes mundiais tomarem uma posição a respeito.
(*) – Doutor em Ciências pela USP, é professor da Faculdade de Computação e Informática da Universidade Presbiteriana Mackenzie.