28 views 3 mins

Flórida investiga se ChatGPT tem responsabilidade por assassinatos

em Tecnologia
quinta-feira, 30 de abril de 2026

O procurador-geral da Flórida, James Uthmeier, decidiu transformar em investigação criminal aquilo que já vinha sendo discutido em diversos fóruns: até onde vai a responsabilidade das empresas de inteligência artificial quando seus sistemas são usados em crimes?

Vivaldo José Breternitz (*)

O alvo é a OpenAI, acusada de ter seu chatbot, o ChatGPT, envolvido no tiroteio ocorrido no campus da Universidade Estadual da Flórida em abril de 2025, quando um estudante abriu fogo matando duas pessoas e ferindo outras seis.

Dias depois, descobriu-se que o assassino esteve em “comunicação constante” com o ChatGPT antes do ataque. Para a família de uma das vítimas, isso basta para processar a empresa. Para Uthmeier, é motivo para abrir uma investigação criminal; ele chegou a declarar que, se o ChatGPT fosse uma pessoa, estaria respondendo por homicídio. É uma frase de efeito, mas também um sinal claro de que o debate sobre IA deixou de ser apenas técnico e entrou no terreno jurídico e político.

O gabinete do procurador já intimou a OpenAI a entregar documentos internos, políticas de segurança e até organogramas de funcionários. A mensagem é inequívoca: não se trata apenas de apurar um caso isolado, mas de abrir caminho para responsabilizar empresas de tecnologia por consequências do uso de seus sistemas.

Vale lembrar que não é a primeira vez que a Flórida se vê diante de tragédias ligadas à IA. Uma família processa a Character.ai após o suicídio de um adolescente; outra move ação contra o Google, alegando que o chatbot Gemini teria incentivado seu filho a se matar. A lista de casos cresce, e com ela a sensação de que estamos diante de uma epidemia silenciosa: jovens e adultos em colapso psicológico, influenciados por softwares, protagonizam tragédias.

Uthmeier também fala em investigar riscos geopolíticos, como o uso da IA por adversários estrangeiros. Mas antes de mirar os comunistas chineses, talvez seja mais prudente lidar com o fato de que empresas americanas estão produzindo sistemas que, em alguns casos, parecem incapazes de distinguir entre ajudar e destruir.

O que está em jogo não é apenas a reputação da OpenAI, mas o futuro da regulação da inteligência artificial. Se a investigação prosperar, abre-se um precedente: empresas poderão ser criminalmente responsabilizadas por atos cometidos por pessoas que interagem com seus sistemas.

É um terreno novo, cheio de dilemas éticos e jurídicos, mas uma coisa é certa: a Flórida está colocando a IA no banco dos réus.

(*) Doutor em Ciências pela Universidade de São Paulo, é professor, consultor e diretor do Fórum Brasileiro de Internet das Coisas – [email protected].

Seis maneiras para o ChatGPT facilitar as atividades bancárias – Jornal Empresas & Negócios