42 views 2 mins

Porque inteligências artificiais não falam do atentado contra Trump

em Tecnologia
quinta-feira, 01 de agosto de 2024

Os chatbots de inteligência artificial usadas pelo grande público não estão respondendo às perguntas sobre a tentativa de assassinato sofrida por Trump e, em alguns casos, negam que o evento tivesse ocorrido.

Vivaldo José Breternitz (*)

Isso acontece porque essas ferramentas são programadas para não responderem a perguntas sobre um evento logo após ele acontecer, porque normalmente há informações conflitantes ou teorias de conspiração ao redor do mesmo.

Quando uma aplicação afirma que o atentado não aconteceu, provavelmente trata-se de uma alucinação, expressão usada quando, por erro, ela traz respostas totalmente equivocadas, mas estruturadas de forma a que pessoas não familarizadas com o assunto podem julgar serem corretas – esse é um grande perigo trazido pelo uso descuidado de inteligências artificiais generativas, como o Gemini e o ChatGPT, por exemplo.

Os apoiadores de Donald Trump têm acusado as empresas que fornecem esse chatbots e mecanismos de busca de estarem tentando ocultar os fatos. O Google teve que emitir uma nota depois que Elon Musk alegou que o mecanismo de busca da empresa impôs uma “proibição de busca” ao ex-presidente – Musk compartilhou uma imagem que mostrava o preenchimento automático do Google sugerindo “presidente Donald Duck” quando alguém digitava “presidente Donald”.

O Google explicou que isso se devia a um bug que afetava seu recurso de preenchimento automático, agora corrigido, e disse que os usuários podem pesquisar o que quiserem a qualquer momento – são amostras de como as campanhas eleitorais estão sendo afetadas por essas novas ferramentas.

(*) Doutor em Ciências pela Universidade de São Paulo, é professor da FATEC SP, consultor e diretor do Fórum Brasileiro de Internet das Coisas – [email protected].