265 views 3 mins

Inteligência artificial: alucinações são um risco

em Tecnologia
quinta-feira, 23 de novembro de 2023

De maneira muito simplista, podemos dizer que os Large Language Models (LLMs) são ferramentas de inteligência artificial, como o ChatGPT, o Bard e outras similares, que respondem a perguntas feitas por seus usuários.

Vivaldo José Breternitz (*)

Pesquisadores do Oxford Internet Institute descobriram que essas ferramentas tem uma tendência assustadora para produzirem alucinações, ou seja, gerar conteúdos com falhas que são apresentados de forma a perecerem confiáveis.

De acordo o trabalho desses pesquisadores, publicado pela Nature Human Behaviour, os LLMs são projetados para produzir respostas úteis e convincentes, porém sem garantia de precisão – muitas delas podem ser classificadas como alucinações. Como nesse momento os LLMs vem sendo tratados como fontes de conhecimento, muitas vezes as alucinações acabam induzindo pesquisadores, profissionais e estudantes a erros.

Isso acontece porque os dados com os quais os LLMs são alimentados, treinados como se diz na linguagem técnica, nem sempre são corretos, frequentemente são dados disponíveis na internet que podem ser falsos, imprecisos ou conterem opiniões enviesadas.

O Professor Brent Mittelstadt, um dos pesquisadores que desenvolveu o estudo, disse que os usuários dos LLMs muitas vezes confiam na tecnologia de forma semelhante à que confiariam numa informação dada por uma pessoa; isso ocorre porque as respostas às indagações dos usuários são apresentadas na forma de textos bem produzidos, mesmo quando contém erros ou são enviesadas – isso é perigoso, especialmente quando se trata de ciência e educação, onde a precisão da informação é de vital importância.

Concluindo, os pesquisadores dizem que os LLMs “indubitavelmente” ajudarão no desenvolvimento científico, mas que é crucial usá-los de maneira cautelosa, mantendo expectativas claras sobre como eles podem realmente contribuir.

O tema vem ganhando tanta importância que “alucinar” foi eleita a palavra do ano para 2023 pelo dicionário de Cambridge. Outrora confinada ao ramo da psicologia, o dicionário atribui-lhe mais um significado, graças à emergência da inteligência artificial.

Originalmente, o termo era definido pelo dicionário como “Verbo. Achar que se vê, ouve, sente ou cheira algo que não existe, normalmente influenciado por doença ou consumo de drogas”. Agora, a palavra passa a estar também associada às informações falsas produzidas pelas novas ferramentas de inteligência artificial.

(*) Doutor em Ciências pela Universidade de São Paulo, é professor da FATEC SP, consultor e diretor do Fórum Brasileiro de Internet das Coisas.