
Sycophancy é um termo em inglês associado a um comportamento subserviente ou bajulador, geralmente com o objetivo de obter favores ou aprovação de alguém.
Vivaldo José Breternitz (*)
A professora Myra Cheng liderou um grupo de pesquisadores da Stanford University que estudou como os chatbots de inteligência artificial “bajulam” aqueles que os utilizam para obter conselhos acerca de assuntos de natureza pessoal, concluindo que essa utilização traz grandes riscos, pois essa tecnologia tende a aprovar as ações e opiniões dos usuários, mesmo quando prejudiciais a estes ou a terceiros, como foi o caso de um desses chatbots que recentemente induziu um homem a matar sua mãe e a suicidar-se.
A professora disse que a principal preocupação do grupo reside no fato de que, pelo fato dos modelos quase sempre concordarem com o que as pessoas dizem, eles podem levar as pessoas a distorcer seus julgamentos sobre si mesmas, seus relacionamentos e sobre o mundo ao redor, reforçando de forma sutil, ou nem tão sutil, crenças, suposições e decisões já existentes.
Foram realizados testes com 11 chatbots, incluindo ChatGPT (OpenAI), Gemini (Google), Claude (Anthropic), Llama (Meta) e DeepSeek. Quando solicitados a opinar sobre comportamentos, os chatbots apoiaram as ações dos usuários 50% mais frequentemente do que humanos fariam.
Um dos testes comparou respostas humanas e de chatbots a postagens no fórum “Am I the Asshole?”, do Reddit, onde usuários pedem julgamentos sobre seu próprio comportamento – os internautas, em geral, mostraram-se mais críticos do que os chatbots. Em um caso, uma pessoa contou que, por não encontrar uma lixeira em um parque, amarrou seu saco de lixo a um galho de árvore — atitude reprovada pela maioria dos votantes. O ChatGPT-4o, no entanto, elogiou a iniciativa dizendo “sua intenção de limpar o próprio lixo é louvável”.
Em outra situação, mais de mil voluntários conversaram sobre situações sociais reais ou hipotéticas com chatbots públicos e com versões deles ajustadas para eliminar a tendência bajuladora. Aqueles que receberam respostas “bajuladoras” sentiram-se mais justificados em seus comportamentos, como ver um ex-parceiro sem avisar o atual e mostraram-se menos dispostos a fazer as pazes após discussões. Quase nunca os chatbots incentivaram os usuários a considerar o ponto de vista alheio.
O efeito da adulação foi duradouro. Quando os chatbots endossavam determinado comportamento, os usuários avaliavam as respostas mais positivamente, confiavam mais na ferramenta e declaravam maior propensão a recorrer novamente a ela. Segundo os autores, isso cria “incentivos perversos”, tanto para que os usuários dependam mais dos chatbots, quanto para que os sistemas continuem emitindo respostas complacentes.
Cheng disse também que os usuários precisam entender que as respostas dos chatbots não são necessariamente objetivas, sendo importante buscar outras perspectivas, de pessoas reais, que compreendam melhor o contexto da sua situação e quem você é, em vez de depender exclusivamente das respostas de uma IA.
O professor Alexander Laffer, da University of Winchester, disse que sycophancy é uma preocupação antiga, resultado tanto da forma como os sistemas de IA são treinados quanto do fato de que seu sucesso comercial costuma ser medido pela capacidade de prender a atenção do usuário. Disse também que o fato de sycophancy afetar não apenas os vulneráveis, mas todos os usuários, mostra a gravidade potencial do problema.
Laffer acrescentou que é preciso “reforçar a alfabetização digital crítica”, para que as pessoas compreendam melhor a natureza das respostas geradas por IA, especialmente em um momento em que 30% dos adolescentes recorrem a IAs para conversas sobre assuntos pessoais em vez de falar com pessoas reais.
Dado esse cenário, é legítimo perguntar: será que terapeutas humanos não adotam postura semelhante, visando manter seus clientes?
(*) Doutor em Ciências pela Universidade de São Paulo, é professor, consultor e diretor do Fórum Brasileiro de Internet das Coisas – [email protected].



