362 views 5 mins

OpenAI lança ChatGPT Health mas recomenda não o usar para fins médicos

em Tecnologia
quarta-feira, 14 de janeiro de 2026

Embora os chatbots de Inteligência Artificial (IA) sejam muito populares, eles têm gerando uma enxurrada de desinformação que tem alarmado especialistas.

Vivaldo José Breternitz (*)

Uma investigação recente do jornal britânico The Guardian revelou que os “AI Overviews” do Google, que acompanham a maioria das páginas de resultados de busca forneceram diversas informações de saúde imprecisas que podem levar a riscos graves se seguidas.

Aparentemente indiferente aos repetidos avisos de que os conselhos médicos dados por IA não são confiáveis, a OpenAI está dobrando a aposta com o lançamento do ChatGPT Health. O novo recurso promete processar os registros médicos dos usuários para gerar respostas “mais relevantes e úteis”.

Apesar de ser “projetado em estreita colaboração com médicos” e construído sob “fortes controles de privacidade, segurança e dados”, a empresa ressalta que o recurso foi feito para “apoiar, e não substituir, o atendimento médico”. Na verdade, a ferramenta chega ao mercado com uma ressalva contraditória: a de que este recurso de saúde personalizado “não se destina ao diagnóstico ou tratamento”.

“O ChatGPT Health ajuda as pessoas a desempenharem um papel mais ativo na compreensão e gestão de sua saúde e bem-estar, ao mesmo tempo em que apoia, e não substitui, o cuidado de médicos”, diz o site da empresa. Na prática, porém, é certo que os usuários utilizarão a ferramenta exatamente para o tipo de aconselhamento que a OpenAI desaconselha, o que pode gerar problemas sérios, inclusive mortes.

O problema apenas agrava dilemas já existentes. Como reportado pelo grupo de mídia americano, Business Insider, o ChatGPT está transformando pessoas em médicos amadores, gerando preocupações entre os profissionais da área.

Além dos riscos referentes ao uso equivocado de medicamentos, há ainda a questão da privacidade. Usuários parecem dispostos a entregar históricos médicos e informações altamente sensíveis, uma decisão agora incentivada pelo ChatGPT Health. De forma similar, Elon Musk incentivou usuários a enviar dados médicos para o Grok, ferramenta concorrente do concorrente do ChatGPT.

Essa mO resultado foi uma onda de confusão, com usuários recebendo diagnósticos alucinados após compartilharem exames de raio-X e tomografias (PET scans).

Especialistasedida alertam que, dado o histórico da indústria de IA com vazamentos de dados, os riscos são iminentes. “Os dados de saúde são algumas das informações mais sensíveis que as pessoas podem compartilhar e devem ser protegidos”, afirmou Andrew Crawford, conselheiro sênior do Center for Democracy and Technology, à BBC.

Crawford destaca que, com a OpenAI explorando a publicidade como modelo de negócio, a separação entre dados de saúde e outras interações do ChatGPT precisa ser “estanque”. Como não há leis específicas para esses casos, as empresas definem suas próprias regras e podem alterar os termos de serviço a qualquer momento.

Riscos Jurídicos e de Segurança
Por fim, há o temor de que dados sensíveis, como informações de saúde reprodutiva, sejam repassados à polícia sem o consentimento do usuário. “Como a OpenAI lida com solicitações de autoridades?”, questiona Crawford. “Eles simplesmente entregam as informações? O usuário é informado de alguma forma? São muitas perguntas para as quais ainda não temos boas respostas.”

(*) Doutor em Ciências pela Universidade de São Paulo, é professor, consultor e diretor do Fórum Brasileiro de Internet das Coisas – [email protected].