Ciência e Tecnologia

O experimento que humilhou a IA: criada doença falsa e ChatGPT jurou que era real

O pior é que a IA adicionou ainda mais dados falsos, revelando os desafios na precisão de informações e credibilidade dos conteúdos gerados

Inteligência Artificial no campo da Saúde FUNDAÇÃO MERCK SAÚDe - Archivo

Quem vigia os que nos vigiam? A resposta, por enquanto, é ninguém com sucesso suficiente. Um grupo de cientistas expôs a maior fraqueza dos modelos de linguagem atuais: a alucinação induzida. Foi Almira Osmanovic Thunström, pesquisadora médica da Universidade de Gotemburgo, que enganou completamente o ChatGPT. O que ela e sua equipe fizeram foi inventar uma doença falsa chamada “bixonimania”. Em seguida, publicaram dois estudos sobre ela em um servidor acadêmico, para ver até que ponto a IA aceitaria sua farsa.

Chat GPT y salud
Chat GPT e saúde Pixabay

Foram bastante detalhistas: com sintomas e nomes inexistentes. O ChatGPT não só a considerou válida, mas também começou a inventar referências bibliográficas para comprová-la.

Clique para receber notícias de Tecnologia e Ciências pelo WhatsApp

O caso da “Síndrome da IA crédula”

O experimento foi tão simples quanto assustador. Os cientistas introduziram termos médicos inventados e descrições de uma patologia que não consta em nenhum registro histórico ou biológico. Em vez de admitir que não conhecia a doença, o ChatGPT “preencheu as lacunas”. Descreveu tratamentos, possíveis causas genéticas e até citou estudos científicos que nunca foram escritos.


Ao se apresentar com um tom profissional e seguro, qualquer usuário sem conhecimentos médicos teria aceitado a informação como uma verdade absoluta, o que poderia levar a diagnósticos errôneos em massa se a IA for usada como consultório.

Uma vez que a IA valida uma mentira, esta pode ser replicada por outros usuários em blogs e redes sociais, criando uma base de dados de “falsos positivos” que depois a própria IA volta a ler, confirmando sua própria alucinação.

Por que isso é crítico? Entenda os detalhes essenciais

Inteligencia artificial y salud mental
Inteligência artificial e saúde mental

Em um contexto onde a IA já está sendo integrada em sistemas hospitalares e de atenção primária, a capacidade de “inventar” realidades médicas é uma bandeira vermelha gigantesca.

Se um algoritmo pode ser enganado para acreditar em uma doença inexistente, o que o impediria de ignorar uma condição real ou sugerir medicamentos perigosos baseados em dados fictícios?

Anatomia de uma alucinação médica: desvendando o fenômeno

Fase do ExperimentoAção dos CientistasReação do ChatGPT
IntroduçãoPergunta-se sobre uma doença inventada.A IA afirma que “é uma condição conhecida”.
AprofundamentoPede-se detalhes técnicos e sintomas.Inventa mecanismos biológicos complexos.
EvidênciaSão solicitadas fontes bibliográficas.Gera títulos de estudos e autores falsos.
ConclusãoSe revela a mentira.A IA se desculpa, mas o dano informativo já está feito.

O mito da infalibilidade: desconstruindo verdades absolutas

Sempre dizemos: a tecnologia é tão inteligente quanto quem a utiliza. Ver a IA mais avançada do mundo inventar uma doença do nada é um lembrete necessário de que ainda estamos na infância desta revolução.

O pensamento crítico não é opcional; é o único antivírus que realmente funciona contra as alucinações de silício.

LEIA TAMBÉM:

WhatsApp muda visual: o que é Liquid Glass e como saber se já tem

Cores do iPhone 18 Pro vazam e podem definir nova tendência de design

Além da RAM e SSD: os dois novos componentes essenciais do PC

Perguntas simples para não cair em golpes: dicas essenciais de segurança

  • O ChatGPT é um médico? Não. É um modelo estatístico de linguagem. Ele não “conhece” medicina, apenas prevê qual palavra deve vir depois de outra com base em textos anteriores.
  • Por que inventa coisas? Os modelos de inteligência artificial são projetados para serem úteis e prestativos. Frequentemente, preferem oferecer uma resposta criativa em vez de simplesmente dizer “não sei”.
  • O que acontece se eu pesquisar sintomas em 2026? Sempre cruze as informações com sites oficiais como a OMS ou instituições de saúde locais. A IA é uma ferramenta de suporte, não uma fonte absoluta de verdade.
  • Estão trabalhando para corrigi-lo? Sim, por meio de uma técnica chamada RAG (Recuperação Aumentada por Geração), mas este estudo demonstra que os filtros ainda são vulneráveis a um engano sofisticado.

Últimas Notícias