Quem vigia os que nos vigiam? A resposta, por enquanto, é ninguém com sucesso suficiente. Um grupo de cientistas expôs a maior fraqueza dos modelos de linguagem atuais: a alucinação induzida. Foi Almira Osmanovic Thunström, pesquisadora médica da Universidade de Gotemburgo, que enganou completamente o ChatGPT. O que ela e sua equipe fizeram foi inventar uma doença falsa chamada “bixonimania”. Em seguida, publicaram dois estudos sobre ela em um servidor acadêmico, para ver até que ponto a IA aceitaria sua farsa.

Foram bastante detalhistas: com sintomas e nomes inexistentes. O ChatGPT não só a considerou válida, mas também começou a inventar referências bibliográficas para comprová-la.
Clique para receber notícias de Tecnologia e Ciências pelo WhatsApp
O caso da “Síndrome da IA crédula”
O experimento foi tão simples quanto assustador. Os cientistas introduziram termos médicos inventados e descrições de uma patologia que não consta em nenhum registro histórico ou biológico. Em vez de admitir que não conhecia a doença, o ChatGPT “preencheu as lacunas”. Descreveu tratamentos, possíveis causas genéticas e até citou estudos científicos que nunca foram escritos.
Ao se apresentar com um tom profissional e seguro, qualquer usuário sem conhecimentos médicos teria aceitado a informação como uma verdade absoluta, o que poderia levar a diagnósticos errôneos em massa se a IA for usada como consultório.
Uma vez que a IA valida uma mentira, esta pode ser replicada por outros usuários em blogs e redes sociais, criando uma base de dados de “falsos positivos” que depois a própria IA volta a ler, confirmando sua própria alucinação.
Por que isso é crítico? Entenda os detalhes essenciais

Em um contexto onde a IA já está sendo integrada em sistemas hospitalares e de atenção primária, a capacidade de “inventar” realidades médicas é uma bandeira vermelha gigantesca.
Se um algoritmo pode ser enganado para acreditar em uma doença inexistente, o que o impediria de ignorar uma condição real ou sugerir medicamentos perigosos baseados em dados fictícios?
Anatomia de uma alucinação médica: desvendando o fenômeno
| Fase do Experimento | Ação dos Cientistas | Reação do ChatGPT |
|---|---|---|
| Introdução | Pergunta-se sobre uma doença inventada. | A IA afirma que “é uma condição conhecida”. |
| Aprofundamento | Pede-se detalhes técnicos e sintomas. | Inventa mecanismos biológicos complexos. |
| Evidência | São solicitadas fontes bibliográficas. | Gera títulos de estudos e autores falsos. |
| Conclusão | Se revela a mentira. | A IA se desculpa, mas o dano informativo já está feito. |
O mito da infalibilidade: desconstruindo verdades absolutas
Sempre dizemos: a tecnologia é tão inteligente quanto quem a utiliza. Ver a IA mais avançada do mundo inventar uma doença do nada é um lembrete necessário de que ainda estamos na infância desta revolução.
O pensamento crítico não é opcional; é o único antivírus que realmente funciona contra as alucinações de silício.
LEIA TAMBÉM:
WhatsApp muda visual: o que é Liquid Glass e como saber se já tem
Cores do iPhone 18 Pro vazam e podem definir nova tendência de design
Além da RAM e SSD: os dois novos componentes essenciais do PC
Perguntas simples para não cair em golpes: dicas essenciais de segurança
- O ChatGPT é um médico? Não. É um modelo estatístico de linguagem. Ele não “conhece” medicina, apenas prevê qual palavra deve vir depois de outra com base em textos anteriores.
- Por que inventa coisas? Os modelos de inteligência artificial são projetados para serem úteis e prestativos. Frequentemente, preferem oferecer uma resposta criativa em vez de simplesmente dizer “não sei”.
- O que acontece se eu pesquisar sintomas em 2026? Sempre cruze as informações com sites oficiais como a OMS ou instituições de saúde locais. A IA é uma ferramenta de suporte, não uma fonte absoluta de verdade.
- Estão trabalhando para corrigi-lo? Sim, por meio de uma técnica chamada RAG (Recuperação Aumentada por Geração), mas este estudo demonstra que os filtros ainda são vulneráveis a um engano sofisticado.
