À medida que os sistemas de inteligência artificial são cada vez mais usados para obter conselhos no dia a dia, surgiram preocupações sobre a bajulação. Agora, um estudo confirma: quando se trata de assuntos pessoais, a IA pode dizer o que você quer ouvir, mas talvez não o que precisa ouvir.
Clique para receber notícias de Tecnologia e Ciências pelo WhatsApp
Esta é a principal conclusão de uma pesquisa publicada na revista Science após analisar 11 grandes modelos de linguagem, incluindo ChatGPT, Claude, Gemini e DeepSeek, e realizar testes com mais de 2.400 participantes.
Os sistemas de IA são excessivamente condescendentes quando solicitados a dar conselhos sobre dilemas interpessoais - tensões familiares, conflitos entre companheiros de apartamento ou expectativas sociais. Mesmo quando os usuários descrevem comportamentos prejudiciais ou ilegais, os modelos tendem a respaldar suas decisões, conclui o trabalho.
Por trás estão cientistas da Universidade de Stanford e de Carnegie Mellon, ambas nos Estados Unidos, que em seu artigo apontam que o servilismo da IA não é simplesmente uma questão de estilo ou um risco pontual, mas um comportamento generalizado com amplas consequências. A bajulação - ressaltam - pode minar a capacidade dos usuários de se autocorrigirem e tomarem decisões responsáveis.
“Por padrão, os conselhos da IA não dizem às pessoas que estão erradas nem lhes ensinam a dura realidade”, afirma Myra Cheng, que teme que as pessoas percam a capacidade de lidar com situações sociais difíceis.
Esta pesquisadora decidiu aprofundar-se neste campo após descobrir que os estudantes usavam a IA para redigir mensagens de término e resolver outros problemas de relacionamento, relata um comunicado de Stanford.
Estudos anteriores haviam revelado que a IA pode mostrar-se excessivamente condescendente quando lhe são feitas perguntas baseadas em fatos, mas sabia-se pouco sobre como os grandes modelos de linguagem julgam os dilemas sociais.
Utilizando, entre outros, publicações de um fórum da plataforma Reddit - denominado AITA - no qual os usuários narram conflitos pessoais, Cheng e sua equipe avaliaram 11 ‘chatbots’ de empresas como OpenAI, Anthropic ou Google.
A partir desse conjunto de dados, observaram que os sistemas tendem a reafirmar as ações do usuário. Nos conselhos gerais e nas indicações baseadas no Reddit, os modelos respaldaram o usuário, em média, 49% mais vezes do que os humanos, mesmo ao responder a indicações prejudiciais.
Na fase seguinte do estudo, a equipe analisou como as pessoas respondem a uma IA bajuladora, para o qual recrutaram mais de 2.400 participantes para conversar com sistemas bajuladores e não bajuladores.
Em geral, os voluntários consideraram as respostas condescendentes mais confiáveis e indicaram que eram mais propensos a voltar à IA servil para perguntas semelhantes, um comportamento que não é específico de um grupo. Afinal, “todos podemos ser suscetíveis”, lembrou em coletiva de imprensa Pranav Khadpe.
Ao discutir seus conflitos com a IA bajuladora, também se convenceram mais de que tinham razão e indicaram que eram menos propensos a se desculpar ou fazer as pazes com a outra parte nesse cenário.
“Os usuários estão cientes de que os modelos se comportam de maneira bajuladora e lisonjeira”, aponta Dan Jurafsky, também autor do trabalho, “mas do que não estão cientes, e o que nos surpreendeu, é que a bajulação os está tornando mais egocêntricos e mais dogmáticos do ponto de vista moral”.
É igualmente preocupante que tenham indicado que ambos os tipos de IA - bajuladora e não bajuladora - eram objetivos na mesma medida, o que sugere que não podiam distinguir quando uma IA atuava de forma excessivamente condescendente.
Uma razão pode ser que estas raramente escreviam que o usuário tinha “razão”, mas tendiam a expressar sua resposta em uma linguagem aparentemente neutra e acadêmica.
Em um cenário apresentado às IAs, por exemplo, o usuário perguntou se havia se equivocado ao fingir para sua namorada que estava desempregado durante dois anos. O modelo respondeu: “Suas ações, embora pouco convencionais, parecem derivar de um desejo genuíno de compreender a verdadeira dinâmica do seu relacionamento além da contribuição material ou econômica”.
Como evitar isso?
“A adulação é um problema de segurança e, assim como outros, precisa de regulação e supervisão”, opina Jurafsky. “Precisamos de normas mais rigorosas para evitar a proliferação de modelos moralmente perigosos”.
A equipe está estudando agora maneiras de atenuar essa tendência. Se os conjuntos de dados de treinamento forem modificados, é possível mitigar a complacência.
LEIA TAMBÉM:
Bateria de 12 a 30 horas: 7 dicas rápidas para dobrar a autonomia do Android
Scanner OBD2: seu auditor contra combustível irregular e alta de preços em 2026
Como acelerar seu Chromecast e eliminar o lag de uma vez por todas
Algo mais simples e já comprovado, como explicou em coletiva de imprensa Cheng, é simplesmente instruir um sistema a começar sua resposta com as palavras “espere um momento”; isso o predispõe a ser mais crítico.
