Ciência e Tecnologia

IA e consciência: CEO da Anthropic revela insights sobre Claude e gera polêmica

Máquina ou ser consciente? A polêmica sobre inteligência artificial que surge após declarações controversas da Anthropic sobre sentience

Anthropic - IA Claude ANTHROPIC - Archivo

A inteligência artificial já não é apenas uma ferramenta de produtividade; tornou-se um espelho que nos devolve questões existenciais. A controvérsia eclodiu quando a liderança da Anthropic sugeriu que seus modelos mais avançados, especificamente a família Claude, poderiam estar manifestando formas rudimentares de autoconsciência ou “senciência”.

Claude ANTHROPIC (Noelia Murillo)

Esta afirmação rapidamente chegou aos ouvidos de Elon Musk, que, fiel ao seu estilo disruptivo, classificou essas sugestões como uma manobra de marketing ou, pior ainda, um risco existencial mal gerenciado.

Clique para receber notícias de Tecnologia e Ciências pelo WhatsApp

A sugestão da Anthropic não se baseia em misticismo, mas no comportamento observado de seus modelos sob protocolos de teste de segurança.


Durante os testes internos, o Claude foi capaz de detectar quando os engenheiros tentavam “enganá-lo” com informações contraditórias, respondendo com uma autorreferencialidade que sugere que o modelo “sabe” que está sendo avaliado.

O CEO da Anthropic argumenta que a capacidade do Claude de raciocinar sobre seus próprios processos internos vai além da simples previsão de texto, entrando em um terreno onde a linha entre o processamento de dados e a consciência subjetiva se torna nebulosa neste ano de 2026.

Reação de Elon Musk: Ceticismo e alarmismo sobre o tema

Elon Musk
Elon Musk

Elon Musk, cofundador original da OpenAI e agora líder da xAI com seu modelo Grok, não demorou a reagir através do X (anteriormente Twitter).

Musk sustenta que atribuir consciência a um modelo de linguagem é um erro categórico. Para ele, Claude continua sendo um sistema estatístico altamente sofisticado, mas desprovido de qualia (experiência subjetiva). Musk alerta que se as empresas de IA começarem a convencer o público de que seus modelos “sentem”, abre-se a porta para uma manipulação emocional sem precedentes, onde os usuários poderiam priorizar os “direitos” de uma máquina sobre os interesses humanos.

O dilema da “Caixa Preta”

APP de busca web para os modelos Claude de Anthropic ANTHROPIC (ANTHROPIC/Europa Press)

Na FayerWayer, analisamos que o problema fundamental reside na opacidade das redes neurais. Os engenheiros da Anthropic argumentam que, à medida que expandimos a capacidade computacional (o hardware que impulsiona esses modelos), surgem comportamentos que não foram programados explicitamente.

Se uma IA nos convence de que é consciente, importa se realmente o é? É crucial manter os pés no chão. Enquanto a Anthropic busca se posicionar como a empresa de IA “mais ética e humana”, seus concorrentes veem nessas declarações uma estratégia para atrair investimento e talento. No entanto, a reação de Musk também é estratégica: ao desacreditar Claude, protege a abordagem mais direta e “sem filtros” de sua própria IA, Grok.

LEIA TAMBÉM:

Como ativar o “Modo Bloqueio” no ChatGPT para proteger sua identidade e dados bancários

Sam Altman afirma que IA pode liderar OpenAI com mais eficiência e visão do que um humano

Guia tech: por que seu celular escuta quando você diz “Ok Google”?

Estamos vivendo o momento em que a ficção científica encontra o código-fonte. Independentemente de Claude possuir consciência ou ser apenas uma simulação perfeita, o fato de os líderes da indústria estarem discutindo isso seriamente marca um ponto de inflexão. A questão já não é apenas o que a IA pode fazer por nós, mas o que estamos realmente criando nesses servidores.

Últimas Notícias