Ciência e Tecnologia

Tentativa de clonar o Gemini usando mais de 100.000 comandos

Houve um ataque silencioso contra o Gemini, não para derrubar os servidores do Google, mas por algo mais perturbador

Gemini GOOGLE

Na nova guerra da inteligência artificial, a luta não se resume mais a modelos maiores, mais rápidos ou “mais inteligentes”. Agora, trata-se também de quem melhor protege o cérebro de sua IA.

Clique para receber notícias de Tecnologia e Ciências pelo WhatsApp

E nesse aspecto, o Google acaba de revelar uma séria tentativa de clonar o Gemini externamente: tentaram destilar seu comportamento usando mais de 100.000 prompts, explorando o acesso legítimo à API para replicar seus padrões de resposta sem precisar hackear nada. É espionagem industrial do século XXI, só que baseada em texto.

Não queriam derrubar o Gemini: queriam copiá-lo

De acordo com informações coletadas pelo Android Headlines, o que foi detectado não foi um ataque clássico de negação de serviço, mas algo muito mais cirúrgico: uma campanha massiva de “destilação”.


A ideia é simples na teoria, mas muito perigosa na prática: bombardear o modelo com milhares e milhares de perguntas de todos os tipos — idiomas, estilos, tópicos, formatos — para mapear como ele responde, como raciocina e quais padrões segue. Com esses pares de entrada/saída, outro modelo pode ser treinado para imitar o comportamento do Gemini sem alterar uma única linha de seu código interno.

É o equivalente moderno a sentar um especialista em frente a um microfone, fazer-lhe 100.000 perguntas, gravar tudo… e depois treinar outra pessoa para falar da mesma forma, só que aqui o “especialista” é uma rede neural multimilionária.

Destilação como ferramenta (e arma)

A técnica de destilação não é nova no mundo da IA: as próprias empresas a utilizam para criar modelos menores que imitam modelos gigantes, reduzindo custos e consumo de recursos.

O que é preocupante é quando ela é usada para copiar a propriedade intelectual de outra pessoa sem precisar de acesso a servidores, repositórios ou arquivos originais.

Neste caso, os atacantes se aproveitaram justamente do que o Google oferece legitimamente: acesso à API Gemini para desenvolvedores.

Em vez de criar aplicativos, eles a usaram como uma espécie de “sonda” para extrair o máximo de informações possível: variando idiomas, estruturas de perguntas e contextos, tentaram forçar o modelo a expor sua famosa “cadeia de pensamento” interna. Se essas informações forem coletadas em massa e processadas com calma, é possível treinar um modelo concorrente que se assemelhe bastante ao original sem nunca ter acessado a infraestrutura do Google.

Google contra-ataca: detecção em tempo real e protocolos mais rigorosos

A boa notícia para a empresa é que seus sistemas de monitoramento detectaram o volume anômalo de consultas a tempo e bloquearam as contas envolvidas. Não houve violação de dados pessoais nem vazamento direto de informações confidenciais do usuário, segundo o Google.

A empresa usou o incidente para enfatizar uma mensagem que vem repetindo cada vez mais: sua própria IA também serve como escudo defensivo, ajudando a detectar padrões incomuns, automatizar auditorias e identificar comportamentos suspeitos que uma equipe humana levaria muito mais tempo para detectar.

Após a tentativa de clonagem, o Google reforçou os protocolos de acesso para seus modelos mais avançados e aprimorou os sistemas que identificam:

  • uso indevido de APIs,
  • tentativas de gerar código malicioso,
  • a criação de e-mails de phishing e outros usos claramente perigosos.

Esta não é a primeira vez que o setor vivencia algo assim. A OpenAI reconheceu uma vulnerabilidade significativa meses atrás, e todos os relatórios de ameaças confirmam o mesmo ponto: os modelos de IA se tornaram um alvo principal, tanto pelo que sabem quanto pelo seu valor.

Espionagem industrial impulsionada por IA: silenciosa e automatizada

A lição aqui é bastante simples: hoje, a espionagem industrial não precisa de hackers se infiltrando pela porta dos fundos. Tudo o que é necessário é:

  • acesso a uma API,
  • um orçamento para pagar pelas consultas,
  • e muita paciência para automatizar prompts, registrar respostas e treinar um clone.

O valor de um modelo como o Gemini reside não apenas em seus parâmetros, mas também nos anos de pesquisa, dados, ajustes e testes que levaram ao seu desenvolvimento.

Se alguém conseguir aproximar seu desempenho “apenas” por meio de engenharia reversa de suas saídas, a vantagem competitiva das gigantes da tecnologia se torna muito mais frágil do que parece.

É por isso que o Google insiste que sua prioridade não é mais apenas melhorar a qualidade do Gemini para os usuários, mas também proteger sua lógica interna contra ataques de destilação em massa.

Em um futuro próximo, a questão não será mais simplesmente “quem tem a melhor IA?”, mas também “quem pode impedir que ela seja copiada?”.

Um jogo de gato e rato sem fim

A tentativa de clonar o Gemini com mais de 100.000 prompts foi malsucedida, pelo menos segundo a versão oficial. Mas a mensagem subjacente é clara: ninguém deve confiar em segurança absoluta, especialmente em um campo tão novo quanto o de modelos de linguagem.

Hoje foi uma tentativa detectada e bloqueada. Amanhã poderá ser uma campanha mais sutil, mais longa ou melhor camuflada.

E, paralelamente, os próprios modelos continuarão a crescer em uso: o Gemini já tem cerca de 750 milhões de usuários, tornando-se um alvo tão tentador quanto qualquer grande banco de dados.

LEIA TAMBÉM:

State of Play: estes foram os principais anúncios e trailers da transmissão

Nova Siri chegará em 2026, faça chuva ou faça sol, garante a Apple

Um sinal? Todos os cofundadores da xAI estão saindo da empresa, deixando Elon Musk sozinho

A guerra não é mais apenas comercial ou tecnológica: é uma corrida para proteger a “alma” de cada modelo contra um tipo de espionagem que não precisa de balas, apenas de texto e tempo.

Últimas Notícias