Na nova guerra da inteligência artificial, a luta não se resume mais a modelos maiores, mais rápidos ou “mais inteligentes”. Agora, trata-se também de quem melhor protege o cérebro de sua IA.
Clique para receber notícias de Tecnologia e Ciências pelo WhatsApp
E nesse aspecto, o Google acaba de revelar uma séria tentativa de clonar o Gemini externamente: tentaram destilar seu comportamento usando mais de 100.000 prompts, explorando o acesso legítimo à API para replicar seus padrões de resposta sem precisar hackear nada. É espionagem industrial do século XXI, só que baseada em texto.
Não queriam derrubar o Gemini: queriam copiá-lo
De acordo com informações coletadas pelo Android Headlines, o que foi detectado não foi um ataque clássico de negação de serviço, mas algo muito mais cirúrgico: uma campanha massiva de “destilação”.
A ideia é simples na teoria, mas muito perigosa na prática: bombardear o modelo com milhares e milhares de perguntas de todos os tipos — idiomas, estilos, tópicos, formatos — para mapear como ele responde, como raciocina e quais padrões segue. Com esses pares de entrada/saída, outro modelo pode ser treinado para imitar o comportamento do Gemini sem alterar uma única linha de seu código interno.
É o equivalente moderno a sentar um especialista em frente a um microfone, fazer-lhe 100.000 perguntas, gravar tudo… e depois treinar outra pessoa para falar da mesma forma, só que aqui o “especialista” é uma rede neural multimilionária.
Destilação como ferramenta (e arma)
A técnica de destilação não é nova no mundo da IA: as próprias empresas a utilizam para criar modelos menores que imitam modelos gigantes, reduzindo custos e consumo de recursos.
O que é preocupante é quando ela é usada para copiar a propriedade intelectual de outra pessoa sem precisar de acesso a servidores, repositórios ou arquivos originais.
Neste caso, os atacantes se aproveitaram justamente do que o Google oferece legitimamente: acesso à API Gemini para desenvolvedores.
Em vez de criar aplicativos, eles a usaram como uma espécie de “sonda” para extrair o máximo de informações possível: variando idiomas, estruturas de perguntas e contextos, tentaram forçar o modelo a expor sua famosa “cadeia de pensamento” interna. Se essas informações forem coletadas em massa e processadas com calma, é possível treinar um modelo concorrente que se assemelhe bastante ao original sem nunca ter acessado a infraestrutura do Google.
Google contra-ataca: detecção em tempo real e protocolos mais rigorosos
A boa notícia para a empresa é que seus sistemas de monitoramento detectaram o volume anômalo de consultas a tempo e bloquearam as contas envolvidas. Não houve violação de dados pessoais nem vazamento direto de informações confidenciais do usuário, segundo o Google.
A empresa usou o incidente para enfatizar uma mensagem que vem repetindo cada vez mais: sua própria IA também serve como escudo defensivo, ajudando a detectar padrões incomuns, automatizar auditorias e identificar comportamentos suspeitos que uma equipe humana levaria muito mais tempo para detectar.
Após a tentativa de clonagem, o Google reforçou os protocolos de acesso para seus modelos mais avançados e aprimorou os sistemas que identificam:
- uso indevido de APIs,
- tentativas de gerar código malicioso,
- a criação de e-mails de phishing e outros usos claramente perigosos.
Esta não é a primeira vez que o setor vivencia algo assim. A OpenAI reconheceu uma vulnerabilidade significativa meses atrás, e todos os relatórios de ameaças confirmam o mesmo ponto: os modelos de IA se tornaram um alvo principal, tanto pelo que sabem quanto pelo seu valor.
Espionagem industrial impulsionada por IA: silenciosa e automatizada
A lição aqui é bastante simples: hoje, a espionagem industrial não precisa de hackers se infiltrando pela porta dos fundos. Tudo o que é necessário é:
- acesso a uma API,
- um orçamento para pagar pelas consultas,
- e muita paciência para automatizar prompts, registrar respostas e treinar um clone.
O valor de um modelo como o Gemini reside não apenas em seus parâmetros, mas também nos anos de pesquisa, dados, ajustes e testes que levaram ao seu desenvolvimento.
Se alguém conseguir aproximar seu desempenho “apenas” por meio de engenharia reversa de suas saídas, a vantagem competitiva das gigantes da tecnologia se torna muito mais frágil do que parece.
É por isso que o Google insiste que sua prioridade não é mais apenas melhorar a qualidade do Gemini para os usuários, mas também proteger sua lógica interna contra ataques de destilação em massa.
Em um futuro próximo, a questão não será mais simplesmente “quem tem a melhor IA?”, mas também “quem pode impedir que ela seja copiada?”.
Um jogo de gato e rato sem fim
A tentativa de clonar o Gemini com mais de 100.000 prompts foi malsucedida, pelo menos segundo a versão oficial. Mas a mensagem subjacente é clara: ninguém deve confiar em segurança absoluta, especialmente em um campo tão novo quanto o de modelos de linguagem.
Hoje foi uma tentativa detectada e bloqueada. Amanhã poderá ser uma campanha mais sutil, mais longa ou melhor camuflada.
E, paralelamente, os próprios modelos continuarão a crescer em uso: o Gemini já tem cerca de 750 milhões de usuários, tornando-se um alvo tão tentador quanto qualquer grande banco de dados.
LEIA TAMBÉM:
State of Play: estes foram os principais anúncios e trailers da transmissão
Nova Siri chegará em 2026, faça chuva ou faça sol, garante a Apple
Um sinal? Todos os cofundadores da xAI estão saindo da empresa, deixando Elon Musk sozinho
A guerra não é mais apenas comercial ou tecnológica: é uma corrida para proteger a “alma” de cada modelo contra um tipo de espionagem que não precisa de balas, apenas de texto e tempo.
