As três empresas estão trocando informações por meio do Frontier Model Forum, organização sem fins lucrativos que fundaram com a Microsoft em 2023, com o objetivo de detectar tentativas de “destilação adversarial” — quando terceiros extraem sistematicamente resultados de modelos proprietários para treinar seus próprios sistemas, em violação dos termos de uso. A informação é de pessoas a par do assunto.
A aliança inédita entre concorrentes diretos dá a medida da preocupação no setor. Empresas americanas de IA alertam que usuários, sobretudo na China, estão criando versões imitativas de seus produtos a custos muito menores, desviando clientes e gerando riscos à segurança nacional. Segundo uma pessoa familiarizada com levantamentos oficiais, autoridades dos EUA estimam que a destilação não autorizada custa aos laboratórios do Vale do Silício bilhões de dólares em lucro por ano.
A OpenAI confirmou participar da iniciativa e apontou para um memorando recente enviado ao Congresso, no qual acusou a chinesa DeepSeek de tentar “pegar carona nas capacidades desenvolvidas pela OpenAI e outros laboratórios de fronteira dos EUA”. Google, Anthropic e o Frontier Model Forum não comentaram.
Na destilação, um modelo de IA mais antigo — o “professor” — é usado para treinar um modelo mais novo, o “aluno”, que replica as capacidades do sistema original a um custo muito menor do que desenvolver tudo do zero. A técnica em si não é proibida. Laboratórios de IA a utilizam rotineiramente para criar versões menores e mais eficientes de seus próprios modelos, e permitem que desenvolvedores externos a apliquem para construir tecnologias que não concorram diretamente com seus produtos.
O problema surge quando terceiros — em particular de países adversários como China e Rússia — recorrem à destilação para copiar trabalho proprietário sem autorização. Laboratórios americanos alertam que a técnica pode ser usada para criar modelos sem travas de segurança, capazes, por exemplo, de ajudar na produção de um patógeno letal.
A maioria dos modelos chineses é de pesos abertos (open weight): partes do sistema ficam disponíveis para download gratuito e execução em plataformas próprias, o que os torna mais baratos. Para as empresas americanas, que mantiveram seus modelos proprietários e investiram centenas de bilhões de dólares em data centers, isso representa um desafio econômico direto.
O tema ganhou destaque em janeiro de 2025, semanas após a DeepSeek surpreender o mercado com o lançamento do R1, modelo de raciocínio que sacudiu o setor. Logo depois, Microsoft e OpenAI abriram uma investigação para apurar se a startup chinesa havia extraído indevidamente grandes volumes de dados dos modelos da empresa americana, conforme a Bloomberg reportou à época.
Em fevereiro, a OpenAI alertou parlamentares de que a DeepSeek seguia usando táticas cada vez mais sofisticadas para extrair resultados de modelos dos EUA, apesar dos esforços reforçados de prevenção. Em memorando ao Comitê Especial da Câmara para a China, a empresa afirmou que a DeepSeek recorria à destilação para desenvolver uma nova versão de seu chatbot.
A troca de informações entre as empresas americanas segue a lógica já estabelecida no setor de cibersegurança, onde firmas compartilham regularmente dados sobre ataques e táticas de adversários para fortalecer defesas. A ideia é a mesma: detectar a prática com mais eficácia, identificar os responsáveis e impedir que tenham sucesso.
O governo Trump sinalizou apoio à iniciativa. O Plano de Ação para IA apresentado no ano passado previu a criação de um centro de compartilhamento e análise de informações voltado, entre outros fins, a esse propósito. Na prática, porém, a troca de dados permanece limitada: as empresas ainda não têm clareza sobre o que podem compartilhar sem violar regras antitruste, e aguardam orientação mais precisa do governo, segundo fontes ouvidas pela reportagem.
A destilação é uma das principais preocupações do setor americano de IA desde que a DeepSeek abalou os mercados no início de 2025. Modelos de código aberto altamente capazes continuam a proliferar na China, e o mercado acompanha de perto a expectativa de uma grande atualização do sistema da DeepSeek.
No ano passado, a Anthropic bloqueou empresas controladas por chineses de usar seu chatbot Claude e, em fevereiro, identificou três laboratórios — DeepSeek, Moonshot e MiniMax — como responsáveis por extrair ilicitamente as capacidades do modelo por destilação. Neste ano, a empresa afirmou que a ameaça “vai além de qualquer empresa ou região isolada” e representa risco à segurança nacional, já que modelos destilados costumam vir sem as travas projetadas para impedir usos maliciosos.
O Google, por sua vez, publicou um post em blog informando ter detectado um aumento nas tentativas de extração. Até agora, nenhum dos três laboratórios apresentou evidências detalhando em que medida a inovação chinesa em IA depende da destilação — mas afirmam que a prevalência dos ataques pode ser medida pelo volume de requisições de dados em larga escala.