Rivais em praticamente tudo, OpenAI, Anthropic e Google começaram a trabalhar juntas em uma frente comum: impedir que concorrentes chineses copiem seus modelos de inteligência artificial mais avançados para ganhar vantagem na corrida global pela tecnologia.

As três empresas estão trocando informações por meio do Frontier Model Forum, organização sem fins lucrativos que fundaram com a Microsoft em 2023, com o objetivo de detectar tentativas de “destilação adversarial” — quando terceiros extraem sistematicamente resultados de modelos proprietários para treinar seus próprios sistemas, em violação dos termos de uso. A informação é de pessoas a par do assunto.

A aliança inédita entre concorrentes diretos dá a medida da preocupação no setor. Empresas americanas de IA alertam que usuários, sobretudo na China, estão criando versões imitativas de seus produtos a custos muito menores, desviando clientes e gerando riscos à segurança nacional. Segundo uma pessoa familiarizada com levantamentos oficiais, autoridades dos EUA estimam que a destilação não autorizada custa aos laboratórios do Vale do Silício bilhões de dólares em lucro por ano.

A OpenAI confirmou participar da iniciativa e apontou para um memorando recente enviado ao Congresso, no qual acusou a chinesa DeepSeek de tentar “pegar carona nas capacidades desenvolvidas pela OpenAI e outros laboratórios de fronteira dos EUA”. Google, Anthropic e o Frontier Model Forum não comentaram.

Na destilação, um modelo de IA mais antigo — o “professor” — é usado para treinar um modelo mais novo, o “aluno”, que replica as capacidades do sistema original a um custo muito menor do que desenvolver tudo do zero. A técnica em si não é proibida. Laboratórios de IA a utilizam rotineiramente para criar versões menores e mais eficientes de seus próprios modelos, e permitem que desenvolvedores externos a apliquem para construir tecnologias que não concorram diretamente com seus produtos.

O problema surge quando terceiros — em particular de países adversários como China e Rússia — recorrem à destilação para copiar trabalho proprietário sem autorização. Laboratórios americanos alertam que a técnica pode ser usada para criar modelos sem travas de segurança, capazes, por exemplo, de ajudar na produção de um patógeno letal.

A maioria dos modelos chineses é de pesos abertos (open weight): partes do sistema ficam disponíveis para download gratuito e execução em plataformas próprias, o que os torna mais baratos. Para as empresas americanas, que mantiveram seus modelos proprietários e investiram centenas de bilhões de dólares em data centers, isso representa um desafio econômico direto.

O tema ganhou destaque em janeiro de 2025, semanas após a DeepSeek surpreender o mercado com o lançamento do R1, modelo de raciocínio que sacudiu o setor. Logo depois, Microsoft e OpenAI abriram uma investigação para apurar se a startup chinesa havia extraído indevidamente grandes volumes de dados dos modelos da empresa americana, conforme a Bloomberg reportou à época.

Em fevereiro, a OpenAI alertou parlamentares de que a DeepSeek seguia usando táticas cada vez mais sofisticadas para extrair resultados de modelos dos EUA, apesar dos esforços reforçados de prevenção. Em memorando ao Comitê Especial da Câmara para a China, a empresa afirmou que a DeepSeek recorria à destilação para desenvolver uma nova versão de seu chatbot.

A troca de informações entre as empresas americanas segue a lógica já estabelecida no setor de cibersegurança, onde firmas compartilham regularmente dados sobre ataques e táticas de adversários para fortalecer defesas. A ideia é a mesma: detectar a prática com mais eficácia, identificar os responsáveis e impedir que tenham sucesso.

O governo Trump sinalizou apoio à iniciativa. O Plano de Ação para IA apresentado no ano passado previu a criação de um centro de compartilhamento e análise de informações voltado, entre outros fins, a esse propósito. Na prática, porém, a troca de dados permanece limitada: as empresas ainda não têm clareza sobre o que podem compartilhar sem violar regras antitruste, e aguardam orientação mais precisa do governo, segundo fontes ouvidas pela reportagem.

A destilação é uma das principais preocupações do setor americano de IA desde que a DeepSeek abalou os mercados no início de 2025. Modelos de código aberto altamente capazes continuam a proliferar na China, e o mercado acompanha de perto a expectativa de uma grande atualização do sistema da DeepSeek.

No ano passado, a Anthropic bloqueou empresas controladas por chineses de usar seu chatbot Claude e, em fevereiro, identificou três laboratórios — DeepSeek, Moonshot e MiniMax — como responsáveis por extrair ilicitamente as capacidades do modelo por destilação. Neste ano, a empresa afirmou que a ameaça “vai além de qualquer empresa ou região isolada” e representa risco à segurança nacional, já que modelos destilados costumam vir sem as travas projetadas para impedir usos maliciosos.

O Google, por sua vez, publicou um post em blog informando ter detectado um aumento nas tentativas de extração. Até agora, nenhum dos três laboratórios apresentou evidências detalhando em que medida a inovação chinesa em IA depende da destilação — mas afirmam que a prevalência dos ataques pode ser medida pelo volume de requisições de dados em larga escala.