A Microsoft e a OpenAI investigam se a saída de dados da tecnologia da OpenAI foi obtida de maneira não autorizada por um grupo ligado à startup chinesa de inteligência artificial DeepSeek, de acordo com pessoas familiarizadas com o assunto.
Pesquisadores de segurança da Microsoft observaram, no outono do hemisfério Norte, indivíduos, que eles acreditam estar ligados à DeepSeek, extraindo ilegalmente uma grande quantidade de dados por meio da interface de programação de aplicativos, ou API, da OpenAI, disseram as fontes, que pediram anonimato devido à confidencialidade do caso. Desenvolvedores de software podem pagar por uma licença para usar a API e integrar os modelos de inteligência artificial proprietários da OpenAI em seus próprios aplicativos.
A Microsoft, uma parceira de tecnologia da OpenAI e seu maior investidor, notificou a empresa sobre a atividade, afirmaram as fontes. Tal ação poderia violar os termos de serviço da OpenAI ou indicar que o grupo agiu para remover restrições da OpenAI referentes à quantidade de dados que eles poderiam obter, acrescentaram as fontes.
A DeepSeek lançou, no início deste mês, um novo modelo de inteligência artificial de código aberto chamado R1, que pode imitar a forma como os humanos raciocinam, desestabilizando um mercado dominado pela OpenAI e por concorrentes dos EUA, como o Google e a Meta Platforms. A novata chinesa afirmou que o R1 rivaliza ou supera os principais produtos de desenvolvedores dos EUA em uma série de benchmarks do setor, incluindo tarefas matemáticas e conhecimento geral — e foi desenvolvido a uma fração do custo. A possível ameaça à vantagem das empresas americanas no setor fez com que as ações de tecnologia ligadas à IA, incluindo as da Microsoft, Nvidia, Oracle e Alphabet, controladora do Google, despencassem na segunda-feira (27), apagando um total de quase US$ 1 trilhão em valor de mercado.
A OpenAI não respondeu a um pedido de comentário, e a Microsoft não comentou. A DeepSeek e o hedge fund High-Flyer, onde a DeepSeek foi iniciada, também não responderam imediatamente aos pedidos de comentário por e-mail.
David Sacks, o czar da inteligência artificial do presidente Donald Trump, disse na terça-feira (28) que há “evidências substanciais” de que a DeepSeek se apoiou na saída dos modelos da OpenAI para ajudar a desenvolver sua própria tecnologia. Em entrevista à Fox News, Sacks descreveu uma técnica chamada destilação (distillation), na qual um modelo de IA usa as saídas de outro para fins de treinamento para desenvolver capacidades semelhantes.
“Há evidências substanciais de que o que a DeepSeek fez aqui foi destilar conhecimento a partir dos modelos da OpenAI, e não acho que a OpenAI esteja muito feliz com isso”, disse Sacks, sem detalhar as provas.
Em resposta aos comentários de Sacks, a OpenAI não abordou diretamente seus comentários sobre a DeepSeek. “Sabemos que empresas baseadas na RPC — e outras — estão constantemente tentando destilar os modelos das principais companhias de IA dos EUA”, disse um porta-voz da OpenAI em um comunicado, referindo-se à República Popular da China.
“Como desenvolvedora líder de IA, nos envolvemos em contramedidas para proteger nossa propriedade intelectual, incluindo um processo cuidadoso para quais capacidades de ponta incluir em modelos lançados. Acreditamos que, à medida que avançamos, é extremamente importante que estejamos trabalhando em estreita colaboração com o governo dos EUA para proteger melhor os modelos mais avançados dos esforços de adversários e concorrentes para tomar a tecnologia dos EUA”, disse a OpenAI.