Depois de uma disparada histórica nas ações — que por um tempo fez da Nvidia a empresa mais valiosa do mundo — os investidores começaram a agir com mais cautela. O motivo? A adoção da computação baseada em inteligência artificial (IA) não seguirá um caminho linear, nem dependerá exclusivamente da tecnologia da Nvidia.
Por enquanto, a Nvidia continua sendo a grande fornecedora de “pás e picaretas” na corrida do ouro da IA. A receita da empresa segue em forte alta, e a demanda pelos chips da linha Hopper — e por sua próxima geração, chamada Blackwell — continua robusta.
Mas o sucesso da companhia agora depende de um fator-chave: se gigantes como Microsoft e Google conseguirão transformar os enormes investimentos em chips Nvidia em negócios lucrativos. E mesmo que consigam, não está claro quantos dos chips mais avançados — e mais caros — da fabricante serão realmente necessários.
Um alerta veio da China: em janeiro, a startup DeepSeek lançou um modelo de IA que, segundo ela, oferece desempenho semelhante ao dos sistemas das big techs americanas, mas foi desenvolvido com muito menos recursos.
Queda em valor de mercado
Pouco depois da divulgação técnica desse modelo, a Nvidia perdeu US$ 589 bilhões em valor de mercado em apenas um dia — a maior queda diária da história.
Até meados de maio, as ações já haviam recuperado grande parte do tombo. Mas o episódio acendeu o sinal amarelo: o domínio da Nvidia no mercado de IA pode não ser tão absoluto quanto parecia.
Crescimento explosivo da Nvidia
O sucesso recente da Nvidia não aconteceu por acaso. A empresa se tornou peça central da revolução da inteligência artificial graças a seus chips de altíssimo desempenho — e agora enfrenta o desafio de manter esse domínio num setor cada vez mais competitivo.
A estrela da empresa neste momento é o Hopper H100, batizado em homenagem à pioneira da computação Grace Hopper. Trata-se de uma versão mais potente das tradicionais GPUs (unidades de processamento gráfico) usadas inicialmente por gamers em PCs. Agora, o H100 começa a ser substituído pelo Blackwell, a nova geração de chips, que leva o nome do matemático David Blackwell.
Tanto o Hopper quanto o Blackwell contam com tecnologias que conectam múltiplos computadores equipados com chips Nvidia, fazendo com que funcionem como uma única unidade capaz de processar enormes volumes de dados em altíssima velocidade.
Essa capacidade os torna ideais para uma tarefa intensiva: treinar redes neurais, base dos sistemas mais avançados de IA da atualidade.
Desde sua fundação em 1993, a Nvidia vem apostando nesse mercado. Há mais de uma década, decidiu investir pesado na ideia de que o processamento paralelo de suas GPUs poderia ser útil muito além do universo dos videogames.
A empresa, sediada em Santa Clara (Califórnia), venderá os chips Blackwell em diversas configurações. Um dos destaques é o superchip GB200, que combina duas GPUs Blackwell com um processador Grace (CPU) — também batizado em homenagem a Grace Hopper.
Chips da Nvidia
As plataformas de IA generativa — que criam textos, resumem relatórios ou geram imagens — funcionam a partir da análise de gigantescas bases de dados. Quanto mais conteúdo elas processam, melhor se tornam. Esse aprendizado acontece por tentativa e erro, com bilhões de simulações e um consumo gigantesco de poder computacional.
É exatamente aí que os chips da Nvidia brilham — fornecendo a capacidade bruta necessária para sustentar essa nova era da inteligência artificial.
A nova geração de chips da Nvidia, chamada Blackwell, promete desempenho 2,5 vezes superior ao do já poderoso Hopper no treinamento de modelos de IA, segundo a própria empresa. O salto é tão grande que o Blackwell não pode nem ser fabricado como uma peça única: são dois chips unidos por uma conexão que os faz funcionar como se fossem um só — uma solução inovadora para acomodar a quantidade colossal de transistores presentes no novo design.
Para empresas que correm contra o tempo para treinar suas plataformas de IA, esse ganho de desempenho pode ser determinante. O valor estratégico dos chips é tão alto que os Estados Unidos proibiram sua exportação para a China, como forma de conter o avanço tecnológico do país asiático.
Líder em inteligência artificial
Antes de dominar o mercado de IA, a Nvidia já era referência global em chips gráficos, os mesmos que geram imagens em computadores e videogames. Essas GPUs são compostas por milhares de núcleos de processamento capazes de executar várias tarefas ao mesmo tempo — ideais para criar sombras, reflexos e gráficos complexos em 3D.
No início dos anos 2000, os engenheiros da Nvidia perceberam que esses chips podiam ser adaptados para outras funções. Foi quando os pesquisadores de IA descobriram que, com as GPUs, poderiam finalmente tirar seus projetos do papel — dando início à revolução que estamos vivendo agora.
Concorrência
Hoje, a Nvidia controla cerca de 90% do mercado de GPUs para data centers, segundo a consultoria IDC. Mas a liderança está sendo desafiada. Gigantes da nuvem como AWS (Amazon), Google Cloud e Microsoft Azure — que hoje são grandes compradoras dos chips da Nvidia — estão desenvolvendo seus próprios semicondutores, na tentativa de reduzir a dependência da empresa.
Além disso, concorrentes diretos como AMD e Intel também aceleram seus projetos para tentar conquistar uma fatia desse mercado bilionário.
Durante a feira Computex, em Taiwan, no mês de maio, a Nvidia sinalizou que está disposta a acomodar os planos de clientes que desejam desenvolver seus próprios chips. O CEO Jensen Huang anunciou que a empresa vai abrir o NVLink — um sistema de interconexão ultrarrápido entre os principais chips de um servidor — para produtos de outras empresas. Até então, essa tecnologia era exclusiva dos próprios processadores e aceleradores da Nvidia.
Apesar dessa abertura, os esforços de concorrentes para desenvolver alternativas ainda não abalaram a liderança da empresa no segmento de inteligência artificial.
O segredo da Nvidia
A chave da Nvidia está na velocidade com que ela inova. A empresa atualiza seus chips e softwares de suporte num ritmo que nenhum outro competidor conseguiu acompanhar. Também criou sistemas em cluster que facilitam a compra e a implementação em massa de chips como o H100 — um diferencial importante para empresas que precisam acelerar seus projetos de IA.
Enquanto isso, chips como os processadores Xeon, da Intel, até conseguem lidar com tarefas complexas, mas têm menos núcleos e menor desempenho diante dos volumes gigantescos de dados usados para treinar modelos de IA. A Intel, que já foi a líder absoluta em data centers, ainda não conseguiu oferecer aceleradores que façam frente ao que a Nvidia entrega.
DeepSeek preocupa
A DeepSeek, uma startup chinesa, lançou seu modelo de IA de código aberto, o R1, e mostrou que ele entrega resultados comparáveis aos de grandes empresas americanas, mas com uma fração dos recursos. O anúncio pegou concorrentes de surpresa, que agora correm para entender como a empresa conseguiu tanta eficiência com tão pouco investimento.
A DeepSeek adota uma estratégia diferente da maioria das empresas para treinar seus modelos de inteligência artificial: em vez de depender de grandes volumes de dados sintéticos, a startup faz o chamado “ajuste fino” com insumos do mundo real, num processo conhecido como inference. Isso consome menos tempo e recursos do que os métodos tradicionais usados por gigantes do setor.
Apesar do potencial risco, a Nvidia, que teria mais a perder com essa mudança, reagiu com diplomacia: classificou o modelo da DeepSeek como um “avanço excelente em IA”, e ressaltou que o feito foi alcançado sem violar as restrições dos EUA à exportação de tecnologia para a China.
Essas restrições proíbem a venda para empresas chinesas das GPUs mais avançadas da Nvidia, o que havia levantado suspeitas entre analistas sobre como a startup conseguiu seu feito. A declaração da Nvidia ajudou a acalmar os ânimos.
Mesmo assim, a empresa defende que suas GPUs continuam essenciais — mesmo se houver uma mudança nos métodos de desenvolvimento da IA. “A inferência exige grandes quantidades de GPUs da Nvidia e redes de altíssimo desempenho”, afirmou a direção da companhia.