O Google está explorando novas formas de expandir o mercado de seus chips de inteligência artificial, buscando usar seu poder financeiro para construir um ecossistema de IA mais amplo que possa competir melhor com a líder de mercado Nvidia.

Os chips da empresa estão ganhando maior adoção para cargas de trabalho de IA, incluindo startups como a Anthropic, mas o Google enfrenta diversos desafios ao tentar crescer. Entre os problemas estão gargalos em parceiros de fabricação e interesse limitado de rivais de computação em nuvem, que estão entre os maiores compradores de processadores da Nvidia, segundo pessoas familiarizadas com o assunto.

Para ampliar seu mercado potencial, o Google está aumentando o suporte financeiro a uma rede de parceiros de data centers que podem fornecer poder computacional a um público mais amplo, disseram fontes próximas aos planos da empresa.

A companhia está em negociações para investir cerca de US$ 100 milhões na startup de computação em nuvem Fluidstack, parte de um acordo que a avalia em cerca de US$ 7,5 bilhões, segundo pessoas familiarizadas com as discussões.

A Fluidstack é uma das chamadas empresas “neocloud” que oferecem serviços de computação para companhias de IA e outras. A CoreWeave, uma das maiores operadoras desse tipo, fornece acesso a unidades de processamento gráfico (GPUs), principalmente da Nvidia.

O Google quer ajudar a ampliar o potencial de crescimento da Fluidstack e incentivar mais provedores de computação a usar seus chips de IA, chamados de TPUs (Tensor Processing Units).

A empresa também discutiu expandir compromissos financeiros com outros parceiros de data centers, o que poderia gerar demanda adicional por TPUs. O Google já financiou projetos envolvendo Hut 8, Cipher Mining e TeraWulf, antigas empresas de mineração de criptomoedas que agora desenvolvem data centers.

Alguns gerentes da divisão de nuvem do Google recentemente reabriram o debate interno sobre reestruturar a equipe de TPUs em uma unidade independente, o que poderia permitir expandir oportunidades de investimento, inclusive com capital externo. Um desafio para essa unidade seria que o negócio de nuvem do Google depende fortemente de chips da Nvidia.

Um porta-voz do Google afirmou que não há planos de reestruturar a unidade de TPUs. Manter a equipe de chips integrada às demais áreas da empresa traz vantagens, como permitir que os desenvolvedores do modelo de IA Gemini façam alterações mais facilmente no design dos chips.

O Google começou a vender acesso a TPUs via serviços em nuvem em 2018 e, embora tradicionalmente os usuários sejam captados pela unidade de nuvem, a empresa também vende os chips diretamente a clientes externos. Essas medidas visam expandir o mercado potencial dos chips, que clientes de IA elogiam pela eficácia em treinamento e em tarefas de inferência, como respostas de chatbots.

Em abril do ano passado, o Google lançou sua sétima geração de TPUs, chamada Ironwood, projetada para inferência em IA (ou seja, para usar modelos de inteligência artificial já treinados e gerar respostas ou previsões, em vez de treinar o modelo do zero).

Comparadas às GPUs (unidades de processamento gráfico, originalmente feitas para rodar gráficos e jogos), que foram originalmente voltadas para jogos, as TPUs às vezes se mostram mais adequadas para grandes volumes de cálculos de IA que não exigem alta precisão (ou seja, operações matemáticas rápidas e em grande quantidade, onde não é necessário ter resultados extremamente exatos, mas sim eficientes para processar grandes dados).

O Google tem parceria com a Broadcom para design e produção das TPUs e utiliza a Taiwan Semiconductor Manufacturing (TSMC) como fabricante contratada. Entretanto, a expansão dos envios de TPUs pode enfrentar obstáculos, já que a TSMC pode priorizar a Nvidia e há escassez global de chips de memória, componente essencial para os chips de IA.

Nos últimos meses, mais empresas de IA demonstraram interesse nas TPUs do Google para acessar poder computacional mais barato e reduzir a dependência da Nvidia. Meta Platforms, por exemplo, estava em negociações para usar os chips, mas recentemente aumentou compras de hardware da Nvidia. A Anthropic também ampliou o uso de tecnologias de nuvem do Google, incluindo até um milhão de TPUs.

Apesar disso, o interesse de grandes provedores de nuvem parece moderado, em parte porque consideram o Google um concorrente. A Amazon Web Services também desenvolveu seus próprios chips para IA.

Traduzido do inglês por InvestNews