Hoje, a AMD vale mais de US$ 330 bilhões, um aumento de mais de cem vezes que reflete a habilidade da AMD em mudar de uma estratégia de produção. A empresa saiu da fabricação de placas de vídeo para jogos e processadores para computadores pessoais para chips de data center que impulsionam a revolução da inteligência artificial.
O preço das ações da AMD subiu 24% na segunda-feira (6), logo depois que a empresa anunciou uma parceria com a OpenAI, dona do ChatGPT.
Segundo os termos do acordo, a OpenAI comprará dezenas de milhares de chips AMD para gerar 6 gigawatts de capacidade computacional para funções que permitem que modelos de IA respondam às consultas dos usuários.
O acordo impulsionou o preço das ações da AMD e as ambições da empresa de competir com a concorrente Nvidia, que é de longe a concorrente dominante na indústria de semicondutores para IA.
O acordo especifica que a OpenAI receberá warrants para 160 milhões de ações da AMD, a um preço marginal de 1 centavo por ação, assim que a OpenAI atingir certas metas de implantação e o preço das ações da AMD subir.
A última parcela de ações será concedida somente se as ações da AMD atingirem US$ 600 por ação, o que daria à AMD uma avaliação de mercado de US$ 1 trilhão.
Por enquanto, com uma capitalização de mercado de US$ 4,5 trilhões, a Nvidia é quase 14 vezes maior que a AMD, e a maioria das estimativas de analistas estima sua participação de mercado para as unidades de processamento gráfico, ou GPUs, que alimentam o treinamento e a inferência de IA em mais de 75%.
Mas, além da AMD, a Nvidia enfrenta pressão de empresas como a Broadcom, que produz chips personalizados para aplicações específicas para clientes como a OpenAI, e até mesmo dos próprios grandes clientes, alguns dos quais já começaram a projetar seus próprios chips.
Empurrão da IA
O acordo com a OpenAI pode ter mudado um pouco a situação a favor da AMD. A AMD chegou a esse ponto de inflexão graças a uma combinação de planejamento estratégico cuidadoso e de estar no lugar certo, na hora certa.
“Nos últimos anos, o importante foi entendermos as cargas de trabalho que realmente impulsionariam a IA, o treinamento e a inferência da próxima geração”, disse Su em uma entrevista. “Este acordo representa uma enorme expansão do trabalho que estamos fazendo.”
Durante grande parte da última década, a arquirrival da AMD foi a Intel, a problemática projetista e fabricante de chips que recentemente recebeu grandes investimentos da Nvidia e do governo dos EUA.
Com base nos designs populares dos chips gráficos usados nos sistemas de jogos PlayStation e Xbox e nas CPUs usadas em PCs de consumo, a AMD vem conquistando a fatia de mercado da Intel há anos.
A Intel, por sua vez, estava atolada em um esforço dispendioso para recuperar seu negócio de fabricação de chips. A AMD desmembrou seu negócio de manufatura, agora conhecido como GlobalFoundries, em 2009, enquanto a Intel continuou a investir em seu segmento de fundição, que não era lucrativo, mesmo estando muito atrás de rivais tecnologicamente mais avançados, como a Taiwan Semiconductor Manufacturing.
Em 2018, a AMD fez uma mudança drástica para a computação em nuvem, lançando sua linha Instinct de GPUs para data centers, seus primeiros chips projetados para cargas de trabalho de IA.
Desde então, a AMD tem lutado para acompanhar a Nvidia, que dominou não apenas o espaço de chips de IA, mas também os sistemas de software necessários para executar grandes clusters de data centers.
Nos últimos anos, à medida que os laboratórios de IA se apressavam para aperfeiçoar seus modelos mais recentes, a demanda por chips poderosos que podem ser usados para treinar esses modelos em bilhões ou até trilhões de parâmetros de entrada aumentou.
Agora, no entanto, a demanda mudou para funções de inferência, em vez de treinamento, à medida que as empresas buscam ferramentas de IA que sejam mais úteis nos mundos dos negócios, entretenimento e pesquisa. Essas aplicações também tendem a ser mais lucrativas.
“A computação tem sido mais direcionada para o treinamento no passado e, nos próximos anos, tenderá a se deslocar muito mais para a inferência, à medida que a demanda por esses serviços de IA cresce”, disse Jacob Feldgoise, pesquisador de IA do Centro de Segurança e Tecnologias Emergentes da Universidade de Georgetown. “A AMD tem se esforçado cada vez mais para se posicionar como fornecedora preferencial de soluções para inferência.”
Su, da AMD, assim como os principais executivos da OpenAI, concordaram que a demanda por inferência será o principal impulsionador da infraestrutura de IA e argumentaram que, à medida que a indústria de IA cresce, qualquer empresa que ofereça poder computacional aos desenvolvedores verá grandes benefícios.
A AMD possui algumas vantagens cruciais que podem ajudar em sua busca por maior participação de mercado da Nvidia. Seus chips são geralmente mais baratos que os da Nvidia, e sua eficiência e qualidade estão melhorando. Há também a questão da disponibilidade: como os chips da Nvidia são amplamente considerados os melhores disponíveis, a concorrência para comprá-los é acirrada.
O aumento expressivo da demanda abre uma oportunidade para a AMD oferecer seus próprios produtos como uma alternativa mais acessível e prontamente disponível.
“Acreditamos realmente que o mundo está subestimando a demanda por IA e que estamos caminhando para um mundo onde simplesmente não há tecnologia suficiente”, disse Greg Brockman, presidente e cofundador da OpenAI. “Não haverá chips suficientes.”
Traduzido do inglês por InvestNews
Presented by