Os fabricantes de chips de memória, liderados pelas sul-coreanas Samsung Electronics e Hynix, bem como pela americana Micron Technology, estão desfrutando de uma demanda crescente por uma variedade de produtos, tanto para treinamento quanto para execução de modelos de inteligência artificial.
A empresa de pesquisa TrendForce estima que a DRAM, um dos principais tipos de chip de memória, deva aumentar em mais de quatro vezes a receita total do setor no próximo ano em comparação com o ponto mais baixo do ciclo em 2023, atingindo um recorde de cerca de US$ 231 bilhões.
A Samsung informou que o lucro líquido do trimestre de julho a setembro aumentou 21% em relação ao ano anterior, para o equivalente a cerca de US$ 8,6 bilhões.
Em um ambiente de preços favorável, a divisão de chips registrou receita trimestral recorde e o lucro operacional subiu quase 80%, indo para US$ 4,9 bilhões.
A SK Hynix anunciou lucros recordes, com o lucro líquido do terceiro trimestre mais que dobrando em relação ao ano anterior, atingindo o equivalente a cerca de US$ 8,8 bilhões.
A empresa afirmou que o mercado de memória entrou em um “super ciclo de crescimento” e que sua capacidade de produção até o próximo ano já está esgotada.
Em setembro, a Micron anunciou que seu lucro líquido mais que triplicou, chegando a US$ 3,2 bilhões no último trimestre.
Chips de memória
Os chips de memória representam cerca de um quarto das vendas mundiais de chips, de acordo com as Estatísticas Mundiais de Comércio de Semicondutores.
O outro tipo principal são os chips lógicos, categoria que inclui os chips de IA especializados fabricados pela Nvidia, conhecidos como unidades de processamento gráfico ou GPUs, bem como as unidades centrais de processamento que atuam como o cérebro dos computadores e smartphones do dia a dia.
Na era da IA, a demanda por um tipo chip de memória chamada memória de banda, ou HBM, disparou. Essa memória é destinada ao treinamento de modelos de IA. Esta memória empilha várias camadas de DRAMs e, combinada com GPUs, permite que grandes quantidades de dados se movam entre a memória e o processador simultaneamente.
A combinação de memória e processador é essencial para servidores de IA que lidam com a miríade de cálculos necessários quando os modelos de IA recebem enormes conjuntos de dados e são instruídos a processá-los e aprender com eles.
Em outubro, a OpenAI, criadora do ChatGPT, assinou cartas de intenção com a Samsung e a SK Hynix para tê-las como parceiras de chips de memória avançada e data centers no projeto de infraestrutura Stargate.
A demanda da OpenAI deve chegar a 900.000 wafers de DRAM por mês, o que representa mais que o dobro da capacidade atual de HBM do setor, de acordo com a SK Hynix.
O CEO da OpenAI, Sam Altman, chamou as duas empresas de “contribuidoras-chave para a infraestrutura global de IA”.
O que mudou
A forte demanda por memória de alta largura de banda já existia, mas o que mudou agora é que os chips de memória convencionais também estão em alta.
Grandes empresas de data centers dos EUA, como Amazon, Google (da Alphabet) e Meta Platforms, estão comprando muitos desses chips para servidores tradicionais, e a oferta está restrita porque os fabricantes de chips de memória têm expandido a capacidade principalmente para HBM.
Embora a HBM seja o tipo de memória mais associado à IA, os chips de memória convencionais para servidores comuns também são úteis para algumas tarefas de IA — particularmente a inferência de IA, quando um modelo treinado é utilizado para gerar resultados, como as respostas de um chatbot a perguntas.
Para algumas tarefas de inferência, como armazenar e recuperar as grandes quantidades de dados gerados em um modelo de IA de linguagem complexa, pode ser mais econômico implantar um servidor tradicional que utilize memória convencional, segundo Peter Lee, analista de semicondutores da Citi, com sede em Seul.
À medida que os modelos de IA treinados são usados com mais frequência, os data centers estão se expandindo para lidar com a carga de trabalho, disse Lee.
“Com a inovação da tecnologia de IA, o mercado de memória mudou para um novo paradigma e a demanda começou a se espalhar para todas as áreas de produtos”, disse Kim Woo-hyun, diretor financeiro da SK Hynix.
Mais IA, mais memória
O mercado de HBM (memória de alta definição) sozinho deverá crescer em média mais de 30% nos próximos cinco anos, disse a SK Hynix, classificando essa estimativa como conservadora.
A indústria de chips de memória é conhecida por seus ciclos extremos de expansão e recessão. Uma das piores crises ocorreu há poucos anos, quando o aumento inicial da demanda da era da pandemia diminuiu e o boom da IA (inteligência artificial) ainda não havia se consolidado totalmente.
Em 2023, a SK Hynix registrou um prejuízo líquido equivalente a mais de US$ 6 bilhões, considerando as taxas atuais.
A vice-presidente sênior de pesquisa da TrendForce, Avril Wu, afirmou que a atual escassez de memória persistirá até 2026 e possivelmente até o início de 2027.
Ainda assim, existe certo ceticismo sobre se os enormes planos de investimento em infraestrutura de longo prazo anunciados por empresas como a OpenAI se concretizarão conforme o planejado.
“A OpenAI apresentou números impressionantes. A demanda por memória será tão grande que a capacidade atual e a planejada não serão suficientes para atendê-la”, disse o analista de semicondutores Sanjeev Rana, da corretora CLSA, com sede em Hong Kong. “A questão é se a OpenAI conseguirá corresponder às expectativas.”
Traduzido do inglês por InvestNews
Presented by
 
                                 
                                 
                                 
                                 
                                 
             
                                                                             
                                                                             
                                                                            