A Samsung ainda não confirmou oficialmente, mas relatórios recentes publicados pela Reuters e por fontes locais como o Korea JoongAng Daily indicam que começará a fabricar em massa os chips de memória HBM4 a partir da próxima semana.
Entre as três empresas que dominam a produção de chips de memória (as outras são a sul-coreana SK Hynix e a estadunidense Micron, que saiu do mercado de RAM de consumo), a Samsung será a primeira a iniciar a fabricação em grande escala dessas memórias fundamentais para a inteligência artificial.
O HBM4 é um tipo de memória com uma enorme largura de banda. Isso é crucial para as necessidades da GPU e, embora a Nvidia tenha se mantido fiel à memória GDDR em suas placas gráficas, a AMD chegou a flertar com a tecnologia empilhada dos chips HBM em suas GPUs Vega. No entanto, não é uma tecnologia voltada para o consumo, não porque seu desempenho não seja adequado, mas porque é cara demais.
Produzir memória HBM é mais custoso do que fabricar chips DRAM tradicionais, mas as vantagens estão aí. Com a HBM4, por exemplo, a densidade dos chips empilhados permite o dobro da largura de banda em relação à geração anterior. Isso é fundamental para transmitir mais dados por segundo. Além disso, esses chips consomem até 40% menos energia do que as memórias HBM3.
A maior interessada é a Nvidia. E se a Nvidia é beneficiada, praticamente toda a indústria de ponta da inteligência artificial se aproveita disso, já que seus chips são os que estão impulsionando o setor atualmente. Estima-se que as memórias da Samsung sejam destinadas aos sistemas de aceleração Vera Rubin da Nvidia.
De fato, foi noticiado que o próprio Jensen Huang, CEO da Nvidia, teria pedido a aceleração e ampliação da produção desses chips. E não apenas na Samsung: Huang pediu a toda a indústria de semicondutores que fabrica componentes para suas placas que se mexesse.
Segundo uma fonte do Korea JoongAng Daily, “a Samsung é a empresa com a maior capacidade de produção do mundo e a linha de produtos mais ampla. Ela demonstrou uma recuperação em sua competitividade tecnológica ao se tornar a primeira a produzir em massa a memória HBM4 de maior desempenho”.
Porque, nesse campo, espera-se que sua principal concorrente, a vizinha SK Hynix, comece a fabricar em massa sua resposta entre março ou abril, tempo de vantagem suficiente para que a Samsung comece a enviar sua memória para a Nvidia. E, aqui, a grande vantagem da Samsung é que ela não depende da TSMC: tem sua própria fundição e os módulos HBM4 são baseados em uma fotolitografia de 4 nanômetros.
Olhando para o futuro
O atraso da SK Hynix não se deve a descuidos: a companhia dominou a geração anterior graças à memória HBM3E, mas agora, devido ao seu cronograma e ao fato de não ter urgência, começou a desenvolver a nova geração mais tarde que a Samsung. Além disso, pesa o fato de que os chips HBM são mais caros e esquentam demais, exigindo equipamentos de dissipação à altura.
É aí que as empresas estão combinando a produção da memória HBM4 com uma nova geração de memória DRAM. A ideia é encontrar uma maneira de fazer com que essa memória — mais lenta, mas barata e “fresca” — possa competir em largura de banda com a HBM. Samsung e SK Hynix estão trabalhando nisso, mas terão que enfrentar alguém que não jogava nessa liga: a Intel, que não chega sozinha, mas junto ao gigante japonês SoftBank.
Em resumo: a Samsung se propôs a recuperar seu protagonismo em termos de capacidade manufatureira. E o mais importante de tudo é que todas as empresas que produzem módulos de memória continuam focadas em uma coisa: fabricar hardware para inteligência artificial, enquanto componentes como RAM e SSDs de consumo têm preços nas alturas.
Imagens | Maxence Pira, Choi Kwang-mo, logo da Nvidia (editado)
Este texto foi traduzido/adaptado do site Xataka Espanha.
Ver 0 Comentários