Tendências do dia

A Huawei cumpriu sua promessa: encontrou uma maneira de aumentar a competitividade da China em IA em relação aos EUA

  • SK Hynix, Samsung e Micron estão fabricando memória HBM3E de 12 camadas em larga escala, embora com sucesso variável.

  • Segundo a Huawei, sua tecnologia é capaz de reduzir a latência de inferência em 90%.

Novo algoritmo é a chave para reduzir a dependência da China | Imagem: SCMP
Sem comentários Facebook Twitter Flipboard E-mail
igor-gomes

Igor Gomes

Subeditor
igor-gomes

Igor Gomes

Subeditor

Subeditor do Xataka Brasil. Jornalista há 15 anos, já trabalhou em jornais diários, revistas semanais e podcasts. Quando criança, desmontava os brinquedos para tentar entender como eles funcionavam e nunca conseguia montar de volta.

242 publicaciones de Igor Gomes

Há dois dias, contamos algo muito interessante: o jornal estatal chinês Securities Times revelou que a Huawei estava prestes a revelar um avanço tecnológico com o objetivo de reduzir a dependência da China de chips de memória HBM (High Bandwidth Memory) do exterior. De acordo com a fonte, a Huawei deveria revelar oficialmente seu avanço tecnológico algumas horas depois, durante o Fórum de Aplicação e Desenvolvimento de Raciocínio de IA Financeira de 2025, em Xangai, China.

A Huawei cumpriu sua promessa, embora não exatamente como esperávamos. De qualquer forma, antes de entrarmos em detalhes, é importante lembrar que os fabricantes chineses de chips de memória não estão produzindo soluções capazes de competir com os produtos de memória mais avançados fabricados pelas empresas sul-coreanas Samsung e SK Hynix, ou pela empresa americana Micron Technology. As GPUs de IA trabalham em conjunto com os chips de memória HBM. Na verdade, seu desempenho é amplamente determinado por esses chips de memória.

Como explicam os editores da SemiAnalysis, a largura de banda total dos chips de memória HBM3, que coexistem com algumas das GPUs de IA mais avançadas da NVIDIA ou AMD, ultrapassa 819 GB/s, enquanto as memórias DDR5 e GDDR6X atingem valores bem mais modestos: 70,4 GB/s e 96 GB/s. As memórias HBM3E e as futuras HBM4 são ainda melhores. Os fabricantes chineses desse tipo de memória ainda não produzem essa classe de memórias, mas parece que a Huawei vai mudar radicalmente esse cenário.

Um algoritmo projetado especificamente para acelerar a inferência em IA

O vazamento que surgiu há apenas 48 horas sugeriu que a Huawei provavelmente apresentaria uma tecnologia de encapsulamento de ponta que talvez rivalizasse com as usadas pela SK Hynix, Samsung ou Micron para produzir suas memórias HBM3 e 3E. A fabricação desses circuitos integrados é complexa, pois exige o empilhamento de vários chips DRAM e a implementação de uma interface extraordinariamente densa entre a XPU (Unidade de Processamento Estendida) ou unidade de processamento estendido e os chips HBM. Como mostra um botão: em uma pilha HBM3E, a XPU e a memória HBM são conectadas por mais de 1.000 condutores.

No entanto, a Huawei finalmente revelou uma tecnologia diferente: um algoritmo avançado chamado UCM (Unified Cache Manager) que, segundo a empresa, pode acelerar drasticamente a inferência em grandes modelos de inteligência artificial (IA). Uma observação relevante: inferência é, em termos gerais, o processo computacional realizado por modelos de linguagem para gerar respostas que correspondem às solicitações que recebem.

Para atingir seu objetivo, o algoritmo UCM utiliza uma estratégia bastante engenhosa: ele decide em que tipo de memória armazenar cada dado, considerando os requisitos de latência como um indicador fundamental. Na prática, esse algoritmo se comporta como um cache gigante que garante que cada dado chegue à memória apropriada, incluindo a HBM3, com o objetivo de minimizar a latência durante a inferência. Se os dados forem usados com frequência, eles serão armazenados em uma memória muito rápida, como a HBM3. De acordo com a Huawei, essa tecnologia é capaz de reduzir a latência de inferência em 90%. Curiosamente, a empresa planeja tornar o algoritmo UCM de código aberto em setembro.

Mais informações | SCMP

Inicio