Contents

NVIDIA faz parceria com Micron para HBM3e acessível em GPUs de última geração

Uma das demandas do mercado por IA é a oferta HBM3e disponível nos fabricantes de memória. Até agora os dois coreanos dominavam o mercado, mas numa reviravolta no roteiro surge Micron , o último a aparecer neste segmento, e anuncia que acaba de concluir o fornecimento de HBM3e para NVIDIA H200. Como isso é possível? Bem, tem dois bons ativos.

Na verdade, já se passou quase um ano desde que a Micron anunciou sua intenção de entrar totalmente no mercado de memória de alta largura de banda 3.0 (HBM3e), com planos de fazê-lo até o verão de 2023. Embora o lançamento antecipado possa ter sido adiado, é importante notar que os concorrentes da Micron ainda não alcançaram feitos semelhantes para a terceira geração de tecnologia de memória de alta largura de banda.

Não é o mais rápido nem o de maior capacidade, mas a Micron fornecerá o HBM3e do NVIDIA H200

O tão aguardado anúncio do renomado fabricante americano de memórias fica aquém das expectativas. Em vez de chegar mais tarde e melhorado, o seu HBM3e não consegue atingir o nível de desempenho que seria de esperar, dado o seu longo período de desenvolvimento.

Para ser mais específico, a Micron anuncia uma velocidade de 9,2 GB/s por pino, que é inferior aos 9,8 GB/s da Samsung e aos 10 GB/s da SK Hynix. Isso resulta em retornos por pilha de 1.178 GB/s versus 1.254 GB/s versus 1.280 GB/s.

Desempenho máximo por pino Desempenho máximo por pilha Capacidade máxima por bateria HBM1 1,0 GB/s 128 GB/s 1 GB HBM2 2,0 GB/s 256 GB/s 8 GB HBM2E 3,6 GB/s 461 GB/s 16 GB HBM3 6,4 GB/s 819 GB/s 24 GB HBM3E (Micron) 9,2 GB/s 1.178 GB/s 36 GB HBM3E (Samsung) 9,8 GB/s 1.254 GB/s 48 GB HBM3E (SK Hynix) 10,0 GB/s 1.280 GB/s 48 GB HBM4 ? Mais de 1.500 GB/s 48GB HBM4E? Mais de 2.000 GB/s 64 GB

Como se isso não bastasse como desvantagem em termos de desempenho, que é, no entanto, fundamental para a IA, eles também estão atrás em capacidade com 36 GB (24 GB primeiro no próximo mês) por pilha vs. Empresas coreanas.**

Como a Micron forneceu com sucesso o HBM3e para o NVIDIA H200 em comparação com seus concorrentes, apesar de ser inferior em termos de velocidade e capacidades?

Um preço reduzido e consumo muito baixo

/images/Micron-HBM3e-24-GB-stack.jpg

As duas vantagens que mencionamos acima vêm do preço e do consumo de energia. Em primeiro lugar, sendo este o preço, não é muito claro, uma vez que a empresa no seu comunicado apenas se referiu ao facto de Os seus HBM3e serem mais baratos que os da concorrência , e isso tem um fio condutor com o tema do consumo: seu processo de produção 1-beta.

E a Micron afirma que é fundamental conseguir reduzir o consumo de energia 30% abaixo da concorrência , o que aliado a um preço mais baixo parece ser suficiente para que a NVIDIA tenha os olhos postos na empresa com a qual partilha a bandeira do HBM3e de seu H200.

/images/Micron-HBM3e-especificaciones.jpg

Estas memórias chegarão em março para atingir os 144 GB que a série H200 necessita, dos quais sabemos que apenas 141 GB estarão ativos. A Micron garante que veremos este HBM3e com 36 GB em 12 níveis até o final do ano com mais de 1,2TB/s , e também avançou seu novo roadmap, onde se refere a HBM4 e HBM4e , bem como GDDR7, RDIMM, MCRDIMM, MRDIMM, CXL 3, LPCAMM2 e MTCO.

/images/Micron-roadmap-2024-2028-memoria-HBM3e-HBM4-HBM4eGDDR7-RDIMM-MCRDIMM-MRDIMM-CXL-3-LPCAMM2-y-MTCO.jpg

A preponderância das chegadas antecipadas deverá ocorrer entre os anos de 2025 e 2028, abrangendo um período de três anos caracterizado por desenvolvimentos significativos em termos de lançamentos e produtos associados.

*️⃣ Link da fonte:

Bem, tem dois bons ativos.,