Contents

Isso perturbará o status quo?

As ações da NVIDIA dispararam totalmente durante 2023 e tudo isso graças à ascensão da IA. Este setor relativamente novo começou a ganhar grande importância desde que OpenAI e ChatGPT demonstraram do que era capaz em novembro de 2022. Desde então, até agora, empresas de todo o mundo estão a treinar modelos de IA para poderem competir e atrair clientes neste setor. Enquanto NVIDIA está lidando com problemas de demanda em seu H100, se prepara para um lançamento melhor com o futuro H200 , agora que foi revelado que Micron irá fornecê-los com memória HBM3E juntos com SK Hynix e Samsung.

Cada vez mais empresas, mesmo aquelas fora da inteligência artificial, querem desenvolver uma nova IA com o propósito de explorar o mercado agora que é neste momento que mais interesse ela gera. A IA generativa está despertando muito interesse e também desprezo por parte de algumas pessoas, pelo fato de quem consegue fazer as coisas em muito pouco tempo e acabar com o trabalho das pessoas. No entanto, também vimos a utilidade destes quando se trata de nos ajudar no nosso dia a dia como assistentes humanos ou simplesmente como ferramentas que melhoram a experiência de utilização de dispositivos e funções.

Micron fornecerá memória HBM3E antes de SK Hynix e Samsunga NVIDIA

Em uma reviravolta surpreendente, a Micron anunciou que começará a fornecer dispositivos semicondutores de memória de alta largura de banda tipo 3 (HBM3E) para a mais recente unidade de processamento gráfico (GPU) da Nvidia, codinome H200, junto com o fabricante SK Hynix, durante o segundo trimestre de este ano. Esta revelação é um choque para líderes da indústria como a Samsung, que tradicionalmente dominam o mercado HBM com mais de 90% de participação. No entanto, a presença da Micron no mercado foi relativamente modesta no ano passado, representando apenas cerca de 10%. No entanto, espera-se que sua entrada na arena de ponta da HBM represente uma competição significativa para os participantes estabelecidos na área.

-Dan Nystedt (@dnystedt) 11 de março de 2024

Como muitas coisas em nossas vidas, a IA é apenas mais uma ferramenta e dependendo do uso que lhe dermos, acabará dando um resultado positivo ou negativo na sociedade. No final será a nossa vez de nos adaptarmos a ele, pois não vai desaparecer e de facto tudo indica que se tornará cada vez mais importante. Para acompanhar o desenvolvimento de modelos de inteligência artificial e que estes sejam mais precisos e capazes, enormes quantidades de poder computacional. Os gráficos NVIDIA eram tão populares para IA que a demanda excedeu a oferta.

Muitos estão esperando pela próxima geração de GPUs com NVIDIA H200 e SK Hynix e Micron Eles cuidariam da memória HBM3E. Embora a Micron tenha se inscrito de última hora e parecesse que ia se atrasar, agora foi revelado que esta empresa acelerou e deverá lançar a nova memória a partir do segundo trimestre de 2024. **Micron* * passou para a fase de produção em massa , enquanto SK Hynix continua na Fase de verificação.

Samsung está desenvolvendo memória HBM3E de 12 camadas e capacidade de até 36 GB

/images/Samsung-SK-Hynix-Micron-memoria.jpg

Embora SK Hynix tenha sido a primeira a usar a tecnologia HBM com embalagem MR-MUF (Mass. Reflow-Molded Underfill), a Micron surpreendeu ao ultrapassar sua rival. Por enquanto é a única das três principais empresas de memória que conseguiu passar para a fase de produção em massa e deu uma data de chegada da sua memória HBM3E. Embora sejam notícias muito positivas para a empresa que já alcançou 10% do mercado HBM no ano passado, os analistas têm suas dúvidas.

Eles acreditam que a Micron não conseguirá alcançar a SK Hynix, pois não conseguirá competir com suas embalagens de 12nm e MR-MUF, um dos pontos mais fortes desta empresa. A SK Hynix assumiu 54% do mercado HBM no ano passado, então é claro que tem liderança sobre a Micron. Além disso, está a investir 1,3 biliões de won (quase 1 milhão de euros) na melhoria das embalagens para aumentar a produção. Além dessas duas empresas, não podemos esquecer a Samsung, que anunciou o desenvolvimento da memória HBM3E de 12 camadas com capacidade de 36 GB. Em comparação, SK Hynix e Micron possuem 8 camadas e 24 GB. Agora bem, em termos de velocidade, parece que a Samsung é quem ficou mais para trás nesta corrida para fornecer o HBM3E ao futuro H200 da NVIDIA.

*️⃣ Link da fonte:

11 de março de 2024,