Contents

AMD Instinct MI300X e MI300A com foco em IA enfrentam a concorrência da Nvidia

Publicado em 7 de dezembro de 2023 às 15h30. por cabeçalho do artigo

O grupo Nvidia aproveita o boom na demanda por aceleradores gráficos e outros componentes que permitem uma inteligência artificial cada vez mais eficiente.

A empresa está empenhada em cumprir os regulamentos que regem o mercado chinês, preservando ao mesmo tempo a sua ligação a um mercado tão lucrativo, apesar de enfrentar reações adversas pelos seus esforços para contornar as medidas de segurança implementadas pelo governo.

Seu concorrente AMD tem menos influência no segmento, mas quer se doar dos meios e acaba de anunciar que seus próprios produtos de IA que já estão disponíveis e também devem lhe proporcionar uma renda muito sólida.

A CEO da AMD, Lisa Su, disse que o mercado de componentes de IA para data centers valia cerca de US$ 45 bilhões (sua estimativa anterior era de US$ 30 bilhões há alguns meses) e que sua empresa esperava gerar pelo menos US$ 2 bilhões de receita em 2024 com seus novos produtos e seu foco reforçado em favor da IA.

AMD Instinct MI300X, a GPU que quer fazer melhor que a Nvidia H100

A oferta agora disponível da AMD é baseada na GPU AI Instinct MI300X apresentada um pouco no início do ano com base na arquitetura gráfica CDNA 3, equivalente ao RDNA 3, mas com recursos adicionais para empresas.

/images/amd-instinct-mi300x-gpu_03bb021901689937.jpg

Em resposta ao seu lançamento, a AMD afirmou um notável aumento de desempenho de aproximadamente 1,6x quando comparado com o acelerador Nvidia H100 para inferência de inteligência artificial. No entanto, após a sua declaração inicial, a Nvidia introduziu uma iteração atualizada da sua GPU conhecida como H200, que deverá fornecer capacidades de processamento ainda maiores do que o seu antecessor, possivelmente como uma contramedida estratégica contra a recente entrada da AMD neste domínio.

A GPU MI300X possui um conjunto impressionante de especificações, incluindo sua arquitetura de 6 nanômetros e 192 gigabytes de memória de alta largura de banda (HBM3), que fornece notáveis ​​5,3 terabytes por segundo de largura de banda. Esta poderosa unidade de processamento gráfico requer apenas 750 watts de potência e representa uma opção atraente para quem procura uma alternativa aos produtos Nvidia.

AMD Instinct MI300A, a combinação de CPU e GPU para inteligência artificial

Ao mesmo tempo, a AMD também anuncia a disponibilidade de seu APU Instinct MI300A que combina CPU Zen 4 e GPU CDNA 3. Aqui novamente, ela poderá se posicionar contra a solução Grace Hopper (CPU ARM e GPU Hopper ) da Nvidia.

A Unidade de Processamento Acelerado (APU) emprega 128 gigabytes de memória HBM3 de alta largura de banda, o que permite sustentar uma taxa máxima de transferência de dados de 5,3 terabits por segundo devido ao aumento da largura do barramento de memória. Além disso, a APU tem uma classificação de potência de design térmico (TDP) de 350 watts e existe potencial para que esse valor chegue a 760 watts.

/images/amd-instinct-mi300x-gpu-ia_03bb021901689936.jpg

De acordo com Tom’s Hardware, parece que uma configuração como esta é otimizada de forma mais eficaz para inteligência artificial e tarefas de computação de alto desempenho.

A solução proposta aproveita um cache de memória unificado, que permite comunicação e transferência de dados contínuas entre a unidade central de processamento (CPU) e a unidade de processamento gráfico (GPU), resultando em maior eficiência computacional e conservação de energia.

Através da introdução da GPU Instinct MI300X e da APU Instinct MI300A, a AMD está expandindo estrategicamente seu portfólio de produtos, ao mesmo tempo em que visa capturar uma parcela significativa do mercado atualmente detido pela Nvidia, cuja presença dominante é de aproximadamente 80%.

É incerto se os principais provedores de nuvem, como Google, Amazon e Microsoft, abandonarão o desenvolvimento de aceleradores de hardware proprietários em favor da produção de componentes personalizados para si próprios, seguindo os passos de empresas como Google com suas TPUs, Amazon com Graviton4 e Trainium2, e mais recentemente a Microsoft com Maia 100 e Cobalt 100.

No entanto, parece que as unidades de processamento gráfico (GPUs) da Nvidia e da AMD continuarão a ocupar uma posição de destaque nos data centers por enquanto.

Jornalista deste site especializado em mobilidade/Ante-Geek das profundezas da Web e de outros lugares

*️⃣ Link da fonte: