Contents

O Instinct MI300X da AMD supera as expectativas e supera a NVIDIA!

Desde o final do ano passado, quando o ChatGPT começou a causar sensação em todo o mundo, a IA se tornou o foco da maioria das grandes empresas. Eles se concentram no treinamento de modelos de IA para competir com a OpenAI e ganhar participação de mercado. Há muito interesse, mas ainda não há um concorrente real e neste momento a procura por GPUs para IA é enorme. Embora a NVIDIA tenha liderado esse setor com seus H100 e A100, agora é a vez da AMD Bom, seu Instinct MI300X conseguiu ter boas vendas iniciais e roubar parte do market share da NVIDIA.

A NVIDIA tem liderado essa enorme onda de interesse em IA, à medida que a empresa viu sua receita disparar junto com suas ações. 2023 foi um ano muito lucrativo para a NVIDIA, pois suas GPUs foram as mais rápidas para treinar modelos de IA. A AMD parecia ter desistido, mas depois de muito tempo finalmente lançou seu Instinct MI300X, a GPU AI mais poderosa da empresa. Quando foi apresentado oficialmente há cerca de um mês, a AMD mostrou em seus gráficos como seu MI300X era 60% mais rápido que o NVIDIA H100.

O MI300X já começa a alcançar os primeiros clientes e roubar participação de mercado da NVIDIA

/images/NVIDIA-H100-vs-AMD-Instinct-MI300X.jpg

Isso começou a causar uma espécie de briga entre as duas empresas, pois logo após aquela comparação com a AMD, a NVIDIA contra-atacou dizendo que haviam trapaceado. Segundo a empresa de Jensen Huang, a AMD não utilizou software otimizado para os seus sistemas DGX H100 e por isso, a NVIDIA fez os seus próprios testes. Aqui eles mostraram que seus resultados deixaram o H100 cerca de duas vezes mais rápido que o MI300X , deixando a AMD em uma posição muito ruim.

Mesmo assim, a AMD decidiu responder a esta derrota com uma vitória, mostrando como seu MI300X foi duas vezes mais rápido no vLLM e 30% mais rápido no TensorRT-LLM. Foi aí que as disputas terminaram e parece que a GPU da AMD atraiu muito interesse no setor de IA, já que começou a roubar participação de mercado da NVIDIA e a causar “dores de cabeça” para a empresa rival. As GPUs MI300X já estão sendo enviadas para seus clientes e entre elas estão empresas como LaminiAI , que há poucos dias fez um pedido massivo desses gráficos.

AMD espera atingir US$ 400 bilhões em receita de IA até 2027

/images/MI300X-vLLM-TensorRT-H100.jpg

Precisamente o LaminiAI trabalha em conjunto com a AMD, pois eles criaram os chamados LaminiAI LLM Pods , que nos lembram o DGX SuperPOD da NVIDIA, embora em menor escala. Enquanto a NVIDIA enfrenta a alta demanda e pedidos de suas GPUs, a AMD inicia um novo caminho neste setor altamente lucrativo da indústria. Na verdade, a AMD espera que o segmento de IA lhe proporcione receitas de US$ 400 bilhões em 2027.

A NVIDIA foi líder em vendas ao longo de 2023, mas talvez em 2024 veremos o impacto da AMD no mercado. Como pudemos ver em termos de especificações, o MI300X tem 2,4 vezes mais memória, 1,6x mais largura de banda e 1,3x mais TFLOPs FP8/FP16 em comparação com o atual NVIDIA H100. Claro, vamos lembrar que a NVIDIA está se preparando para lançar um H200, então o MI300X da AMD poderá ser superado em breve.

*️⃣ Link da fonte:

agora é a vez da AMD ,