Contents

Nova GPU H200 da NVIDIA para AI Powerhouse!

/images/42f0ca3bdcf2a91f132b5f5952e94a3e285b91cf3af86fb89cc769e87744969b.jpg Sistema HGX H200 © NVIDIA

Esqueça a GPU H100 com seus 80 GB de memória e largura de banda de pouco mais de 3 TB/s; aqui está o H200, uma versão superalimentada com HMB3e, que oferece ainda mais rendimento.

A NVIDIA é conhecida por suas placas gráficas GeForce, mas também possui proficiência excepcional em unidades de processamento gráfico (GPUs) projetadas especificamente para aplicativos de servidor.

A GPU em questão possui impressionantes 132 multiprocessadores de fluxo e 18.432 núcleos CUDA, ambos apoiados por 80 GB de memória HBM2e ou HMB3, enquanto consome substanciais 700 watts de energia.

A introdução do H200 pela NVIDIA na Supercomputing 23 serve como um irmão mais novo em termos de ordem cronológica, mas apresenta especificações superiores quando comparado ao seu antecessor. Além disso, a empresa revelou uma placa de servidor GH200.

Mais memória, mas também largura de banda

A NVIDIA não divulgou todas as especificações do H200, mas pode-se inferir que ele compartilha semelhanças com o H100 e utiliza memória HBM3e. Além disso, a organização a considera corretamente a GPU inaugural a empregar tal solução de memória.

O H200 possui uma impressionante capacidade de memória de 141 gigabytes, ultrapassando o limite de 80 GB do seu antecessor. Com uma velocidade de clock de 6,25 gigabits por segundo, é capaz de fornecer uma largura de banda de memória de 4,8 terabytes por segundo.

/images/c77028d0fde872b523346f817f4d05ac865e1b8ae69e747b32c397e74ac79fda.jpg Principais recursos NVIDIA H200 © NVIDIA

Para fazer comparações entre as duas configurações de memória diferentes, é importante considerar suas respectivas especificações. O H100 PCIe usa memória HBM2e com velocidade de transmissão de 3,2 Gbit/s e opera através de um barramento amplo de 5120 bits, resultando em uma largura de banda total de memória de 2 TB/s. Por outro lado, o H100 SMX5 emprega memória HBM3 rodando a uma taxa de 5,23 Gbit/s, o que se traduz em uma largura de banda de memória de 3,35 TB/s.

Levando em consideração alternativas como o H100 NVL, que combina duas GPUs H100 com um total de 188 GB de memória e largura de banda de até 7,8 TB/s, o H200 oferece um aumento impressionante tanto na capacidade de memória quanto na largura de banda em comparação com o SXM-solução baseada em H100.

Embora ainda não tenha sido definitivamente estabelecido, todos os outros fatores permanecendo constantes, a adição de uma quantidade excessiva de H200 através da utilização de HBM3e deve produzir uma melhoria substancial no desempenho geral para modelos de linguagem com uso intensivo de memória e com grande consumo de dados.

/images/a18f03327bf5acee82fd8d462eeddd76f23d7c0477883ff0926f0d051aa47472.jpg Índice de desempenho do modelo GPT-3 175B © NVIDIA

A NVIDIA dá uma ideia dos recursos demonstrados pelo modelo GPT-3 com 175 trilhões de parâmetros. A organização postula que um nó H200 de oito GPUs exibe dezoito vezes superioridade em eficiência em comparação com o A100, enquanto o H100 atinge um impressionante aprimoramento de onze vezes no desempenho. Além disso, faz referência a um ponto específico a ser considerado.

Sistemas HGX que se beneficiam desta nova GPU

O H200 está programado para estrear na linha de servidores HGX H200 da NVIDIA, que foram projetados para integração perfeita com a infraestrutura HGX H100 existente, garantindo compatibilidade entre plataformas de hardware e software.

/images/4ebe8f7ad1b7c8593ff6b1ace11e60689aa771ab3aa1df7e063baf126c353f1a.jpg Supercomputador Júpiter © NVIDIA

A referida tecnologia também estará disponível através do Superchip NVIDIA GH200 Grace Hopper equipado com HBM3e. Lançada em agosto do ano anterior, esta iteração integrará perfeitamente cGPUs (H200) no mesmo chip.

A data de lançamento prevista para o NVIDIA H200 está prevista para ocorrer no segundo trimestre de 2024. Espera-se que esta tecnologia avançada seja integrada em uma variedade de sistemas de computação de alto desempenho, incluindo o supercomputador Alps desenvolvido pelo Centro Suíço de Computação Científica, bem como o sistema Venado utilizado pelo Laboratório Nacional de Los Alamos, nos Estados Unidos. Além disso, foi indicado que o supercomputador Júpiter, que opera sob os auspícios do Centro de Supercomputação Jülich na Alemanha, também incorporará esta plataforma de hardware inovadora.

Quais são as melhores placas gráficas? Comparação 2023 /images/f90431182bea4536f5d051c8f9347fd442347d635399f60587764ff086ef2a79.jpg

Na jornada de um jogador ou criador, a escolha de uma placa gráfica não deve ser tomada de ânimo leve. Componente essencial de uma máquina projetada para jogos ou produção, a placa gráfica desempenha um papel cada vez mais importante. Vamos tentar orientar suas escolhas nesse período em que todos os modelos são encontrados com bastante facilidade. Consulte Mais informação

Fonte: NVIDIA

*️⃣ Link da fonte:

NVIDIA,