Contents

NVIDIA e Amazon unem forças para criar o supercomputador de IA mais rápido do mundo

/images/dc73a40347c09bc69886272e2716d9690677c50eced77624bb96a30b1c01391f.jpg O logotipo da Amazon Web Services, na AWS re:Invent 2023, em Las Vegas © Alexandre Boero/este site

Amazon Web Services e NVIDIA anunciaram terça-feira durante o , a próxima construção de um supercomputador de inteligência artificial, usando as poderosas GPUs GH200, superchips que impulsionarão o campo da IA ​​a novos patamares.

Na vanguarda do avanço tecnológico, estamos reunidos no movimentado Centro de Convenções do ilustre Venetian Hotel em Las Vegas, onde a AWS, um importante provedor de serviços em nuvem, revelou a adoção do inovador chip GH200 Grace Hopper, desenvolvido pela NVIDIA e equipado com sua inovadora tecnologia NVLink de vários nós.

As principais empresas de tecnologia uniram forças para construir infraestrutura inovadora, software avançado e, mais notavelmente, um supercomputador excepcional conhecido como NVIDIA DGX Cloud, equipado com 16.000 unidades de processamento poderosas projetadas para lidar com surpreendentes 65 exaflops de poder de computação de inteligência artificial. Um feito impressionante, de fato!

Rumo ao poder incomparável da IA, feita em AWS e NVIDIA, com um supercomputador sob demanda

As instâncias AWS (que literalmente permitem aos desenvolvedores romper as limitações físicas tradicionais) equipadas com o GH200 NVL32 fornecerão desempenho de supercomputador sob demanda, graças a até 20 TB de memória compartilhada em um único Amazon EC2. Esse avanço é crucial para cargas de trabalho de IA e aprendizado de máquina em grande escala, distribuídas em vários nós, abrangendo áreas como sistemas de recomendação, bancos de dados de vetores e muito mais.

As GPUs GH200 alimentarão as instâncias EC2 com 4,5 TB de memória HBM3e, o que deverá permitir a execução de modelos maiores e melhorar o desempenho do treinamento. Acrescentaremos que a conectividade de memória CPU-GPU oferecerá largura de banda 7 vezes maior que a do PCIe (Peripheral Component Interconnect Express).

A introdução desta tecnologia aumentará a capacidade geral de memória para a execução de aplicativos e também contará com um inovador sistema de refrigeração líquida, projetado especificamente para racks de servidores de alta densidade. Este novo design integra o processador Grace baseado em ARM e a arquitetura GPU Hopper em cada chip GH200 individual, proporcionando recursos de desempenho aprimorados.

/images/b8b7c5157f8ac509610ad8380f79f13115526f70cda9f6b93c4060eb039e6157.jpg À esquerda, Adam Selipsky, CEO da Amazon Web Services; à direita, Jensen Huang, fundador e CEO da NVIDIA

Um projeto “completamente incrível”, para o fundador da NVIDIA

Jensen Huang, fundador e CEO da NVIDIA, e Adam Selipsky, chefe da AWS, apresentaram esta inovação durante a palestra do evento AWS re:Invent 2023 na manhã de terça-feira. Adam Selipsky destacou a expansão da colaboração entre AWS e NVIDIA, que já dura há vários anos, e que os dois líderes elogiaram diversas vezes no palco.

A colaboração culmina com a integração do GH200 NVL32 na nuvem AWS, a criação do supercomputador NVIDIA DGX Cloud na AWS e a incorporação de bibliotecas de software populares da NVIDIA. O DGX Cloud AI, também apelidado de “Projeto Ceiba”, usará 16.384 chips GH200, para atingir um poder de processamento de IA fenomenal de 65 exaflops. Cada superchip Ceiba promete reduzir pela metade o tempo de treinamento dos maiores modelos de linguagem. “Este projeto é absolutamente incrível”, desabafou Jensen Huang, fiel ao seu casaco de cabedal, esta quarta-feira em palco.

A NVIDIA planeja utilizar seu supercomputador DGX não apenas para tarefas gerais de computação, mas também especificamente para o avanço da pesquisa e desenvolvimento de inteligência artificial. O cluster recebeu o nome de “Ceiba”, inspirado na imponente árvore Ceiba da Amazônia, simbolizando sua força e potencial. Com as suas capacidades avançadas, concentrar-se-á em impulsionar a inovação em vários campos da IA, incluindo imagem, vídeo e geração 3D, bem como robótica, biologia digital e simulação climática, todos com o objetivo de impulsionar estas indústrias.

Com avanços notáveis ​​no poder de computação, memória e refrigeração, esta colaboração entre as duas empresas estabelece novos padrões para a infraestrutura de IA na nuvem, abrindo caminho para aplicações e inovações espetaculares. As instâncias GH200 e a nuvem DGX estarão disponíveis na AWS no próximo ano, promete a empresa, sem dúvida marcando um marco importante no cenário de IA e nuvem.

*️⃣ Link da fonte: