Contents

Mais rápido do que nunca!

O Google apresentou Gemini, sua nova IA, mas o que mal tocou foi algo realmente novo no mundo do hardware para este setor. Como já sabemos, o grande G não usa hardware de segundo ou terceiro, eles criam o seu próprio, como fazem cada vez mais empresas líderes da Nasdaq. Bem, o Google usa TPU, ou seja, Tensor Processing Units para trabalhar com sua IA , e agora implementou e apresentou oficialmente sua versão mais recente chamada Google TPU v5p , que se orgulha de ser igualmente rápida ou ainda mais rápido que o hardware NVIDIA.

Exclusivo para propósito do Google, dedicado a alimentar o hipercomputador de IA que a empresa possui e com um potencial computacional gigantesco, que embora seja verdade rivaliza com o hardware dos verdes, já sabemos que essa rivalidade não vai durar muito. Mas igualmente, o que o Google tem agora em seu hipercomputador?

Google TPU v5p, o melhor em hardware para IA em seus servidores

Como sempre aconteceu, o Google não quis oferecer muitos dados técnicos protegidos pelo princípio da privacidade para seus designs, mas forneceu chaves interessantes e números específicos. tpu v5p É composto por nada menos que 8.960 chips por POD , o que é mais que o dobro de sua versão anterior, mas esta, que já é impressionante, permanece em sua infância quando sabemos que a escalabilidade é ainda maior.

O Google diz que, especificamente, agora eles podem escalar 4x mais em termos de disponibilidade por FLOP dedicado a cada POD. Cada um desses PODs pode atingir uma velocidade de 4.800 Gbps de interconexão interchip BW , em parte por causa de algo que o Google alcançou, e que nada mais é do que incluir uma enorme quantidade de memória.

Entende-se que é memória HBM obviamente, então eles passaram de 32GB na versão v4 para nada menos que 95 GB da HBM , e não, não é um erro, são exatamente 95 GB 2.765 GBps. A topologia de interconexão entre TPUs é feita com Torus 3D.

Uma topologia de interconexão incrível

/images/Google_TPU_v5L_Pod.jpg

De 2x2x1 com 8 núcleos e 4 chips , até 16x16x24 com 12.288 núcleos e 6.144 chips em 1.536 máquinas nada menos, algo que se falarmos de Multislice aumenta para 18.432 chips. E quanto ao desempenho? Bem, tudo é realmente opaco. O Google forneceu poucos dados aqui, ou seja, TPU v5p é 2,8 vezes mais rápido que v4 e tem uma relação custo-benefício 2,1x melhor.

Como o TPU em sua versão v5p é o mais rápido do Google, estima-se de acordo com os FLOPs oferecidos pelo Google que ele seja 3,4 vezes a 4,8 vezes mais rápido que o NVIDIA A100 , algo que não impressiona à primeira vista.

Levando em consideração o fato de que a GPU NVIDIA apresenta desvantagens comparáveis ​​ao atual H100, pode-se inferir que a TPU v5p do Google possui potencial competitivo, potencialmente superando até mesmo o desempenho das GPUs NVIDIA. No entanto, estas afirmações devem ser apoiadas por provas empíricas para que a Google ganhe exposição adicional e se estabeleça como um interveniente líder em hardware de IA até 2024.

*️⃣ Link da fonte:

Estaria no mesmo nível ou talvez um pouco acima dos verdes ,