Nvidia revela chip “mais poderoso” para IAs; conheça
A Nvidia revelou recentemente o seu mais novo chip para as suas GPUs (placas gráficas), o Blackwell B200 GPU. De acordo com a empresa, esse é o “chip mais poderoso” para inteligência artificial (IA).
O B200 GPU possui uma potência de até 20 petaflops de potência FP4, com 208 bilhões de transistores, o que é muito superior ao H100, que possui 80 bilhões de transistores. Além disso, o GB200 combina duas dessas GPUs com uma única GPU Grace, permitindo um desempenho até 30 vezes maior em cargas de trabalho de inteligência artificial.
Segundo a Nvidia, esse novo chip é duas vezes mais poderoso no treinamento de modelos de IA em relação à geração atual de GPUs, e tem cinco vezes mais capacidade de inferência. Isso significa que os modelos de IA podem responder perguntas com maior velocidade.
Uma das melhorias-chave do B200 GPU é o motor transformador de segunda geração, que aumenta a computação, largura de banda e tamanho do modelo. Outra diferença importante é o uso de quatro bits para cada neurônio, em vez de oito, o que reduz os custos e o consumo de energia em até 25 vezes em comparação com o H100.
A Nvidia também desenvolveu um novo chip de switch de rede, com 50 bilhões de transistores, que permite que até 576 GPUs se comuniquem entre si. Anteriormente, um conjunto de 16 GPUs gastava 60% do tempo se comunicando entre si e apenas 40% trabalhando.
A expectativa da Nvidia é que grandes empresas, como Amazon, Google, Microsoft e Oracle, comprem essas GPUs em grande quantidade. Essas empresas já estão visando oferecer os racks NVL72 em seus serviços de nuvem.
Os racks NVL72 são capazes de conectar 36 CPUs e 72 GPUs em um só rack e oferecem um desempenho de treinamento de IA de até 720 petaflops ou inferência de até 1,44 mil petaflops. Cada um desses racks suporta um modelo de 27 trilhões de parâmetros.
No geral, o novo chip da Nvidia representa um avanço significativo no campo da inteligência artificial, oferecendo maior potência de processamento e eficiência energética para treinamento e inferência de modelos de IA.