A Nvidia revelou nesta segunda-feira (13) o H200, uma nova GPU (unidade de processamento gráfico) projetada para trabalhos com inteligência artificial capaz de lidar com tarefas intensivas e IA generativa, a mesma tecnologia por trás do ChatGPT.

Como é o chip H200 da Nvidia

A integração de memória HBM mais rápida e extensa serve para acelerar o desempenho em tarefas computacionalmente exigentes, incluindo modelos generativos de IA e aplicações [de computação de alto desempenho]

Ian Buck, vice-presidente de produtos de computação de alto desempenho da Nvidia, na apresentação oficial do produto

Lançamento

O lançamento do H200 está previsto para o segundo trimestre de 2024. A Nvidia disse que a nova GPU será compatível com o H100, ou seja, empresas de IA que usam o modelo anterior, não precisarão alterar sistemas de servidor ou software para usar o novo chip. 

As divisões de nuvem da Amazon (AWS), Google, Microsoft (Azure) e Oracle estarão entre os primeiros a contar com as novas GPUs, segundo o The Verge.

Preço

Segundo estimativas do banco de investimentos Raymond James, o H100 custava até US$ 40 mil (Via: CNBC). É preciso ter milhares trabalhando juntos para criar e treinar modelos de IA. Ainda não há notícias sobre valor e disponibilidade do H200 (Via: CNBC).

Além do salto no interesse por chips da Nvidia, o boom da IA foi um dos principais fatores que gerou uma valorização anual de 230% nas ações da empresa até aqui. Para o terceiro trimestre fiscal, a gigante dos chips espera obter US$ 16 bilhões em receita, 170% a mais que o mesmo período em 2022.

O anúncio também chega no momento em que empresas de IA continuam em busca de chips como o H100, ainda considerado uma das melhores opões para processar enormes quantidades de dados para treinar e operar ferramentas de IA.

A Nvidia inclusive planeja triplicar a produção do H100 em 2024, segundo o Financial Times. A meta é produzir até 2 milhões de unidades do chip no próximo ano (em 2023 foram cerca de 500.000).