Nesta quarta-feira (16), a Nvidia anunciou que está se juntando à Microsoft para construir um computador “massivo” para lidar com o intenso trabalho de computação de inteligência artificial (IA) na nuvem.
Esse computador de IA vai funcionar na Azure – nuvem da Microsoft – utilizando dezenas de milhares de unidades de processamento gráfico (GPUs) H100, o mais poderoso da Nvidia e de seus já conhecidos chips A100.
Até o momento, a Nvidia se recusou a dizer quanto vale o acordo, porém fontes da indústria disseram que cada chip A100 custa cerca de US$ 10.000 a US$ 12.000, e o H100 vale muito mais do que isso.
“Estamos naquele ponto de inflexão em que a IA está chegando à empresa e a disponibilização desses serviços que os clientes podem usar para implantar no uso de seus negócios está se tornando real”, afirmou Ian Buck, gerente geral da Nvidia para Hyperscale e HPC à Reuters. “Estamos vendo uma ampla onda de adoção de IA… e a necessidade de aplicá-la no uso corporativo.”
Além de vender os chips à Microsoft, a Nvidia informou que pretende fechar uma parceria com a empresa para desenvolver mais modelos de IA. Buck afirmou que a empresa também seria cliente do computador em nuvem de IA da Microsoft e desenvolveria aplicativos de IA nele para oferecer serviços aos clientes.
O rápido crescimento de modelos de IA, tais como os utilizados para processamento de linguagem natural, aumentou drasticamente a demanda por uma infraestrutura de computação mais rápida e poderosa. A Nvidia relatou que o Azure seria a primeira nuvem pública a usar sua tecnologia de rede Quantum-2 InfiniBand, que possui uma velocidade de 400 gigabits por segundo.
Vale mencionar que essa tecnologia de rede conecta servidores em alta velocidade e isso é importante, pois o trabalho pesado de computação de IA requer que milhares de chips funcionem juntos em diversos servidores.
Fonte: Olhar Digital
Comentários