O Google divulgou nesta semana detalhes sobre a sua supermáquina usada para treinar modelos de inteligência artificial. De acordo com a empresa, o hardware é mais potente que o modelo equivalente da Nvidia.
Conforme informaram os pesquisadores da big tech, o Tensor Chip Processing Unit de quarta geração (TPU v4) é até “1,7 vezes mais rápido” e usa “entre 1,3 e 1,9 vezes menos energia do que o Nvidia A100”.
O Google usa o TPU em mais de 90% do trabalho focado em treinamento de modelos de inteligência artificial. A tecnologia foi usada para treinar o PaLM, competidor do GPT da OpenAI, por exemplo. “O desempenho, a escalabilidade e a disponibilidade tornam os supercomputadores TPU v4 os burros de carga de grandes modelos de linguagem”, disseram os pesquisadores.
Apesar desses detalhes estarem sendo divulgados apenas agora, o Google trabalha com esse supercomputador (TPU v4) desde 2020, tendo sido usado pelo Midjourney para treinar sua IA de geração de imagens. Os TPUs são projetados pelo Google desde 2016.
O H100 é o chip mais recente da Nvidia. Conforme explicaram os pesquisadores do Google, eles escolheram comparar o TPU v4 com o A100, pois o H100 conta com uma tecnologia de fabricação mais avançada.
Conforme os resultados do benchmark MLPerf da Nvidia divulgados na última quarta-feira (5), o H100 é significativamente mais rápido que o A100.
Segundo a Reuters, o Google já pode estar trabalhando em um concorrente para o Nvidia H100, mas não revelou detalhes.
Google apresenta importante avanço na computação quântica
Pesquisadores do Google publicaram uma pesquisa na revista Nature informando um importante passo para a construção de computadores quânticos funcionais.
De acordo com a pesquisa “Suprimindo erros quânticos escalando um qubit (bit quântico) lógico de código de superfície”, os físicos da empresa conseguiram reduzir a taxa de erro dos cálculos, o que permite aumentar o código quântico de computadores.
Por que é importante?
Imagem destaque: VDB Photos / Shutterstock.com
Fonte: Olhar Digital
Comentários