Modelos de inteligência artificial conquistaram um importante espaço nos últimos meses, sendo incluídos em produtos diversos de empresas gigantes como Microsoft e Google. Mas o avanço da IA também criou uma nova corrida tecnológica: a de supercomputadores produzidos para lidar com esses sistemas de aprendizado de máquina.
Uma das empresas envolvidas nessa corrida é a Cerebras, com sede no Vale do Silício, nos EUA. A startup recentemente apresentou um supercomputador voltado para o treinamento de sistemas de inteligência artificial que também é mais barato e consome menos energia do que outros.
Mais rápido e mais barato
“O que estamos mostrando aqui é uma oportunidade de construir um supercomputador grande e dedicado a inteligência artificial,” explicou o CEO da Cerebras, Andrew Feldman. O executivo diz que o objetivo da empresa é “mostrar ao mundo que esse trabalho pode ser feito mais rapidamente, pode ser feito com menos energia, e pode ser feito a um custo menor”, segundo o The New York Times.
O segredo do supercomputador da Cerebras está nos chips. Normalmente, processadores de computador são pequenos, com o tamanho de um selo postal. A Cerebras vem, desde 2019, desenvolvendo chips consideravelmente maiores que são capazes de treinar sistemas de IA de 100 a 1000 vezes mais rápido do que hardwares existentes.
O treinamento de modelos de inteligência artificial como o ChatGPT exige poder computacional bastante elevado, e a popularização desses sistemas nos últimos meses também causou um aumento no preço dos componentes necessários para produzir supercomputadores capazes de lidar com essas tarefas.
A Nvidia, por exemplo, tornou-se uma empresa de valor trilionário por causa disso: a demanda por suas GPUs aumentou tanto que a empresa ampliou em 50% as expectativas de vendas trimestrais. Empresas como Google, Amazon, AMD e Intel também trabalham em alternativas próprias para atender às demandas do mercado, enquanto empresas menores, como a Cerebras, também entram na briga com suas ofertas.
A Cerebras tem como principal trunfo seu chip gigante — para os padrões do mercado. A busca por alternativas fez a empresa G42, dos Emirados Árabes Unidos, trabalhar em parceria com a Cerebras para o treinamento de uma versão árabe do ChatGPT. O supercomputador ficou pronto em apenas 10 dias, o que impressionou a G42.
Vem aí uma rede de supercomputadores para IA
Além da rapidez na entrega do produto, o resultado inicial do supercomputador foi positivo, e a G42 encomendou uma rede de supercomputadores para a Cerebras, com o objetivo de instalá-los em diferentes partes do planeta.
Ao todo, a Cerebras vai construir mais oito supercomputadores para a G42 nos próximos meses. Eles farão parte de uma rede chamada Condor Galaxy que será espalhada pelo mundo: entre os lugares que receberão os próximos aparelhos estão os estados do Texas e da Carolina do Norte, nos EUA.
Os números dos supercomputadores são tão exagerados quanto o tamanho do chip. A Cerebras diz que o dispositivo tem 4 exaFLOPs e 54 milhões de núcleos. A rede completa terá 36 exaFLOPs ao todo, o que, segundo a empresa, deve revolucionar o avanço de sistemas de IA ao redor do planeta.
Apesar dos resultados inicias positivos, a Cerebras pode enfrentar dificuldades para se estabelecer como uma opção viável no mundo dos supercomputadores para IA. Segundo Chris Manning, um cientista da computação da Universidade de Stanford, nos EUA, pessoas que criam modelos de IA estão acostumadas a usar softwares que funcionam com chips da Nvidia — o que também dá uma boa vantagem para a empresa na corrida tecnológica.
O CEO da Cerebras, no entanto, se mostra tranquilo em relação a isso, e acredita que empresas não vão querer ficar presas a produtos da Nvidia, e, portanto, haverá uma demanda global pelos chips da sua empresa.
Fonte: Olhar Digital
Comentários