Pesquisadores do Google DeepMind descobriram um método mais eficiente e automatizado de projetar chips de computador usando IA (inteligência artificial).
Para quem tem pressa:
Graças a esse novo método, a Alphabet, empresa controladora do laboratório, disse que poderia melhorar seu próprio chip de IA especializado.
O foco na construção de chips mais rápidos e eficientes ocorre quando pesos pesados de semicondutores – por exemplo: Nvidia e AMD – correm para fornecer o poder de computação para a crescente demanda das empresas por recursos de IA generativa.
No entanto, gigantes da computação em nuvem, como Google e Amazon, também vem projetando seus próprios chips de IA e apostando que seu hardware doméstico pode ser mais rápido e mais barato de operar do que a concorrência.
IA no Google
O Google disse que está explorando o uso de seus “últimos avanços de IA” para melhorar seus chips de IA personalizados, chamados Unidades de Processamento Tensor ou TPUs.
A IA está melhorando tudo o que fazemos, como composição, compreensão, codificação e robótica, e o mesmo está se tornando realidade com o design de hardware.
Porta-voz do Google
Para a DeepMind, com sede em Londres, o objetivo de usar técnicas de IA é tornar os sistemas de computação (desde recursos de rede a data centers e chips) mais eficientes e sustentáveis, disse Vinod Nair, cientista da DeepMind.
“Como a sociedade está se tornando cada vez mais digital, precisamos de chips cada vez mais poderosos e especializados para várias aplicações”, acrescentou.
Chips melhores
O pensamento tradicional em melhorar o desempenho do chip depende de uma noção de computação conhecida como Lei de Moore, na qual aproximadamente a cada dois anos o número de transistores em um chip dobra.
No entanto, alguns especialistas dizem que, à medida que os transistores atingem seus limites físicos, os ganhos de desempenho virão do design de chips menores e especializados.
Aplicações – por exemplo, ChatGPT, drones e carros autônomos – agora rodam em chips focados em tarefas, como processadores de sinais digitais e os cobiçados processadores gráficos da Nvidia.
A abordagem baseada em IA da DeepMind, na qual começou a trabalhar há cerca de 18 meses, concentra-se em fazer melhorias na síntese lógica.
Essa fase de design do chip envolve transformar uma descrição do comportamento de um circuito no circuito real.
Chips de computador são compostos de milhões de circuitos lógicos ou “blocos de construção”, explicou Sergio Guadarrama, engenheiro de software sênior da DeepMind.
Embora seja fácil otimizar alguns deles manualmente, é impossível lidar com milhões deles, acrescentou o engenheiro.
Objetivo (e segredo) do Google
Ao aplicar IA para acelerar o projeto de circuitos lógicos, o objetivo da DeepMind é tornar o projeto de chips especializados mais automatizado, eficiente e menos dependente apenas do trabalho de engenheiros de hardware humanos.
Essa é uma diferença de milhares de designs gerados por IA numa semana, em comparação com um design produzido por um ser humano em poucas semanas, disse Guadarrama.
A chave para o avanço da DeepMind é o uso de deep learning (“aprendizado profundo”), uma técnica para classificar padrões usando grandes conjuntos de dados de treinamento e redes neurais de IA.
Em outras palavras, é uma maneira das máquinas aprenderem com dados vagamente modelados da maneira como um cérebro humano aprende a resolver problemas.
O laboratório de IA aplicou a mesma técnica à biologia, culminando no anúncio, em 2022, de que seu algoritmo AlphaFold havia previsto a estrutura de quase todas as proteínas conhecidas.
Para o design do chip, a DeepMind usou uma abordagem que chama de “redes neurais de circuito”, permitindo aos pesquisadores “moldar o problema para parecer que estamos treinando uma rede neural, mas na verdade estamos projetando um circuito”, disse Nair.
Resultados
Em junho, a abordagem da DeepMind venceu um concurso de programação focado no desenvolvimento de circuitos menores por uma margem significativa.
O salto demonstrou melhoria de eficiência de 27% em relação ao vencedor de 2022 e uma melhoria de eficiência de 40% em relação ao segundo colocado de 2023, disse Alan Mishchenko, pesquisador da Universidade da Califórnia e organizador do concurso.
Os resultados da equipe DeepMind foram uma espécie de “momento Eureka”, indicando que a síntese lógica tem muito mais progresso a fazer, disse Mishchenko.
A pesquisa dele se concentra na síntese lógica computacionalmente eficiente. Tal como acontece com outras descobertas científicas, Mishchenko disse que é provável que, dentro de alguns anos, pesquisadores e acadêmicos usem os resultados do DeepMind para impulsionar o campo.
David Pan, professor de engenharia elétrica e de computação na Universidade do Texas, em Austin, e consultor da X, uma empresa da Alphabet, disse que, embora existam ferramentas de automação de projeto que aceleram e auxiliam esse estágio do projeto de chips, essas ferramentas ainda estão longe de serem ideais.
Os resultados da DeepMind, embora se concentrem em apenas um pequeno aspecto do design do chip, são uma etapa fundamental em todo o processo de criação de um chip, disse ele.
A abordagem de aprendizado profundo da DeepMind para síntese lógica abre uma nova direção muito interessante para resolver o problema clássico de síntese lógica. As melhorias são genéricas para todos os chips, sejam ASICs especializados ou CPUs ou GPUs.
David Pan, professor de engenharia elétrica e de computação na Universidade do Texas
Com informações de The Wall Street Journal
Já assistiu aos nossos novos vídeos no YouTube? Inscreva-se no nosso canal!
Fonte: Olhar Digital
Comentários