Pesquisadores do Centro de Neurociência Computacional Integrativa (ICoN) do Instituto de Tecnologia de Massachusetts (MIT) forneceram evidências de que o mundo físico pode ser compreendido pelo nosso cérebro através de um processo semelhante à aprendizagem auto-supervisionada em inteligência Artificial (IA). Essa forma de aprendizagem permite que modelos computacionais reconheçam padrões visuais sem informações externas.
Em outras palavras, a aprendizagem auto-supervisionada consegue interpretar o mundo ao redor com base apenas nas semelhanças e diferenças entre o que é identificado por sensores visuais, sem se basear em rótulos ou outras informações. Esse tipo de competência é encontrado nos cérebros dos mamíferos.
Dois novos estudos (1, 2) reforçam essa semelhança. Ao treinarem redes neurais artificiais utilizando um tipo específico de aprendizagem auto-supervisionada, os pesquisadores observaram padrões de atividade muito semelhantes aos encontrados nos cérebros de animais que realizavam as mesmas tarefas que as redes.
Ambos os estudos serão apresentados em dezembro, na Conferência sobre Sistemas de Processamento de Informação Neural (NeurIPS) de 2023. Em um deles, os modelos de IA auto-supervisionados foram treinados para prever o estado futuro do ambiente através de centenas de milhares de vídeos mostrando cenários do cotidiano.
No outro estudo, modelos auto-supervisionados de IA simularam a função das células de grade no cérebro, que são cruciais para a navegação espacial dos animais interagindo com o mundo ao redor. Esses modelos foram capazes de formar padrões de rede semelhantes aos das células de grade reais.
Para os pesquisadores, os resultados indicam muito mais do que possibilidades melhores de desenvolvimento de IA para robôs interagirem com o ambiente. Eles também podem significar mais insights importantes sobre o funcionamento do cérebro.
ViaTech Xplore
Fonte: Olhar Digital
Comentários