Olhar Digital > Pro > IA inspirada no cérebro consegue simular atividade neural, diz estudo

Alterações estruturais geraram padrões semelhantes aos de humanos e primatas, mesmo sem exposição prévia a dados

Imagem: Peshkova/Shutterstock

Siga o Olhar Digital no Google Discover

Inteligência artificial

Tudo sobre Inteligência Artificial

Sistemas de inteligência artificial projetados com estruturas mais próximas das do cérebro humano podem reproduzir padrões de atividade neural antes de qualquer fase de treinamento.

É o que aponta uma pesquisa do mês passado da Universidade Johns Hopkins, publicada na Nature Machine Intelligence, que desafia o modelo dominante de desenvolvimento de IA baseado em volumes massivos de dados e poder computacional.

cérebro humano
Estudo indica que o “segredo” da IA pode estar no desenho — não nos dados (Imagem: Andrii Shyp/iStock)

Arquitetura antes dos dados

  • Segundo o autor principal, Mick Bonner, professor-assistente de ciências cognitivas, o setor de IA tem avançado priorizando modelos gigantescos, treinados com imensos conjuntos de dados e em centros de computação de escala industrial.
  • “Enquanto isso, humanos aprendem a ver usando pouquíssimos dados”, afirmou. Para Bonner, arquiteturas mais parecidas com as do cérebro colocam os sistemas de IA em “um ponto de partida vantajoso”.
  • A equipe comparou três arquiteturas amplamente usadas no desenvolvimento de IA: transformers, redes totalmente conectadas e redes convolucionais.
  • A partir dessas bases, os pesquisadores criaram dezenas de variações, ajustando cada desenho estrutural.

Leia mais:

inteligencia artificial
Achado pode reduzir custos bilionários e o consumo energético do treinamento de modelos atuais (Imagem: Anggalih Prasetya/Shutterstock)

Redes convolucionais se aproximam mais do cérebro

Ao expor esses modelos não treinados a imagens de objetos, pessoas e animais, os cientistas analisaram como suas respostas se aproximavam da atividade neural observada em humanos e primatas nas mesmas condições.

Enquanto transformers e redes totalmente conectadas pouco mudaram mesmo com o aumento no número de neurônios artificiais, as redes convolucionais modificadas geraram padrões mais semelhantes aos do cérebro.

Segundo o estudo, essas redes convolucionais não treinadas rivalizaram o desempenho de sistemas convencionais que exigem milhões ou bilhões de imagens para aprender. A descoberta reforça a hipótese de que a arquitetura pode ser mais determinante do que o tamanho dos dados.

A equipe agora trabalha no desenvolvimento de algoritmos de aprendizagem inspirados na biologia, capazes de apoiar um novo modelo de deep learning.

Novo estudo desafia modelo atual de IA e mostra vantagem de arquiteturas “biológicas” – Imagem: Suri Studio/Shutterstock

Leandro Costa Criscuolo

Colaboração para o Olhar Digital

Leandro Criscuolo é jornalista formado pela Faculdade Cásper Líbero. Já atuou como copywriter, analista de marketing digital e gestor de redes sociais. Atualmente, escreve para o Olhar Digital.

Layse Ventura

Editor(a) SEO

Layse Ventura no LinkedIn

Layse Ventura é jornalista (Uerj), mestre em Engenharia e Gestão do Conhecimento (Ufsc) e pós-graduada em BI (Conquer). Acumula quase 20 anos de experiência como repórter, copywriter e SEO.