Olhar Digital > Pro > IA inspirada no cérebro consegue simular atividade neural, diz estudo
Alterações estruturais geraram padrões semelhantes aos de humanos e primatas, mesmo sem exposição prévia a dados
Siga o Olhar Digital no Google Discover
Tudo sobre Inteligência Artificial
Sistemas de inteligência artificial projetados com estruturas mais próximas das do cérebro humano podem reproduzir padrões de atividade neural antes de qualquer fase de treinamento.
É o que aponta uma pesquisa do mês passado da Universidade Johns Hopkins, publicada na Nature Machine Intelligence, que desafia o modelo dominante de desenvolvimento de IA baseado em volumes massivos de dados e poder computacional.

Arquitetura antes dos dados
- Segundo o autor principal, Mick Bonner, professor-assistente de ciências cognitivas, o setor de IA tem avançado priorizando modelos gigantescos, treinados com imensos conjuntos de dados e em centros de computação de escala industrial.
- “Enquanto isso, humanos aprendem a ver usando pouquíssimos dados”, afirmou. Para Bonner, arquiteturas mais parecidas com as do cérebro colocam os sistemas de IA em “um ponto de partida vantajoso”.
- A equipe comparou três arquiteturas amplamente usadas no desenvolvimento de IA: transformers, redes totalmente conectadas e redes convolucionais.
- A partir dessas bases, os pesquisadores criaram dezenas de variações, ajustando cada desenho estrutural.
Leia mais:
- IA que raciocina mais alucina mais: novos modelos da OpenAI “viajam” bastante
- A ilusão da amizade com a inteligência artificial
- Sociabilidade artificial: por que estamos nos apegando a máquinas que não sentem?
Redes convolucionais se aproximam mais do cérebro
Ao expor esses modelos não treinados a imagens de objetos, pessoas e animais, os cientistas analisaram como suas respostas se aproximavam da atividade neural observada em humanos e primatas nas mesmas condições.
Enquanto transformers e redes totalmente conectadas pouco mudaram mesmo com o aumento no número de neurônios artificiais, as redes convolucionais modificadas geraram padrões mais semelhantes aos do cérebro.
Segundo o estudo, essas redes convolucionais não treinadas rivalizaram o desempenho de sistemas convencionais que exigem milhões ou bilhões de imagens para aprender. A descoberta reforça a hipótese de que a arquitetura pode ser mais determinante do que o tamanho dos dados.
A equipe agora trabalha no desenvolvimento de algoritmos de aprendizagem inspirados na biologia, capazes de apoiar um novo modelo de deep learning.
Colaboração para o Olhar Digital
Leandro Criscuolo é jornalista formado pela Faculdade Cásper Líbero. Já atuou como copywriter, analista de marketing digital e gestor de redes sociais. Atualmente, escreve para o Olhar Digital.