Uma nova pesquisa da Universidade Johns Hopkins mostra que sistemas de inteligência artificial projetados com designs inspirados na biologia podem começar a se assemelhar à atividade cerebral humana, mesmo antes de serem treinados com dados. O estudo sugere que a estrutura da IA pode ser tão importante quanto a quantidade de dados que ela processa.
As descobertas, publicadas na Nature Machine Intelligence, desafiam a estratégia dominante no desenvolvimento da IA. Em vez de depender de meses de treinamento, enormes conjuntos de dados e vasto poder computacional, a pesquisa destaca o valor de começar com uma base arquitetônica semelhante à do cérebro.
Repensando a Abordagem Pesada em Dados da IA
“A forma como o campo da IA está evoluindo agora é jogar uma quantidade imensa de dados nos modelos e construir recursos computacionais do tamanho de pequenas cidades. Isso exige gastar centenas de bilhões de dólares. Enquanto isso, os humanos aprendem a ver usando muito poucos dados”, disse o autor principal Mick Bonner, professor assistente de ciência cognitiva na Universidade Johns Hopkins. “A evolução pode ter convergido para esse design por uma boa razão. Nosso trabalho sugere que designs arquitetônicos mais semelhantes ao cérebro colocam os sistemas de IA em um ponto de partida muito vantajoso.”
Bonner e seus colegas buscaram testar se a arquitetura por si só poderia dar aos sistemas de IA um ponto de partida mais semelhante ao humano, sem depender de um treinamento em larga escala.
Comparando Arquiteturas Populares de IA
A equipe de pesquisa focou em três tipos principais de designs de redes neurais comumente usados em sistemas de IA modernos: transformadores, redes totalmente conectadas e redes neurais convolucionais.
Eles ajustaram repetidamente esses designs para criar dezenas de diferentes redes neurais artificiais. Nenhum dos modelos foi treinado previamente. Os pesquisadores então mostraram aos sistemas não treinados imagens de objetos, pessoas e animais e compararam sua atividade interna com as respostas cerebrais de humanos e primatas não humanos ao visualizar as mesmas imagens.
Por que as Redes Convolucionais se Destacaram
Aumentar o número de neurônios artificiais em transformadores e redes totalmente conectadas produziu pouca mudança significativa. No entanto, ajustes semelhantes em redes neurais convolucionais levaram a padrões de atividade que se aproximavam mais dos observados no cérebro humano.
Segundo os pesquisadores, esses modelos convolucionais não treinados apresentaram desempenho equivalente a sistemas de IA tradicionais que geralmente requerem exposição a milhões ou até bilhões de imagens. Os resultados sugerem que a arquitetura desempenha um papel maior na formação de comportamentos semelhantes aos do cérebro do que se acreditava anteriormente.
Um Caminho Mais Rápido para uma IA mais Inteligente
“Se o treinamento em dados massivos é realmente o fator crucial, então não deveria haver maneira de alcançar sistemas de IA semelhantes ao cérebro apenas por modificações arquitetônicas”, disse Bonner. “Isso significa que, ao começar com o plano correto e talvez incorporar outros insights da biologia, podemos acelerar dramaticamente o aprendizado em sistemas de IA.”
A equipe agora está explorando métodos de aprendizado simples inspirados pela biologia que poderiam levar a uma nova geração de frameworks de aprendizado profundo, potencialmente tornando os sistemas de IA mais rápidos, eficientes e menos dependentes de conjuntos de dados massivos.
