Dora Kaufman: Redes neurais artificiais e a complexidade do cérebro humano

A ideia de usar a lógica de aprendizagem em uma máquina remete, ao menos, à Alan Turing. Em seu artigo de 1950, onde propõe um teste para a pergunta se uma máquina pode pensar (Computing Machinery and Intelligence, Mind Magazine), Turing cogita a ideia de produzir um programa que, em vez de simular a mente do adulto, simule a mente de uma criança.
Foto: Reprodução
Foto: Reprodução

A ideia de usar a lógica de aprendizagem em uma máquina remete, ao menos, à Alan Turing. Em seu artigo de 1950, onde propõe um teste para a pergunta se uma máquina pode pensar (Computing Machinery and Intelligence, Mind Magazine), Turing cogita a ideia de produzir um programa que, em vez de simular a mente do adulto, simule a mente de uma criança. Evoluindo ao longo do tempo, ele a chamou de “máquina-criança”. O campo da inteligência artificial (IA) foi inaugurado num seminário de verão, em 1956, com a premissa de que “todos os aspectos da aprendizagem ou qualquer outra característica da inteligência, podem, em princípio, ser descritos tão precisamente de modo que uma máquina pode ser construída para simulá-la”. Quase 80 anos depois, a IA ainda está restrita à modelos empíricos, o campo não possui uma teoria, e é controversa a associação à máquinas de conceitos como inteligência e aprendizado.

Ética é objeto da ação humana, não existe ética da inteligência artificial
Apostando na superação das limitações científicas atuais, um grupo de líderes do Vale do Silício está empenhado em “superar a morte”, atingir o que eles chamam de “amortalidade”. Ray Kurzweil, no livro The Singularity is Near, prevê que ao final do século XXI a parte não biológica da inteligência humana será trilhões de vezes mais poderosa que a inteligência humana biológica, e não haverá distinção entre humanos e máquinas.

Em 2013, o Google fundou a Calico, empresa dedicada a “resolver a morte”, em seguida nomeou Bill Maris, igualmente empenhado na busca da imortalidade, como presidente do fundo de investimento Google Venture que aloca 36% do total de 2 bilhões de dólares em startups de biociência com projetos associados à prorrogar a vida. No mesmo ano, Peter Diamandis, co-fundador e presidente executivo da Singularity University, lançou a empresa Human Longevity dedicada à combater o envelhecimento, projetando que o aumento da longevidade criaria um mercado global de US$ 3,5 trilhões.

A startup Neuralink, fundada por Elon Musk em 2016, investe no desenvolvimento de uma interface cérebro-computador que possibilitaria, por exemplo, fazer streaming de música direto no cérebro; outro foco é viabilizar a transferência da mente humana para um computador, libertando o cérebro do corpo envelhecido e acoplando-o à uma “vida digital” num processo chamado “mind-upload” (transferência da mente humana). Essa visão utópica pós-humanista supõe que esses melhoramentos conduzirão à vitória sobre o envelhecimento biológico, portanto, ao nascimento de uma nova espécie: os pós-humanos, libertados de seu corpo mortal.

Na visão de Yoshua Bengio, um dos três idealizadores do deep learning, “esses tipos de cenários não são compatíveis com a forma como construímos atualmente a IA. As coisas podem ser diferentes em algumas décadas, não tenho ideia, mas, no que me diz respeito, isso é ficção científica”.

O ponto de partida para avaliar o quão distante a ciência está dessas ideias é compreender a arquitetura e o funcionamento do cérebro. O biofísico Roberto Lent, em recente conversa no TIDD Digital, traduziu a extrema complexidade do cérebro humano em números: cada ser humano possui 86 bilhões de neurônios e 85 bilhões de células coadjuvantes no processo da informação. Considerando apenas os neurônios, como em média ocorrem 100 mil sinapses por neurônio, temos um total aproximado de 8,6 quatrilhões de circuitos que, ainda por cima, são plásticos, ou seja, mutáveis continuamente.

Numa sinapse, transmissão da informação de um neurônio para o outro, o segundo neurônio pode bloquear a informação, pode modificar a informação, pode aumentar a informação, ou seja, a informação que passa para o segundo neurônio pode ser bastante diferente da informação que entrou, indicando a enorme capacidade de modificação da informação que tem o cérebro. As regiões responsáveis pela memória e pelas emoções, dentre outros fatores, afetam a informação inicial.

O aprendizado de uma criança, que alguns comparam com o aprendizado de máquina, ocorre por complexos processos cerebrais. Segundo Lent, uma criança para aprender a escrever precisa formar uma conexão entre escrita e significado, para tal usa a região da face no hemisfério esquerdo porque não temos uma área cerebral da escrita e da leitura. Essas habilidades são construtos da civilização, que têm “apenas” 4 mil anos, logo não tem tempo evolutivo suficiente para ter uma área cerebral específica. A região do hemisfério esquerdo, desenvolvida na fase bebê para o reconhecimento de faces, desloca-se para o hemisfério direito, e no hemisfério esquerdo começa a ser implantada uma região de reconhecimento de símbolos da escrita. Isso mostra o grau de plasticidade do cérebro, ao realocar funções que vão aparecendo durante a vida do indivíduo com novas aquisições culturais.

A neuroplasticidade — capacidade do cérebro de mudar, adaptar-se e moldar-se a nível estrutural e funcional quando sujeito à novas experiências do ambiente interno e externo —, gera uma complexidade que é difícil reproduzir em uma máquina. A dinâmica do cérebro é altamente modulável, não é uma cadeia de informação linear que leva diretamente à um resultado previsível, como também nos ensinou Roberto Lent.

Para Yann LeCun, outro dos três idealizadores do deep learning, a observação e a interação da criança com o mundo desempenham um papel central no aprendizado infantil, incluindo saberes tais como que o mundo é tridimensional, que tem gravidade, inércia e rigidez. Esse tipo de acúmulo de enorme quantidade de conhecimento é que não se sabe como reproduzir nas máquinas – observar o mundo e descobrir como ele funciona -, mas em algum momento, pondera LeCun, “vai se descobrir uma maneira de treinar as máquinas para que aprendam como o mundo funciona assistindo vídeos do YouTube”.

Andrew NG, respeitado cientista e empreendedor em IA, crê que o maior problema da IA é de comunicação: “O tremendo progresso por meio da IA ‘estreita’ está fazendo com que as pessoas argumentem erroneamente que há um tremendo progresso na AGI (artificial general intelligence). Francamente, não vejo muito progresso em direção à AGI”. A IA que atualmente permeia os aplicativos, plataformas online, sistemas de rastreamento e de reconhecimento facial, diagnósticos médicos, modelos de negócio, redes sociais, plataformas de busca, otimização de processos, chatbots, e mais uma infinidade de tarefas automatizáveis, é apenas um modelo estatístico de probabilidade baseado em dados, “anos luz” distante da complexidade do cérebro humano.

*Dora Kaufman professora do TIDD PUC – SP, pós-doutora COPPE-UFRJ e TIDD PUC-SP, pós-doutoranda na Filosofia da USP, doutora ECA-USP com período na Université Paris – Sorbonne IV. Autora dos livros “O Despertar de Gulliver: os desafios das empresas nas redes digitais”, e “A inteligência artificial irá suplantar a inteligência humana?”. Professora convidada da Fundação Dom Cabral

Privacy Preference Center