Visão

Siga-nos nas redes

Perfil

"A Inteligência Artificial fez com que fosse possível para qualquer pessoa ser cada vez melhor"

Entrevistas VISÃO

José Carlos Carvalho

Terrence Sejnowski, professor de Neurobiologia Comportamental, em entrevista à VISÃO, explica como a IA vai tornar os diagnósticos médicos mais acertados e permitir-nos ser melhores astrónomos e melhores físicos

Sara Sá

Sara Sá

Jornalista

Terrence Sejnowski galga, apressado, as escadas do auditório da Fundação Calouste Gulbenkian. Vem esbaforido, de braço no ar, enquanto lhe colocam o microfone. A sua conferência já devia ter começado há mais de uma hora, mas mesmo assim a sala continua cheia de pessoas interessadas em ouvir o que o professor de Neurobiologia Computacional do Instituto Salk, em San Diego, Califórnia, tem para contar sobre o mundo da Inteligência Artificial (IA). Apesar de ter sido travado por uma sucessão de tempestades, voos cancelados e ligações perdidas, o cientista norte-americano, que começou por estudar Física para depois se dedicar ao estudo do cérebro humano, não dá sinal de cansaço ou falta de entusiasmo. Acabará por ficar menos de 12 horas em Lisboa – tempo suficiente para nos fazer viajar até ao futuro.

No seu livro The Deep Learning Revolution (MIT Press) mostra como a aprendizagem profunda (deep learning), uma das derivações da IA, já está a transformar as nossas vidas, do Google Translate aos carros sem condutor e aos assistentes pessoais como a Siri ou a Alexa. “É um campo que avança a grande velocidade. O livro foi editado no ano passado e já está desatualizado”, diz. “Ninguém consegue prever para onde vamos com a IA.” Apesar de ser um otimista, o cientista admite ter receio de dois aspetos relacionados com este novo mundo: a perda de privacidade, dando o exemplo das câmaras de vigilância que estão por todo o lado na China, e o eventual enviesamento em sistemas de seleção (para o recrutamento de recursos humanos).

Aprender sobre o cérebro permite saber mais sobre IA ou é ao contrário?
É das duas maneiras. O progresso tem sido tão rápido que, à medida que sabemos mais sobre o cérebro, conseguimos construir melhores máquinas, usando a aprendizagem. E agora as redes e as arquiteturas que estão a ser desenvolvidas podem ser usadas para estudar os circuitos cerebrais. Por isso, este é um tempo invulgar na História, em que há uma coincidência temporal, com os dois campos a convergirem e a alimentarem-se um ao outro. Isto nunca tinha acontecido. E a razão é que antigamente se escrevia um programa que usa símbolos. E acontece que no cérebro não há símbolos. Os padrões de atividade têm uma arquitetura muito diferente. Agora que temos uma arquitetura para a IA com igual, e muito elevado, grau de processamento paralelo, de interação entre as várias unidades, os princípios são os mesmos que estamos a tentar extrair quer do cérebro quer da IA.

Mesmo assim, o processo de aprendizagem da IA é muito lento. Basta pensar no exemplo que deu durante a conferência do reconhecimento de um gato. Uma criança aprende, ao fim de duas, três vezes, a reconhecer um gato. Um computador precisa que lhe mostrem centenas de imagens de gatos até reconhecer um padrão…
O problema é que estas redes não passam por anos de desenvolvimento. Quando nascem, os bebés são completamente indefesos. Porquê? Porque os seus cérebros estão constantemente a absorver enormes quantidades de informação – sobre a estrutura do mundo, os objetos, que há uma mãe... Toda esta experiência de aprendizagem, a maior parte dela sem supervisão, está a construir os circuitos que serão usados mais tarde na aprendizagem de outros conceitos. O que estamos a tentar agora fazer em IA é ultrapassar esta fase inicial, fazer um bypass e ir diretamente para o desempenho do cérebro humano. Mas é uma área quente hoje em dia. E o machine learning começa a exigir cada vez menos exemplos. Há pouco tempo, ouvi numa conferência que se pegarmos num sistema que já tenha sido treinado com mil exemplos em várias categorias, este vai precisar de menos exemplos numa próxima categoria que venha a ser incluída.

Quer dizer que o sistema aprende a aprender?
Exato.

Zachary Mainen [neurocientista da Fundação Champalimaud que deu uma conferência no mesmo dia] falou em recompensa, no sentimento de prazer desencadeado pela aprendizagem. É possível mimetizar esta recompensa em máquinas?
Sim. No caso da máquina, é o chamado loss function ou cost function. Por outras palavras: diz-se à máquina qual é o objetivo e depois recompensamo-la sempre que acerta na resposta.

Como se recompensa uma máquina?
Isso acontece no gânglio basal, chama-se aprendizagem de reforço. Trata-se de algoritmos que funcionam por reforço. Estamos sempre a fazer previsões quanto ao nível de recompensa que vamos ter se adotarmos este ou aquele comportamento. À medida que passamos pelas experiências, atualizamos este padrão. Ou seja: ao longo da vida adquirimos um sentimento muito aperfeiçoado acerca do que nos dá prazer e do que nos trará dor. O bebé tem de aprender isso também, o que acontece através da experiência.

E existe um equivalente à dopamina numa máquina?
Sim. Existe dentro da máquina uma unidade que se comporta tal e qual como os neurónios dopaminérgicos.

Isto é estranho, não é?
Pensarmos numa máquina que se sinta recompensada?
Bem, é um algoritmo. O que descobrimos foi que a Natureza implementou algoritmos nos nossos cérebros, e nós associamos sentimentos e prazer. E isto porque há uma parte do cérebro a aceder à qualidade estética, além da necessidade nutricional (temos de comer porque precisamos de comida), que avalia o quanto se gosta. E isto ainda não conseguimos incorporar na rede. Ou seja: há centenas de áreas, fora do córtex e do gânglio basal, que não foram ainda incorporadas nestas redes de deep learning. E isto é o que as neurociências estão a estudar.

Qual será a vantagem da introdução destas componentes?
Na IA sempre tivemos um problema de grounding: como se relaciona o que se está a passar no universo da IA com o que se está a passar no mundo real – não conseguíamos comunicar, exceto através do teclado. Hoje fazemo-lo, porque há reconhecimento de voz, podemos fazer processamento de linguagem natural, fazer perguntas, a rede consegue ver. Já há uma forma de a rede comunicar diretamente connosco. Falta-nos acrescentar aquilo que nos parece importante, para nós, humanos: as prioridades, emoções, sentimentos, tudo o que nos trouxe até aqui. A arte, a estética. Agora vamos conseguir acrescentar ao sistema, porque é uma parte do cérebro que conseguimos estudar e podemos compreender: perceber o algoritmo e incorporar na máquina.

Porque o fazemos?
Não sei bem. Talvez nós, humanos, tenhamos um desejo de criar as coisas à nossa imagem. Temos animais de estimação, arte... Tudo isto dá significado à nossa vida.

O nosso cérebro também tem vindo a melhorar, a aumentar a sua capacidade de processamento. Acredita que isto continuará a acontecer?
Isto é interessante. Em 1997, quando o Kasparov perdeu com o Deep Blue, houve logo quem anunciasse que seria o fim do xadrez para os humanos. E é verdade que os jogos de computador podem derrotar facilmente os humanos. Mas hoje continuamos a jogar, e até a um nível mais alto, porque temos a possibilidade de nos treinarmos com um adversário melhor. De certa forma, isto democratizou o xadrez. Antes, para se chegar a Grande Mestre, era preciso jogar com um Grande Mestre, o que só acontecia em clubes de xadrez das grandes cidades. Atualmente, isso pode fazer-se online. Portanto, quem é atualmente o campeão mundial? Magnus Carlsen, um rapaz norueguês, que cresceu numa pequena cidade a jogar com um computador. A IA fez com que fosse possível para qualquer pessoa, em qualquer parte do mundo, ser cada vez melhor. Posso dizer que há uma espécie de mantra no meu livro que é “a IA irá tornar-nos mais inteligentes”. Vai tornar os diagnósticos médicos mais acertados, seremos melhores astrónomos, melhores físicos.

Também irá ajudar-nos a tomar decisões…
A tomar melhores decisões do foro pessoal, inclusivamente, em áreas em que é difícil escolher.

A propósito de aprendizagem, os truques baseiam-se no processo de aprendizagem das máquinas?
Há muitas coisas que já aprendemos com a Psicologia sobre a melhor forma de aprender. Já sabemos que estudar um pouco e fazer revisões várias vezes é melhor do que estudar de uma forma concentrada, durante muito tempo seguido. A isso chamamos space learning. A ideia é a de que, para retermos informação muito tempo, não serve aprender só uma vez. Dessa forma, esquecemo-nos. Para reter a informação – para um teste –, o que é preciso fazer é estudar uma vez e depois rever dali a umas semanas e depois outra vez passados uns dias. A cada vez que se revê, acrescenta-se mais alguma informação, aprende-se num novo contexto. Se o fizermos sistematicamente (e isto já foi demonstrado com diversas disciplinas, Matemática, Línguas, Física), a forma de aprendizagem é mais eficiente e retém-se a informação durante muito mais tempo. O exercício também é muito importante para o cérebro. De facto, é das coisas mais importantes que podemos fazer pela saúde do nosso cérebro. Recarrega-o e ajuda a resolver problemas porque, enquanto estamos a exercitar-nos, o cérebro está a trabalhar, de forma subconsciente, no problema.

É por isso que se tem boas ideias enquanto se corre?
Exato! Eu costumo ter boas ideias enquanto estou a correr na praia.

Na conferência, afirmou que a máquina “gosta” de aprender.
É possível falar em “gostar” quando nos referimos a uma máquina?

Gostar no sentido matemático. A estrutura da rede é de certa forma compatível com a de uma língua. E isto pode não ser uma grande surpresa. A linguagem desenvolve-se no nosso cérebro, que tem esta estrutura.

Ou seja: é a criação de um sistema semelhante.
Sim.

Também ensina a lutar contra a procrastinação.
É uma forma muito efetiva de vencer a inércia. Como é que se começa? Pega-se no cronómetro e marca-se 20 minutos. Enfrenta-se a pilha de papéis, ou a escrita de um artigo, prepara-se a mente, começa-se a escrever umas linhas. Ao fim destes 20 minutos, a pessoa pode parar o que está a fazer e ir comer um chocolate. Isto ensina o cérebro que depois de um trabalho vem uma recompensa. Uns dias depois, voltamos ao trabalho e já não estamos no início, não partimos do zero. Neste intervalo, o cérebro tem estado a trabalhar de forma subconsciente. E já está a pensar no que fazer a seguir.

Então, o truque é programar o cronómetro e recompensar-se?
Exato.

E depois a pessoa engorda.
É por isso que temos de fazer exercício também. [Risos.]

E funciona para toda a gente, para tudo, desde a gestão do email ao estudo?
Toda a gente que já testou o método assegura-me que funciona.

Às vezes, ter as coisas feitas é a própria recompensa.
Se conseguir vencer a inércia inicial. Aquela barreira de energia inicial, que é preciso forçar a ultrapassar. E a estratégia é pensar que é só por um período limitado de tempo.

ASSINE POR UM ANO A VISÃO, VISÃO JÚNIOR, JL, EXAME OU EXAME INFORMÁTICA E OFERECEMOS-LHE 6 MESES GRÁTIS, NA VERSÃO IMPRESSA E/OU DIGITAL. Saiba mais aqui.