Visão

Siga-nos nas redes

Perfil

"Uma máquina que é capaz de deliberar tem de ser responsabilizada. Antes, o responsável era o criador. Agora, quem é?"

Entrevistas VISÃO

Fernando Veludo

Leia ou releia a entrevista a António Jácomo, licenciado em Teologia, doutorado em Filosofia 
e Letras, investigador e docente do Instituto de Bioética da Universidade Católica do Porto, organizador da ICONE, conferência internacional de neuroética

A quarta edição do ICONE, conferência internacional de neuroética, organizada pelo Instituto de Bioética da Universidade Católica do Porto, que se realiza a 27 de abril, vai debater as grandes questões relacionadas com a Inteligência Artificial (IA). Académicos e cientistas vão discutir os últimos avanços da tecnologia, que levantam “dúvidas éticas verdadeiramente revolucionárias”. É o que tem ocupado o professor António Jácomo, 48 anos, licenciado em Teologia, doutorado em Filosofia 
e Letras, investigador e docente 
do Instituto de Bioética, coordenador do doutoramento nesta área. 


Porque andamos tão preocupados com a Inteligência Artificial?

Porque é uma forma de simular a inteligência. Nunca tínhamos conseguido equiparar um modelo cognitivo numa máquina, que o robô pudesse aprender por si próprio, ter dentro de si a capacidade de, por tentativa e erro, inovar, sem cometer os mesmos erros. Abriu-se a caixa de Pandora. A máquina já não vai fazer apenas aquilo que o algoritmo fechado lhe transmite (e bloquear se não conseguir). Agora, com um algoritmo aberto, tem a possibilidade de aprender sem a nossa ajuda, sem a inclusão de mais memória, de mais recursos ou de programação.

Que revolução se vai operar nas neurociências?

A lobotomia do nosso Egas Moniz indicava que podíamos desconectar áreas pré-frontais no nosso cérebro e mesmo assim continuaríamos a viver, a comer, a reconhecer as pessoas, a movimentar-nos, a ver, a ouvir. Com António Damásio chamámos, principalmente, a atenção para a importância das emoções na aprendizagem e na decisão. Durante 30 anos, ficámos convencidíssimos de que isto era a panaceia das neurociências.

Essa inteligência emocional 
é verdade para a máquina?

Não. A máquina não tem esta estimulação emocional. Mas o passo seguinte será: como é que a máquina aprende? Quando falamos de IA, forçamos o conceito de inteligência. Porque a nossa inteligência natural tem formas de atuação diferentes. Quando nos referimos à capacidade de aprendizagem das máquinas não podemos falar de uma verdadeira inteligência, porque o elemento emocional não vai ser replicado. 
Terão outros modelos.

A IA poderá ser uma ameaça? Conseguirá ultrapassar 
a inteligência de um ser humano?

Não. Esse é o grande viés, imaginar que a inteligência da máquina vai usurpar e dominar a humana. Isso 
não vai acontecer. Nesse aspeto, 
sou um otimista. O que terão pensado os primatas não humanos sobre 
a evolução da espécie? Tudo isto faz parte da nossa evolução. O grande desafio da bioética e da neuroética 
é o de preservar a inteligência natural e fazer da IA um complemento que nos auxiliará.

Podemos pôr um robô a agir 
e a aprender com os erros, sem deixar que ele nos domine?

É o grande desafio ético: tomar consciência do percurso que estamos a fazer. Temos de construir uma máquina que promova a nossa identidade e a nossa inteligência, como criatura de um criador, e não pensar que a IA é uma ameaça. É perfeitamente possível fazê-lo sem restringir e impedir o avanço tecnológico. O homem não está 
a perder o controlo. Quando vemos a Sophia com o Cristiano Ronaldo, fazemos um esforço muito grande para imaginar que aquele boneco pensa e é igual a nós, apesar do rosto humano. Quando na Arábia Saudita se dá personalidade jurídica e qualidade de cidadão a uma Sophia, percebemos que é uma sociedade a forçar uma realidade que ainda não existe. A máquina ainda não ultrapassou a inteligência humana.

E podemos assegurar que não 
a ultrapassará daqui a 20 anos?

Qual é a missão da neuroética? 
É, numa relação muito estreita 
com as neurociências, perceber 
a dimensão destes avanços e reafirmar as questões éticas – nem tudo o que 
é tecnicamente possível é conveniente para a evolução da Humanidade. Trata-se de conseguir um modelo ético para o futuro desta. A evolução não acontece a todo o custo.

Deve ser criada uma entidade reguladora supranacional que defina os limites da IA?

Já temos, a nível internacional, 
um conjunto de organismos que coordena essas questões. Há o grupo europeu de ética, em que uma equipa de especialistas assessorará 
a Comissão Europeia a trabalhar a IA 
e a robótica no emprego, nos impostos, no trabalho e na responsabilidade civil. Na academia 
e na investigação científica integramos o Human Brain Projet, um projeto internacional financiado pela União Europeia. É a primeira vez que um projeto de bandeira europeia se dedica às questões éticas e às implicações sociais. O professor Lobo Antunes tinha uma frase muito bonita: “A boa ciência produz boa ética.”

Quais as consequências da IA 
na evolução do nosso cérebro?

Fantásticas. O nosso cérebro já está 
a evoluir de uma forma espantosa, não só o individual, o de cada um de nós, como o coletivo, o da Humanidade.

Não vai provocar a diminuição 
das nossas capacidades?

Não, vai aumentá-las, devido 
à neuroplasticidade do cérebro humano, uma vez que este se altera. Acontece desde o aparecimento da roda ou do fogo. A neuroplasticidade 
é precisamente a capacidade que 
o homem tem de se adaptar às novas realidades. Há cerca de dez anos descobriu-se que, afinal, temos células estaminais e pluripotentes que possibilitam a neurogénese, criando já novos circuitos ou ninhos neuronais em cada cérebro, que não são iguais no meu ou no seu. E isto pode ser momentâneo e circunstancial, mas também estrutural, conforme for necessário ou estimulado.

Quando um robô substitui uma pessoa no posto de trabalho, que implicações isso vai ter 
na economia?

Esse é um aspeto muito importante que se traduz na questão: o que pretendemos da sociedade do futuro? Se conseguirmos que o robô facilite o nosso trabalho, construir uma sociedade mais lúdica é o desejo 
de toda a Humanidade. Estaremos 
a criar uma sociedade melhor.

Mas não é isso que se tem verificado...

Pois, ainda não encontrámos forma de criar condições para esta nova realidade. É o desafio da Comissão Europeia. Por isso, já se fala num imposto sobre a utilização das máquinas.

É o que defende?

Sim, é o caminho. A diminuição 
do emprego disponível causará um declínio das contribuições à Segurança Social. Habituámo-nos a que aquela máquina que nos tirou o posto de trabalho não revertesse para o bem comum, mas apenas para o bem do patrão ou de um grupo económico, que beneficiava com a exclusão de mão de obra. Hoje testamos políticas acerca de como criar um imposto sobre a utilização dessas novas máquinas. É a solução para dizer: já não vais trabalhar as 35 horas semanais, mas apenas 30, e isto 
vai deixar-te com mais tempo para 
a família ou para os amigos.

E não diminui o salário?

Essa é outra condição. Não diminuir 
a massa salarial nem o salário. Porque o imposto sobre a máquina vai reverter para meu benefício. Esta é uma forma mais justa e socialmente sustentada de enfrentarmos o que é inevitável: a maior utilização de recursos tecnológicos.

O confronto com as empresas transnacionais que têm essa tecnologia tem sido fácil?

Vamos percebendo que, entre avanços e recuos, a forma como a Europa 
e também os Estados Unidos 
da América estão a enfrentar a questão é cada vez mais musculada. Não 
só pelas multas que começam a ser aplicadas mas também pelas próprias diretivas europeias. Essa é a forma de a sociedade mostrar que, como um todo, quem manda aqui somos nós. Veja o que está a acontecer com a diretiva sobre a proteção de dados, que foi uma grande batalha e de que vamos em breve ver o resultado 
da sua aplicação.

Acredita que é possível controlar 
o uso dos nossos dados?

Sim. Os avanços são de tal forma radicais que fizeram tremer as grandes empresas de dados que estiveram muito tempo sem regulação. Percebe-se bem que isso vai mudar. Continuaremos a ver atentados à dignidade das pessoas, à usurpação e a um capitalismo selvagem, mas as perspetivas são de uma atenção mais musculada. Não existe um compadrio tão evidente como há uns anos, mesmo com Durão Barroso na Comissão Europeia. A postura da União era mais complacente, mais low profile, para com o criar compromissos e não tanto para o reivindicar de regras. Ainda estamos numa fase inicial, mas aquilo que se observa é que há uma grande preocupação sobre as consequências sociais. Num dos painéis do ICONE vamos tratar também esta questão.

Um robô deve ter direitos 
e deveres?

Sem dúvida. É uma consequência lógica da IA, mas só enquanto garantia de uma responsabilização. Uma máquina que tem capacidade de deliberação tem de ser responsabilizada. Até há pouco tempo, era claríssimo que o responsável era o criador, aquele que tinha criado a máquina. Mas estas máquinas vão ter capacidade de decidir. Então, quem é responsável? Eu, o criador da máquina, que lhe dei a capacidade de decidir? Temos de encontrar um novo ordenamento jurídico. O aspeto mais prático desta responsabilização é, por exemplo, impedir modalidades de programação em determinados setores. Podemos regulamentar, 
na área da Saúde, por exemplo, que em determinadas situações não possa ser utilizado o recurso ao grande 
Dr. Watson [uma plataforma cognitiva da IBM], que é a IA no diagnóstico médico.

Vamos ter máquinas capazes de desenvolver um raciocínio complexo. Serão criativas?

Sim. É o futuro da Inteligência Artificial. A máquina vai ser criativa e pensar naquilo que não tínhamos pensado. Será a evolução normal, de ajuda e de complemento à nossa realidade.

E vai ser capaz de amar?

Na verdade, a estrutura neurobiológica do amor não é replicável numa estrutura computacional. Mas será capaz de replicar afetos. Se pensarmos bem, às vezes nas nossas relações interpessoais há muita falsidade e ilusão. Quantas vezes o que achamos que é amor não é nada mais do que uma relação de dependência ou de interesse. Quando conseguimos colocar na máquina esta ilusão de amor, ela pode demonstrar que ama.

Por reflexo?

Sim, porque é uma questão 
de feedback.

Nesse mundo de máquinas, onde fica a espiritualidade do ser humano? Os homens e as sociedades já foram dominados pelos seus deuses. E agora?

[Pausa.] Os homens foram dominados pelos seus medos. Acreditar no transcendente faz parte da estrutura humana. E ela tem ao longo da História muitas variações. Mas vai existir sempre.

As máquinas serão os novos deuses?

Não. Teremos sempre a consciência 
de que o espiritual é algo de intangível. Podemos fazer do outro um deus; há regimes políticos que idolatram pessoas, ditadores ou máquinas. 
Mas isso é uma relação patológica 
com a divindade e a espiritualidade. Na essência da espiritualidade vai estar sempre um transcendente, 
uma realidade que não conhecemos. E este transcendente pode chamar-se Jeová ou Alá, vamos dar-lhe um nome sempre novo. O que vemos é que as novas modalidades do espiritual vão acompanhando as novas tecnologias. É incrível o número de aplicações e de recursos que hoje temos para conhecer e integrar novas áreas de espiritualidade. Estas redes ajudarão a um ecumenismo e a uma comunhão de todas as religiões e à construção de algo mais holístico. A IA vai contribuir – não para descobrir Deus, que não é essa a sua função, nem a da ciência – a aproximarmo-nos mais da divindade ou de uma espiritualidade comum a todos.

Não teremos sociedades mais desumanizadas?

É esta a grande batalha do Instituto de Bioética e é cada vez mais a sensibilidade da sociedade, de políticos e cientistas. Sou um otimista com os pés na terra. Penso que os ganhos da Inteligência Artificial serão muito maiores do que as perdas.