“Ao convivermos cada vez mais com os robots sociais, cuidadores robóticos e até bonecas sexuais, a forma como vamos tratá-los será mais problemática do ponto de vista moral”

Tem defendido a criação de uma agência global que não só regule o desenvolvimento da Inteligência Artificial como também assegure uma distribuição equitativa dos seus benefícios. Simon Chesterman, nascido na Austrália, atual reitor da Faculdade de Direito da Universidade Nacional de Singapura, é o autor do livro Nós, os Robots? Regular a Inteligência Artificial e os Limites da Lei, uma abordagem sóbria a um assunto que tem sido alvo de especulação e de muita imaginação ao longo de décadas. A obra é sustentada em casos reais de acidentes de carros autónomos, negociações bolsistas automatizadas, que provocaram o caos no mercado, sistemas de software que avaliam a probabilidade de uma pessoa cometer um crime, entre muitos outros exemplos. Simon Chesterman foi um dos oradores da conferência Lisbon, Law and Tech, organizada pelo Instituto do Conhecimento, da Abreu Advogados. Em conversa com a VISÃO, falou sobre o livro, o seu 21º, os desafios da regulação da Inteligência Artificial e até sobre o papel da ficção científica nesta matéria.

Temos de criar novas regras para lidarmos com a Inteligência Artificial?
Temos vindo a assistir, desde 2016, ao crescimento de um movimento que pretende criar novas regras e princípios a aplicar no uso da Inteligência Artificial, mas eu creio que isso é um erro.

Mas é apologista de uma nova regulamentação para a Inteligência Artificial?
Sim, mas não temos de partir do zero. Muitas das regras e das leis em vigor podem ser aplicadas. Por outro lado, não basta criar as regras certas. O verdadeiro desafio está na forma como vamos fazer para que estas regras funcionem para as máquinas.

A China defendeu recentemente que a Inteligência Artificial pode tornar os tribunais mais eficientes e justos. É possível que as máquinas consigam suplantar os humanos em questões tão sensíveis como as da Justiça?
A consistência é algo em que a Inteligência Artificial é exímia. Se perguntar a uma pessoa porque tomou determinada decisão, na maioria das vezes ela terá dificuldade em ser honesta. Para certos tipos de tomada de decisão, a máquina é muito superior ao Homem. Por exemplo, e pegando no caso dos tribunais, se o juiz recorrer a uma máquina de calcular para resolver uma divisão complicada, ninguém irá pôr essa decisão em causa. No caso das sentenças, o que se quer, de forma ampla, é que os juízes sejam consistentes. Se forem criados métodos estatísticos que assegurem que o juiz não está a ser injusto, o recurso à Inteligência Artificial poderá ser uma grande ajuda.

Mas nunca substituirá o elemento humano?
A ideia de que o computador pode decidir uma sentença, em vez de ser o juiz a fazê-lo, diz-nos duas coisas: que não se confia realmente nos juízes e que as respostas a problemas legais são sempre claras e exatas. E é fácil demonstrar que a realidade não é assim. Imagine nos casos de litigância entre empresas. Se elas soubessem a resposta exata para o seu caso, por que razão gastariam fortunas em advogados? O papel do juiz não é dar uma resposta que toda a gente sabe de antemão – é dar a resposta certa. A Inteligência Artificial, que na prática é sustentada pela estatística, é excelente a prever o que se terá passado em determinadas circunstâncias, com base nas experiências anteriores. Mas, por um lado, a Justiça não é fácil de prever e, por outro, não o deveria ser.

À medida que convivermos cada vez mais com os chamados robots sociais, cuidadores robóticos e até bonecas sexuais robóticas, a forma como iremos tratá-los será mais problemática do ponto de vista moral

Porquê?
Porque, se adotarmos essa posição, a lei não muda, manter-se-á estática. À primeira vista, até pode ser um conceito atrativo, porque se há algo que queremos da Justiça é que ela seja previsível. Mas a Justiça muda ao longo dos tempos. Imagine que tínhamos dado essa capacidade às máquinas há 100 anos. As mulheres, os negros ou as pessoas com diferente orientação sexual teriam direitos nos dias de hoje? Por essa razão, não consigo ver a Justiça como algo que pode ser atribuído às máquinas.

No seu livro, Nós, os Robots?, compara os algoritmos a tropas mercenárias. Pode explicar melhor esta analogia?
A comparação dos mercenários destaca um aspeto importante daquilo que eu acho que deveriam ser as limitações da dependência de máquinas. Há certas funções inerentemente governamentais que não deveriam ser terceirizadas, nem para as máquinas nem para ninguém. E os mercenários são um exemplo disso. Não quer dizer que os algoritmos irão tomar decisões piores. A razão pela qual devemos ser cautelosos reside no facto de os robots tirarem ao Estado essa capacidade de decidir o que deve ser ou não feito em situações muito particulares, como o poder sobre a vida ou sobre a morte.

Mas poderiam tomar melhores decisões?
Não é qualidade da decisão que está em causa, por mais acertada que esta seja, é a sua legitimidade no contexto dos direitos e dos benefícios dos cidadãos. As decisões devem ser governamentais, mesmo que não sejam tão eficientes. Só dessa forma serão legítimas. Se se terceirizar essas tomadas de decisão para as máquinas, os políticos podem argumentar: “Muito bem! Olhe, a culpa não é minha e não pode responsabilizar-me por isso.”

Uma das discussões mais acesas sobre as responsabilidades da Inteligência Artificial está relacionada com os futuros carros autónomos. Em caso de acidente, a quem se atribui a culpa?
É uma questão muito interessante. O problema não é tão difícil de resolver se tivermos em conta a responsabilidade civil atual. Se uma pessoa ficar ferida num acidente, porque eu adormeci ou porque conduzia embriagado, eu posso ser processado. Se eu estiver no trânsito ao seu lado, mas se o meu carro explodir, mesmo que eu morra, pode processar o construtor do automóvel. O que vamos assistir no futuro é que os condutores serão cada vez menos responsáveis.

E como podemos regular a atividade da Inteligência Artificial em casos como o flash crash [robots de investimento que, em 2010, em apenas 36 minutos, provocaram a maior queda intraday da bolsa de Nova Iorque]?
Nesse caso, apesar de as máquinas serem muito rápidas a fazer transações, elas deixam um rasto que pode ser suficiente para as autoridades investigarem como foram quebradas as regras do mercado. O mais interessante é que há outras áreas em que será mais difícil apurar essa responsabilidade para o ser humano. Se um corretor da bolsa carregar num botão que irá acionar um programa complicado que fará operações em catadupa, gerando outro flash crash, e se ele provar que não era sua intenção manipular os mercados, a Justiça poderá ter mais dificuldade em conseguir condená-lo por crime.

Está a dizer que nesse caso a responsabilidade pode ser da máquina? Como lidamos com isso?
Para os humanos, o direito penal tem sanções. Se uma pessoa mata outra, nós, como comunidade, exigimos uma penalização. Se uma pessoa é realmente perigosa, então precisamos de tirá-la da comunidade e prendê-la. Podemos também reabilitá-la. Agora, quando aplicamos essas ideias às máquinas, a situação é um pouco mais complicada. Quer dizer, poderíamos tirar de circulação um veículo autónomo que colidisse com alguém ou destruir um computador que provocasse o caos na bolsa, mas isso não ajudaria muito. Mas podemos reabilitá-los. As máquinas são treináveis, e não deveríamos precisar de leis criminais para dizer a um carro autónomo para não bater nas pessoas ou não infringir a lei.

Poderá a Inteligência Artificial criar regras para se autorregular?
Sim, acho que a Inteligência Artificial pode desempenhar um papel na própria regulamentação, ajudando-nos a regulá-la mas também ajudando-nos a regular a nós mesmos. Uma das coisas boas das máquinas é que, se perguntar a um sistema de Inteligência Artificial se é tendencioso, ele irá dizer-lhe a verdade. Dificilmente encontrará a mesma sinceridade num ser humano que não vai dizer-lhe sim, sou racista ou sexista. Outra das vantagens de se usar sistemas de Inteligência Artificial é que eles podem, ao examinarem grandes quantidades de dados, ajudar-nos a descobrir se somos ou não tendenciosos.

Qual a sua opinião da proposta da União Europeia (UE) para criar um enquadramento legal para a Inteligência Artificial?
Decididamente, é uma boa medida. Muitos países têm sido cautelosos a seguir o caminho da regulamentação, com medo de que ela trave a inovação ou a leve para outros lados. Alguns consultores já vieram dizer que esta decisão vai custar muito dinheiro à UE. É possível que isso aconteça, mas creio que é um custo que vale a pena pagar.

Acha que é um exemplo a ser seguido por outros países ou regiões?
Começamos a ver governos, cientistas e empresas, um pouco por todo o mundo, a perceberem que não devemos deixar a tecnologia avançar sem lhe definirmos os limites. A grande questão é como se consegue o equilíbrio entre a inovação e a proteção das pessoas, sobretudo das mais vulneráveis. Se tivéssemos previsto o caso da Cambridge Analytica, teríamos imposto mais restrições ao Facebook quando ele surgiu em 2004? Possivelmente. Mas não o sabíamos naquela época. E é muito difícil fazer algo agora para corrigir a situação. Por essa razão, acho que a UE começou um bom diálogo, mas creio que não será tão bem-sucedida como o foi com o Regulamento Geral da Proteção de Dados.

Porquê?
Porque a proteção de dados tem um conjunto claro de padrões em relação aos quais é fácil legislar. No caso da Inteligência Artificial, ainda não sabemos bem o que queremos regular. Há alguns pontos essenciais, como o controlo humano e o grau de transparência, para percebermos quem está por detrás da máquina a tomar a decisão e como está a tomar essa decisão, quando se trata de matérias que podem afetar os direitos e as obrigações dos cidadãos. Depois existem as outras circunstâncias que nem queremos saber, como é o caso das apps de mobilidade ou dos programas de tradução. Apenas queremos que as coisas funcionem bem.

Como vê, no futuro, a interação entre Homem e máquina?
Muitas pessoas associam a Inteligência Artificial aos filmes do estilo The Terminator ou a 2001, Odisseia no Espaço, em que as máquinas acabam por se tornar as más da fita. A experiência nos últimos 20 anos mostra que as pessoas estão cada vez mais confortáveis no convívio com as máquinas. O meu telefone tem mais informação sobre mim do que qualquer governo alguma vez teve. Monitoriza os meus movimentos, sabe os meus hábitos, etc., e, até agora, isso tem-me sido conveniente. Acho que, no futuro, a Inteligência Artificial irá sugerir-nos o que comer, o que vestir, mudanças de estado de espírito… E essa interação será cada vez mais pessoal.

Teremos uma relação mais íntima?
Acho que vai ser muito interessante ver o desenvolvimento, ao longo dos tempos, dos humanos com as máquinas inteligentes. Mas, por outro lado, o que acontecerá quando as máquinas se tornarem mais realistas? Um dos exemplos que uso no meu livro é o seguinte: se eu atirasse o meu computador para a fogueira, ninguém queria saber. Mas se fosse o meu cão, o mais provável era eu ser preso. À medida que convivermos cada vez mais com os chamados robots sociais, cuidadores robóticos e até bonecas sexuais robóticas, a forma como iremos tratá-los será mais problemática do ponto de vista moral.

Deveremos estar mais preocupados com a ameaça do domínio das máquinas, como vimos em filmes como The Terminator, ou com a falta de regulação sobre a Inteligência Artificial?
A Inteligência Artificial sempre foi representada na ficção científica de forma algo irrealista, apesar de já ter sido, por várias vezes, útil para o desenvolvimento da Ciência. O Space Shuttle e as viagens espaciais foram inicialmente projetados através dela. No entanto, tem sido muito inútil a dar uma noção realista de quais são os verdadeiros desafios futuros da Inteligência Artificial.

Como assim?
Posso dar dois exemplos. Os filmes do estilo The Terminator, de visão apocalíptica, que atinge o caso extremo de a Inteligência Artificial tomar o poder e tentar exterminar a Humanidade. Não é um cenário inconcebível, mas ainda estamos muito longe dessa possibilidade. O outro exemplo é aquele em que a Inteligência Artificial surge sob uma forma humana, quando não existe qualquer razão para isso. Seria bastante ineficiente. Quando se está a conceber um carro autónomo, ninguém vai sugerir que o melhor era ter uma figura humanoide sentada, com as mãos no volante e os pés nos pedais. Isso seria algo estúpido.

Ao assinar a VISÃO recebe informação credível, todas as semanas, a partir de €6 por mês, e tem acesso a uma VISÃO mais completa.

ASSINE JÁ

Mais na Visão

Legislativas 2022

Rio passeou por Alvalade envolvido num abraço laranja gigante e recusou convite para pingue-pongue com Costa

Rodeado pelos seus, o líder do PSD entrou em meia dúzia de lojas e restaurantes na Avenida da Igreja, em Lisboa, para cumprimentar eleitores. Recebeu uma laranja, prometeu voltar por um croquete, mas dirigentes, apoiantes e JSD garantiram que não se ficava pelas miudezas, criando um autêntico espetáculo pré-pandemia. Máquina partidária não estava à espera de tanta gente e não conseguiu evitar uma arruada “à antiga”, que acabou com Rio a acusar Costa de amedrontar os portugueses com o “papão da direita”, quando “o PSD nem sequer é de direita”, e a prometer deixar o PS a falar sozinho

LD Linhas Direitas
Linhas Direitas

O que falta para o voto digital?

Pode-se renovar o cartão de cidadão, uma carta de condução, pedir um registo criminal, criar uma empresa, ou até solicitar a reforma, para além de inúmeros outros atos, mas não se pode votar eletronicamente

Visão Saúde
VISÃO Saúde

Covid-19: Menino de 6 anos com teste positivo morreu no domingo no Hospital Santa Maria

Um menino de 6 anos com teste positivo para Sars-CoV-2 morreu no domingo no Hospital Santa Maria, anunciou hoje o Centro Hospitalar (CHULN), referindo que as causas estão a ser analisadas

Atualidade

Fugitivo americano que fingiu a própria morte encontrado vivo na Escócia depois de a Covid-19 o ter feito ficar ligado a um ventilador

A sua morte foi noticiada em vários órgãos de comunicação em fevereiro mas agora a Covid empurrou-o para um hospital, onde foi, finalmente, detido

Sociedade

Covid-19: Aberto autoagendamento para maiores de 40 anos para dose de reforço

A marcação da toma da dose de reforço da vacina contra a covid-19 está disponível, desde hoje, para pessoas com 40 ou mais anos no portal do autoagendamento da Direção-Geral da Saúde

Sociedade

Afinal, meteorito proveniente de Marte não contém sinais de vida primitiva no planeta vermelho

Em 1996, uma equipa da NASA anunciou que os compostos orgânicos encontrados num meteorito de 4 mil milhões de anos proveniente de Marte e descoberto em 1984 na Antártida podiam ser sinais de vida marciana antiga. Um novo estudo desfaz essa ideia à volta do polémico meteorito

Mundo

Covid-19: Grécia começa a multar pessoas com mais de 60 anos que não estejam vacinadas

Cerca de 300 mil gregos acima dos 60 anos poderão ser obrigados a pagar uma multa por não estarem vacinados, já que termina hoje o prazo que o Governo grego estabeleceu para se imunizarem contra a doença covid-19

Mundo

Covid-19: Maioria dos brasileiros acredita que Bolsonaro dificulta vacinação de crianças

Seis em cada dez brasileiros disseram acreditar que o Presidente do país, Jair Bolsonaro, dificulta a vacinação de crianças contra a covid-19, de acordo com uma sondagem do Instituto DataFolha publicada hoje

Legislativas 2022

Costa avisa: Rio abriu "brecha". Se "normaliza" perpétua, tudo o resto corre risco. E "candidatos muito modernos" também são de recear e ter debaixo de olho

Pousado em Lisboa ao segundo dia de campanha, Costa mandou um recado a Rio: o líder do PSD abriu "uma brecha" ao tentar "normalizar" propostas do Chega. Sem falar no nome do social-democrata, o secretário-geral do PS alertou que, após esse gesto, "se começa a achar" que se pode normalizar desde o racismo à homofobia, mas também preveniu para os candidatos "com ar muito moderno"

Mundo

Os 10 homens mais ricos do mundo duplicaram a sua riqueza durante a pandemia

No mesmo período, cerca de 160 milhões de pessoas passaram a situação de pobreza

Economia

Músico Armando Gama morre aos 67 anos

O cantor Armando Gama morreu na madrugada de hoje, aos 67 anos, no Instituto Português de Oncologia (IPO), em Lisboa, onde se encontrava internado, disse à Lusa fonte próxima da família

Visão Saúde
VISÃO Saúde

Covid-19: Portugal é quarto país da UE e sexto do mundo com mais novos contágios diários

Portugal é o quarto país da União Europeia (UE) e sexto do mundo com mais novos casos diários de contágio com SARS-CoV-2 por milhão de habitantes nos últimos sete dias, segundo o 'site' estatístico Our World in Data