Visão

Siga-nos nas redes

Perfil

O perigo dos deepfakes – e por que razão devemos estar preocupados com eles

Sociedade

Kacper Pempel/ Reuters

Os vídeos manipulados por computador começaram por pôr celebridades a fazer sexo em grupo. Agora que eles já chegaram à informação e às campanhas eleitorais, desconfiar é a melhor defesa

Rosa Ruela

Rosa Ruela

Jornalista

A técnica é antiga. Há 25 anos, deliciávamo-nos ao ver Tom Hanks feito Forrest Gump confessar a um divertido John F. Kennedy que precisava de ir à casa de banho. No filme, que naqueles minutos era a preto e branco, o então Presidente dos Estados Unidos americano respondia-lhe e tudo, mas claro que se trata de uma cena manipulada. Já em 1994, Ken Ralston e a sua equipa usaram imagens de arquivo e técnicas de efeitos especiais como o Chroma Key para pôr o “jardineiro de Greenbow” a apertar a mão e a falar com Kennedy. Conseguiram uma ilusão tão perfeita que lhes valeu um Oscar.

Hoje, ninguém pestaneja quando vê algo semelhante noutros filmes. Só para citar mais dois exemplos, Oliver Reed já tinha morrido quando foram gravadas as suas duas últimas cenas em Gladiador, em 2000; e Peter Cushing estava morto há 18 anos quando a sua personagem, Grand Moff Tarkin, reapareceu em Rogue One: Uma História de Star Wars.

No cinema, no teatro e na literatura existe aquilo que um poeta inglês do século XIX cunhou de suspension of disbelief, à letra “suspensão da descrença”, ou seja a vontade de aceitarmos como verdadeiro o que vemos, ouvimos ou lemos. Por mais impossível que seja, queremos que nos entretenham e, por isso, fingimos acreditar naquilo que nos oferecem.

A polémica que envolveu Mark Zuckenberg recentemente é toda uma outra história. Num vídeo publicado em meados de junho, no Instagram, o fundador do Facebook deixou os internautas de cabelos em pé ao afirmar: “Imagine isto por um segundo: um homem com total controlo sobre milhares de milhões de dados roubados, todos os seus segredos, a vida e o futuro”. O susto coletivo durou apenas o tempo de se tornar público de que não passava de um deepfake – ou seja, um vídeo manipulado através de inteligência artificial que resultou numa “falsificação profunda” (à letra).

Não deixa de ser verdade que quem controla os dados, controla o futuro, mas nunca o CEO do Facebook – a cujo universo pertence o Instagram – iria chamar a atenção para isso publicamente. O vídeo foi criado pela agência de publicidade israelita Canny, e pelos artistas Bill e Daniel Howe, no âmbito do projeto Spectre, que visa precisamente criticar a indústria da informação, vigilância e redes sociais, além da maneira com a qual ela manipula a opinião pública.

As imagens originais têm dois anos, a voz é uma imitação feita por um ator, e a cara e a boca de Zuckenberg foram alteradas para ficarem sincronizadas com o som. O Instagram anunciou imediatamente que não iria retirá-las do ar. Prometeu, ainda assim, que iria aplicar a este vídeo as punições habituais em casos de desinformação – a sua publicação perdeu relevância, deixou de ser sugerida aos utilizadores e de ser pesquisável através de hashtags.

O Spectre já dera anteriormente origem a outros deepfakes, com o Presidente Donald Trump, o ator Morgan Freeman e a socialite Kim Kardashian, todos a certa altura desmontados pelos seus autores. A 24 de maio deste ano, era a vez de Trump, lui-même, partilhar no Twitter um vídeo em que Nancy Pelosi, presidente da Câmara dos Representantes, parecia estar bêbada ou sob o efeito de drogas, durante uma conferência de imprensa. Mas, mesmo depois de se verificar que a velocidade do som fora reduzida, para dar essa impressão falsa, o vídeo mantém-se online na conta @realDonaldTrump e já recebeu mais de 97 mil coraçõezinhos e foi retuitado mais de 32 mil vezes.

Trump é, aliás, uma das vítimas mais frequentes dos deepfakes. Uma pesquisa na internet devolve dezenas deles, incluindo um vídeo manipulado no ano passado pelo Partido Socialista - Diferente (em holandês: Socialistische Partij Anders, sp.a), da Flandres, na Bélgica, em que o Presidente americano incita a população a votar pela renúncia ao Acordo de Paris, sobre as mudanças climáticas. Ouvimos Trump dizer que gostava que as pessoas tivessem balls (tomates) para isso e rimo-nos, mas será que toda a gente percebe que se trata de uma piada para tentar levar as pessoas a pensar e fazer exatamente o contrário daquilo que ele advoga?

Também no ano passado, por ocasião da campanha eleitoral no Brasil, João Doria, então candidato a governador de São Paulo, foi supostamente filmado numa orgia. “Escândalo!”, clamou-se. Mas o vídeo era tecnicamente tão mal feito que se provou rapidamente ser falso; e Doria, de reputação imaculada, acabou por ser eleito sem problemas.

Note-se que os primeiros deepfakes a tornarem-se virais graças às redes sociais surgiram no final de 2017, no Reeddit, pela mão de um anónimo, e envolviam sexo, muito sexo. Eram minutos de filmes pornográficos editados com uma simples app que permitia “coser” as cabeças de celebridades em corpos de outras mulheres. De repente, foi como se as atrizes Scarlett Johansson e Emma Watson ou a cantora Ariana Grande tivessem feito carreira no cinema para adultos.

Mesmo de má qualidade, muitos de nós caímos que nem patinhos em alguns deles – e esse é o maior perigo, na opinião de Yasmin Green, diretora de pesquisa e desenvolvimento da Jigsaw, uma empresa da Alphabet/Google dedicada a questões de segurança. “Talvez o mais assustador sobre o crescimento dos deepfakes é que não precisam de ser perfeitos para serem eficazes”, disse em entrevista à revista Wired.

As redes sociais e a maneira impensada como muitas vezes as pessoas partilham as publicações ajudam a empolar o fenómeno. Nas últimas semanas, um vídeo feito supostamente no parque de diversões Lotte World, em Seul, na Coreia do Sul, tornou-se viral em poucas horas. Já tinha sido partilhado milhares de vezes quando chegou a notícia de que o “aterrador” Gyro Drop não era exatamente assim, como se pôde ver uns dias mais tarde, num vídeo verdadeiro.

O mesmo aconteceu às imagens de um robô que teria sido construído na Boston Dynamics, nos Estados Unidos, filmado a atacar humanos. Partilhado no Twitter, pela conta @kocizum, foi visto por 13 milhões antes de ser removido pela própria rede social. Hoje é possível ver as imagens originais de onde tinha sido retirado esse vídeo – do canal de YouTube Corridor, cujos responsáveis adoram o trabalho da Boston Dynamics.

A suspensão da descrença, aliada a uma agenda política, à falta de escrúpulos e a técnicas de manipulação digital cada vez mais apuradas, pode fazer tanta mossa no futuro próximo que o Pentágono já avisou estar atento e “armado”. As eleições de novembro de 2020, nos Estados Unidos, não vão apanhar o departamento de Defesa americano desprevenido, que já se muniu de especialistas em manipulação digital. A experiência, porém, diz-nos que não é preciso tecnologia de ponta para semear a confusão. Má publicidade, nestes casos, é mesmo só má publicidade.