Uma equipa do Instituto de Neurociências da Universidade de Oregon está a treinar ratos para que detetem irregularidades na fala – uma tarefa que os animais podem fazer com uma taxa de sucesso de 80% – e identifiquem os chamados “deep fakes”, ou seja, vídeos e áudios, de várias personalidades, gerados por computadores de modo a parecerem e soarem genuínos.
O objetivo do treino é ajudar sites como o Facebook e o YouTube a detetar falsificações e impedir que se espalhem online, apreendendo o método dos ratos, e adaptando-o para os computadores. Jonathan Saunders, um dos investigadores do projeto, explica que ter “uma sala cheia de ratos a detetar áudios falsos, em tempo real” não seria “nada prático, por razões óbvias”. “O objetivo é aprender o método que eles utilizam para fazer isso [identificar “deep fakes”], e depois implementá-lo em computadores”, afirma.
Os ratos são ensinados a entender um pequeno conjunto de fonemas, isto é, os sons que fazemos que distinguem uma palavra da outra. “Ensinámos os ratos a dizer-nos a diferença entre os sons”, num “conjunto de contextos diferentes, rodeados de vogais diferentes”, e como “eles conseguem aprender este sistema realmente complexo de categorização dos diferentes sons da fala, achamos que será possível treinar os ratos para distinguir uma falsificação de um discurso real”, explica Saunders.
Bruce Schneier, especialista em cibersegurança da Harvard Kennedy School, lembra a “falsificação barata” do discurso da Congressista do partido Democrata Nancy Pelosi, para descrever o insucesso dos esforços para encontrar as ‘deep fakes’. No vídeo em questão, a voz de Pelosi foi alterada de modo que parecesse embriagada e, apesar de ter sido rapidamente desmentido, foi visto mais de um milhão de vezes. “As coisas que são divulgadas, que são falsas… nem sequer são subtis. E ainda assim, são partilhadas”. “O problema não é a qualidade da falsificação. O problema é que não confiamos nas fontes de notícias legítimas, e estamos a divulgar coisas para a identidade social”, afirma.
Na verdade, na opinião dos especialistas, a discussão em torno dos “deep fake” pode acabar por ser mais prejudicial do que as próprias falsificações. Segundo os mesmo, o alarmismo criando em torno destas tecnologias, pode acabar por ser usado por certos políticos para convencer os eleitores de que áudios ou vídeos reais são apenas falsificações.