O criador da DeepNude, a aplicação que recorria a inteligência artificial (IA) para “despir” fotografias de mulheres vestidas, tirou o software do ar na passada quinta-feira, apenas quatro dias depois de ter sido lançado e de se ter tornado viral, graças à forma extremamente negativa como foi recebida pelo público.
A aplicação foi lançada a 23 de junho por um programador anónimo. Trata-se de um programa que consegue transformar fotografias de mulheres vestidas em fotografias nuas. Como? Através de uma rede neural de IA que sobrepõe pele, seios e vulva realistas à roupa. Estava disponível para Windows e Linux e custava 50 dólares (cerca de 44 euros).
A DeepNude destina-se exclusivamente a fotografias de mulheres e, embora tente ser o mais parecida possível com a realidade, o nível de sucesso das transformações pode variar. De acordo com testes realizados pela Vice, o software tem dificuldades em transformar de forma realista imagens de mulheres totalmente vestidas, sendo que funciona melhor em fotografias em que a pessoa já apareça com pouca roupa. Imagens de alta resolução também dão, segundo a revista, resultados mais convincentes. Todas as fotografias geradas pela aplicação continham marcas de água a dizer “fake” (falso) por cima da imagem como medida de segurança, mas passíveis de serem retiradas ou escondidas em programas de edição de imagens.
A aplicação sofreu vários problemas durante os quatro dias em que esteve online, devido à incapacidade do servidor de aguentar uma afluência tão grande de utilizadores. Por fim, na última quinta-feira, 27, o Twitter oficial da DeepNude anunciou o fim da aplicação: não seriam vendidas novas copias ou versões do programa e a licença de quem já o tinha comprado foi revogada, e os utilizadores reembolsados.
No tweet pode ler-se: “Criámos este projeto para o entretenimento dos utilizadores há alguns meses. Pensámos que íamos ter apenas algumas vendas todos os meses, de forma controlada… Nunca pensámos que o programa se fosse tornar viral e que não seriamos capazes de controlar o tráfego”.
“Apesar das medidas de segurança adotadas”, continua o programador, “a probabilidade de as pessoas usarem o programa para fins prejudiciais é demasiado elevada. Não queremos fazer dinheiro desta forma… A partir de agora, a DeepNude não vai lançar novas versões e não cede o uso do software a ninguém”. O programador conclui o comunicado com a frase “o mundo ainda não está preparado para a DeepNude”.
Segundo a Vice, o software da DeepNude baseia-se num algoritmo de código aberto chamado pix2pix, desenvolvido em 2017 pela Universidade da Califórnia Berkeley. O pix2pix usa um tipo de inteligência artificial chamado redes generativas antagónicas, que recorrem a enormes bases de dados de imagens – neste caso, mais de 10 mil fotografias de mulheres nuas – para treinar um algoritmo a desenhar imagens realistas. Esta tecnologia é semelhante à usada para montar videos deepfake e à usada pelos automóveis autónomos para “imaginar” o cenário de estrada que os rodeia.
O programador, que se identificou apenas pelo nome Alberto na entrevista, afirmou que a inspiração para criar a DeepNude surgiu dos anúncios a óculos raio-X das décadas de 60 e 70, que via quando era criança, e da “diversão e curiosidade” que sente pela tecnologia. “Eu não sou um voyeur, sou um entusiasta de tecnologia”, disse. “Perguntei a mim meso se podia ter um retorno económico deste algoritmo. E foi por isso que criei a DeepNude”.
Na passada segunda-feira, 1 de julho, a plataforma de comunicação Discord baniu um servidor que estava a vender uma versão “melhorada” do DeepNude, o DeepNude V2. Os donos do servidor alegavam ter resgatado uma versão “completa e limpa” do software, ao qual fizeram ajustes, disponível para download mediante pagamento de 20 dólares (cerca de euros) via Bitcoin ou cartões de oferta da Amazon. Este seria um “pagamento único para acesso vitalício” a uma versão do programa “sem marcas de água, a funcionar por completo, com atualizações futuras”.