Um documento que explica as políticas de atuação dos moderadores e a forma como funcionam os algoritmos de moderação da Facebook e da Instagram ajuda a perceber como os funcionários tiveram de intervier manualmente para reduzir o alcance de uma história do New York Post sobre Hunter Biden. O The Guardian teve acesso ao documento que estabelece as guias de orientação para os moderadores e que detalha todo o processo e explica um pouco melhor como tudo se passou. Já em meados de outubro, Andy Stone, responsável pelas políticas de comunicações da Facebook, tinha afirmado que a história era “elegível para ser verificada por terceiros” contratados para esse tipo de tarefas, mas que “entretanto, vamos reduzir a sua distribuição na nossa plataforma. Isto é parte do nosso processo habitual para diminuir a desinformação”.
Os conteúdos podem ser alistados para verificação destes trabalhadores terceiros de duas formas: identificados por sistemas de Inteligência Artificial (que tentam prever analisando o feedback da comunidade e conteúdo dos comentários se o artigo será desinformativo) ou se forem marcados por um dos próprios moderadores. A despromoção no feed de notícias decidida pelos algoritmos não abrange as páginas que constam da lista Alexa 5K que inclui os cinco mil sites mais populares da Internet, por se acreditar na presunção de que não é provável que estas páginas difundam conteúdos de desinformação.
No entanto, a história de Hunter Biden acabou por ser adicionada para despromoção por ter sido manualmente identificada pelos moderadores. Este tipo de procedimento é habitual especialmente para casos de assuntos importantes, como as eleições presidenciais nos EUA.
Um porta-voz do Facebook adiantou que “tal como o nosso CEO Mark Zuckerberg testemunhou no Congresso, estamos em alerta elevado devido às informações passadas pelo FBI sobre o potencial de operações de hack and leak destinadas a espalhar desinformação. Baseados nesse risco, e em linha com as políticas atuais, tomámos a decisão de temporariamente limitar a distribuição deste conteúdo, enquanto os moderadores não o reveem”.
Para o caso das eleições presidenciais, à semelhança do que acontece para outros tópicos, a Facebook criou o mecanismo de emergência que permite aplicar uma série de políticas para os RFH (de repeatedly factchecked hoaxes), ou seja, conteúdos que pelo nível de falsidade, severidade e viralidade podem ser bloqueados de forma mais célere. Esta prática ainda não terá sido aplicada a este tema, mas já o foi no passado contra as campanhas anti-vacinação e sobre falsos surtos de poliomielite no Paquistão ou de ébola no Congo.