Assim que o utilizador carregar em Enviar a sua resposta a determinada publicação no Twitter, um sistema de revisão automático irá avaliar o conteúdo e os termos empregues e alertar se as palavras usadas são semelhantes a outras que tenham sido denunciadas como “ofensivas ou abusivas” no passado. Ao mesmo tempo, o utilizador recebe o convite para rever a resposta, algo que poderá aceitar ou recusar. Este mecanismo de alerta para publicação de resposta potencialmente ofensiva está agora a ser testado pelo Twitter, com a empresa a avaliar apenas os tuítes em inglês para já, durante algumas semanas.
Sunita Saligram, responsável pelas políticas de confiança e segurança na Twitter, sublinha à Reuters que “estamos a tentar encorajar as pessoas a repensar o seu comportamento e a repensar a linguagem usada antes de publicarem, porque muitas das vezes fazem-no no calor do momento e podem estar a publicar algo de que se venham a arrepender”. Quando lhe perguntaram sobre se esta experiência não acabaria por dar aos utilizadores um manual para encontrarem falhas nos mecanismos de validação do Twitter, a executiva explicou que o objetivo é alertar os utilizadores que não são recorrentes neste tipo de abusos.
Entre janeiro e junho de 2019, a Instagram executou ações em 396 mil contas devido a abuso das políticas e contra 584 mil contas por violarem de alguma forma as políticas contra o discurso de ódio. As regras de conduta da rede social não permitem a publicação de conteúdo grosseiro, racista ou sexista.
O sistema de alerta e convite à revisão está numa fase de testes, que arrancou ontem e vai durar algumas semanas, e não se sabe ainda se será replicado em conteúdos de outros idiomas que não o inglês.