Facebook tomou medidas coercivas em 1,9 milhões posts relacionados com terrorismo, Al Qaeda e ISIS, no primeiro trimestre deste ano, a companhia disse, até de posts 1,1 milhões no último trimestre de 2018. A aplicação do aumentada, que normalmente resulta em posts sendo removido e contas sendo suspenso ou banido do Facebook, resultado de melhorias na aprendizagem de máquina que permitiu que a empresa a encontrar mais fotos relacionadas com o terrorismo, se eles eram recentemente carregado ou tinham sido no Facebook por mais tempo.
Facebook encontrado 99.5% de posts relacionados com o terrorismo antes que eles foram sinalizados por usuários, disse. No trimestre anterior, 97% dos postos foram encontrados pela empresa na sua própria. Facebook fez com que os dados disponíveis como parte do seu primeiro relatório de aplicação de normas da Comunidade, que documenta as ações de moderação de conteúdo tomadas pela companhia entre outubro e março.
Outros achados no relatório incluem:
Violência gráfica. Mensagens que incluíam violência gráfica representada de 0,22% para 0,27% de pontos de vista, acima de 0,16 para 0,19% no trimestre anterior. A empresa entrou em ação em 3,4 milhões de posts, até de 1,2 milhões no trimestre anterior. Ele disse que posts violentos pareciam levantaram-se em conjunto com o intensificação da conflito na Síria.
Nudez e sexo. Posts com nudez ou atividade sexual representavam 0,07% para 0,09% de pontos de vista, acima de 0,06 a 0,08% no trimestre anterior. A empresa entrou em ação em posts 21 milhões, quase o mesmo que o trimestre anterior.
Discurso do ódio. Facebook tomou a ação em 2,5 milhões de postes por violar regras de discurso de ódio, 56 por cento do trimestre anterior. Usuários relataram 62 por cento dos postos de discurso de ódio antes Facebook tomou a ação sobre eles.
Spam. Facebook tomou a ação em 837 milhões de mensagens de spam, mais 15% do trimestre anterior. A empresa diz que ele detectou “quase 100 por cento” de mensagens de spam antes de usuários podem relatá-los.
Fake contas. Do mensais de usuários do Facebook, 3 a 4% são contas falsas, disse a empresa. Ele removido contas falsas 583 milhões no primeiro trimestre do ano, para baixo do 694 milhões no trimestre anterior.
Os dados, que a empresa planeja emitir pelo menos duas vezes por ano, “é um movimento em direção a mesmos segurando responsável”, o Facebook disse em seu relatório. “Este guia explica nossa metodologia, para que o público possa entender as vantagens e limitações dos números que partilhamos, assim como esperamos que estes números para mudar à medida que refinamos nossas metodologias. Estamos comprometidos a fazer melhor e se comunicando mais abertamente sobre nossos esforços para fazê-lo, vai para a frente.”
A empresa ainda está trabalhando para desenvolver métricas precisas que descrevem como muitas vezes odeio discurso é visto na plataforma, disse Guy Rosen, um vice-presidente de gerenciamento de produto, em uma entrevista com repórteres. Da empresa-aprendizado de máquina sistemas têm dificuldade de identificar o discurso de ódio, porque computadores têm dificuldade em entender o contexto em torno do discurso.
“Há muitos casos realmente complicados”, disse Rosen. “É uma calúnia sendo usada para atacar alguém? Está sendo usada self-referentially? Ou é um termo completamente inócuo quando ele é usado em um contexto diferente?” As decisões finais sobre o discurso de ódio são feitas pelos moderadores humanas, acrescentou.
Ainda assim, as pessoas postam milhões de posts inequivocamente odiosos para Facebook. Em março, as Nações Unidas disse que Facebook foi responsável por espalhar o ódio da minoria Rohingya em Mianmar. Falta do Facebook de moderadores que falam a língua local tem dificultado-lo em seu esforço para reduzir a propagação do discurso de ódio. “Nós definitivamente temos que fazer mais para certificar-se de que nós pagamos a atenção para aqueles,”, disse Rosen, observando que a empresa tinha recentemente contratado mais moderadores na área.
O relatório de execução chega um mês depois o Facebook fez com que seus padrões de comunidade pública pela primeira vez. Os padrões de documento o que é e não é permitido no Facebooke serve como um guia para o exército de global do Facebook de moderadores de conteúdo.
Facebook está lançando o seu relatório de aplicação no momento em que a empresa está sob crescente pressão para reduzir o discurso de ódio, violência e desinformação sobre sua plataforma. Sob pressão do Congresso, Facebook afirmou ele vai dobrar sua equipe de segurançapara 20.000 pessoas este ano.