O Facebook afirmou em nota na segunda-feira, 18, que o vídeo original do ataque na cidade de Christchurch, na Nova Zelândia, foi visto cerca de 4 mil vezes antes de ser removido - o número é referente a todo período no qual o vídeo ficou na plataforma, não apenas da transmissão ao vivo. Durante a transmissão do massacre houve 200 visualizações. Além disso, segundo a rede social, cópias do vídeo foram inseridas na plataforma 1,5 milhão de vezes durante as 24 horas após a transmissão ao vivo.
A rede social afirmou que usuários só começaram a notificar o Facebook sobre o vídeo 12 minutos após o fim da transmissão ao vivo. As imagens em questão mostram o atirador filmando durante 17 minutos o ataque que matou 50 pessoas em duas mesquitas da Nova Zelândia na última quinta-feira, 14.
Em nota, o Facebook diz que 1,2 milhão de novos uploads do vídeo foram bloqueados na plataforma nas primeiras 24 horas - isso significa que 300 mil versões puderam ser vistas na rede social, já que usuários fizeram upload de 1,5 milhão de vídeos com o conteúdo.
A moderação de conteúdo do Facebook não foi eficiente: agência de notícias Reuters encontrou vídeos do tiroteio na plataforma cerca de 10 horas após o ataque. Esse episódio levanta dúvidas sobre o motivo do Facebook ainda se apoiar em notificações de usuários para remover vídeos, já que a rede social afirma ter ferramentas de moderação que usam inteligência artificial.
A rede social afirma também que excluiu as contas pessoais do atirador tanto no Facebook quanto no Instagram.
As críticas não são direcionadas somente ao Facebook. O vídeo também circulou no YouTube e no Twitter - as duas plataformas também estão sendo cobradas por permitirem a disseminação de conteúdos extremistas.