Agência Estado
postado em 21/03/2019 13:41
Após dizer que o vídeo original do massacre em Christchurch, Nova Zelândia, foi visualizado 4 mil vezes, o Facebook deu mais detalhes sobre os motivos para o seu sistema de reconhecimento de imagens não ter cortado a transmissão com mais velocidade - além dos 17 minutos de transmissão ao vivo, o vídeo ficou no ar por mais 12 minutos. Em um texto no site do Facebook, Guy Rosen, vice-presidente de integridade da companhia, disse que a inteligência artificial da companhia não está preparada para reconhecer imagens de tiroteios como as que aconteceram na semana passada. O vídeo só saiu do ar após uma denúncia de um usuário.
"Os sistemas de inteligência artificial são baseados em 'treinamento a partir de dados', o que significa que você pode precisar de milhares de exemplos de conteúdo para treinar um sistema que possa detectar certos tipos de texto, imagem ou vídeo. Essa abordagem tem funcionado muito bem em áreas como nudez, propaganda terrorista e também violência gráfica, quando há um grande número de exemplos que podemos usar para treinar nossos sistemas. Contudo, este vídeo em particular não acionou a detecção automática de nossos sistemas. Para isso acontecer, teremos que aperfeiçoar nossos sistemas com grandes volumes de dados deste tipo específico de conteúdo, algo que é difícil porque eventos dessa natureza são, ainda bem, raros", diz parte do texto.
Segundo o executivo, além da ausência de dados, outro desafio da plataforma é automaticamente diferenciar conteúdo que é visualmente similar, porém inócuo. Por exemplo, imagens de jogos de tiros que são realistas. Caso o sistema do Facebook passe a confundir as duas situações, os responsáveis por monitorar conteúdo poderiam ficar sobrecarregados com falsas denúncias, aumentando a chance de vídeos verdadeiramente urgentes não ser detectados com rapidez. Rosen diz que apesar dos avanços em inteligência artificial, humanos ainda são parte importante da equação para remover conteúdo. A afirmação desmonta o discurso do próprio Facebook que durante o último ano pregou sobre a importância da inteligência artificial para moderação de conteúdo.
A empresa afirma que usa inteligência artificial para detectar vídeos com conteúdos de suicídio ou atos violentos, mas que agora deverá ampliar o tipo de conteúdo observado pelos seus robôs.
O problema das cópias. Segundo a empresa, outro desafio para o seu cérebro digital foi a enorme variante de cópias do vídeo original. São vídeos que foram modificados mas que ainda trazem o conteúdo do massacre. Pode ser, por exemplo, alguém filmando a própria TV enquanto exibe o tiroteio, ou versões editadas e modificadas tanto por pessoas comuns como por veículos de mídia. E cada uma delas exige identificação independente para que a máquina possa fazer seu trabalho. O Facebook diz que encontrou 800 variantes do vídeo do massacre.
"No total, encontramos e bloqueamos mais de 800 variações distintas do vídeo que estavam circulando. Isso é diferente de propaganda oficial terrorista de organizações como o Estado Islâmico, distribuída para um grupo restrito de pessoas e que não é redistribuída pela grande imprensa e nem amplamente recompartilhada por indivíduos", diz o texto.
O Facebook diz que implementou uma nova técnica de reconhecimento de áudio para realizar a identificação do conteúdo - ou seja, as imagens eram diferentes, mas o áudio era igual. Nas primeiras 24 horas, o Facebook diz que removeu mais de 1,2 milhão de vídeos do ataque quando estavam sendo carregados. Porém, outras 300 mil cópias ficaram disponíveis para as pessoas.
Rosen diz a empresa identificou que um usuário do 8chan postou um link para uma cópia do vídeo em um site de compartilhamento de arquivos, o que, segundo a empresa turbinou a circulação. "Identificadores forênsicos de muitos dos vídeos que circularam posteriormente, como marcadores de barras de ferramentas visíveis em uma tela de gravação, são compatíveis com o conteúdo postado na 8chan", diz.
"Queremos refinar e aperfeiçoar nossa habilidade de colaborar em uma crise", concluiu.