Politica

É possível que vídeo com João Doria seja falso? Entenda

Vídeo que circula na internet mostra cena de sexo com suposta participação do candidato ao governo de SP. Professor da USP explica a tecnologia que permitiria a fabricação de imagens

Fernando Jordão
postado em 24/10/2018 18:00
Captura de tela do vídeo íntimo com suposta participação de João Doria
Um vídeo lançado na internet gerou um turbilhão na corrida eleitoral para o governo de São Paulo na terça-feira (23/10). As imagens que viralizaram nas redes sociais são de um vídeo íntimo com suposta participação do candidato João Doria (PSDB). O ex-prefeito negou ter participado das imagens e chamou a gravação de "produção grotesca, fake news".

Nesta quarta-feira, dois peritos se manifestaram a pedido de veículos de comunicação. À revista Veja São Paulo, a advogada e perita criminal Roselle Sóglio afirmou que o vídeo foi manipulado digitalmente sobre a face de uma outra pessoa. Já o especialista em crimes virtuais Wanderson Castilho afirmou o mesmo ao site O Antagonista.
Porém, como um vídeo dessa natureza, que pareceu tão convincente para leigos poderia ser produzido. Ao Correio, o professor Moacir Ponti, do Instituto de Ciências Matemáticas e de Computação da Universidade de São Paulo (USP), disse que existe sim, hoje, tecnologia que permite tal manipulação.
Trata-se de um tipo de inteligência artificial chamada de deepfake (falsidade profunda, em tradução livre), que recria o rosto e os movimentos de outras pessoas em um vídeo. "É um método baseado em aprendizado profundo (deep learning, em inglês), que visa a aprender a partir dos padrões da face de uma determinada pessoa. Ele pega os pontos-chaves de uma pessoa A e de uma pessoa B, possibilitando a substituição dos rostos", explica o professor.

Para obter um resultado de qualidade, detalha o docente, é preciso ter uma grande quantidade de imagens das faces das duas pessoas ; por isso é mais fácil utilizar a tecnologia com personalidades da mídia ; e não pode haver nenhum elemento que cubra o rosto trocado. Ainda segundo Ponti, a tecnologia é bastante acessível. "Os métodos mais simples estão disponíveis na internet com código aberto. Ele não foi pensado para esse fim, mas a pessoa que baixou pode acabar usando dessa forma", afirma.

Em relação ao vídeo de João Doria, especificamente, o professor é mais cauteloso que os outros especialistas. "A princípio, com uma análise mais simples, não daria para dizer que é uma montagem. É inconclusivo", arremata.

Deepfake

O termo deepfake remete ao fim do ano passado, quando um usuário da rede Reddit começou a publicar vários vídeos pornográficos com famosos, como a atriz Gal Gadot. Antes disso, porém, pesquisadores da Universidade de Washington já haviam apresentado a tecnologia ao mundo. Eles criaram um vídeo praticamente irretocável simulando uma fala do ex-presidente norte-americano Barack Obama.

À época, uma das responsáveis pela pesquisa, a professora Ira Kemelmacher-Shilzerman, já havia alertado para os riscos do deepfake. "Nós estamos desenvolvendo uma tecnologia. Toda tecnologia pode ser usada de forma negativa e todos nós devemos trabalhar juntos para que isso não aconteça", disse à rede BBC.
[VIDEO1]
Outro que alertou sobre os problemas que a nova tecnologia poderia criar foi o pesquisador Giorgio Patrini, da Universidade de Amsterdã, que tem se dedicado ao deepfake. "Se houver incentivo financeiro ou político suficiente para que atores mal-intencionados façam isso, é inteiramente possível que a fabricação de vídeos seja usada em futuras campanhas políticas", avaliou à Agência Estado.

Ponti dá algumas dicas simples que podem ajudar uma pessoa comum a evitar ser enganada por vídeos em que a tecnologia foi utilizada. "A primeira coisa a se observar são os lábios, dentes e regiões de intersecção da face com outras partes da cabeça [cabelos e pescoço]", pontua. "Dentes e bocas não ficam bem definidos e as regiões de transição ficam borradas", completa.

Tags

Os comentários não representam a opinião do jornal e são de responsabilidade do autor. As mensagens estão sujeitas a moderação prévia antes da publicação