Pela primeira vez nos seus 21 anos, o Simpósio Internacional de Jornalismo Online (ISOJ, na sigla em inglês) foi apenas online em 2020. Para assistir este painel (em inglês), clique aqui. Para assistir a todos (em inglês), clique aqui.
A tendência crescente de falsificações baratas e deepfakes pode muito bem se tornar um problema maior para a indústria do jornalismo, razão pela qual os repórteres devem saber como detectá-las, disseram os participantes do painel durante o Simpósio Internacional de Jornalismo Online (ISOJ) em 24 de julho.
“Eu não estou perdendo o sono com a ameaça de deepfakes (falsificações profundas) agora. Na verdade, estou mais preocupada com alguém que nega algo que realmente aconteceu ao dizer 'isso é uma farsa profunda'”, disse a moderadora Claire Wardle, diretora americana do First Draft. À medida que a tecnologia avança, a ameaça de deepfakes pode se tornar um problema sério até 2022. No entanto, ela acrescentou, a obsessão por deepfakes fez com que as pessoas levassem as imagens e vídeos manipulados mais a sério.
Christina Anagnostopoulos, produtora sênior da Reuters, disse que, embora 96% das falsificações sejam usadas em conteúdo pornográfico e afetem desproporcionalmente as mulheres como métodos de assédio, os jornalistas ainda devem se educar sobre como detectar esses tipos de vídeos. À medida que a alfabetização tecnológica dos usuários aumenta, fica mais fácil levar esse tipo de conteúdo falso - que é bastante prejudicial e facilmente escalável - para o mundo das mídias sociais.
"A prática é realmente importante para quando nos preparamos, então, quanto mais nos familiarizarmos ... mais fácil será identificá-los se e quando surgirem", disse Anagnostopoulos.
Para ajudar a entender a questão sobre deepfakes, a Anagnostopoulos citou as cinco categorias de manipulação de mídia e um exemplo para alguns: contexto perdido, editado, encenado, modificado por CGI e sintético (deepfake). A grande maioria das questões que a Reuters vê, segundo ela, se enquadra em contextos perdidos e em categorias editadas.
Contexto perdido: um trailer do Contagion 2011 sendo compartilhado como um novo filme para provar que havia uma conspiração que o governo e Hollywood sabiam que a pandemia ocorreria este ano.
Editado: Vídeo de um comediante de dublador, representando a voz de Donald Trump e falando sobre clipes reais de Fox e Friends. Foi visto mais de um milhão de vezes.
Conteúdo do impostor: Capturas de tela e clipes do filme World War Z sendo compartilhados como se fossem imagens da MSNBC. O vídeo foi adulterado e nunca foi ao ar na MSNBC.
"Esses exemplos geralmente estão enraizados em algum nível de verdade e depois são levados para um território prejudicial", disse Anagnostopoulos sobre as tendências de falsificações profundas. “Eles permanecem dentro do que pode ser crível, para que os usuários caiam nessa, mas dão um passo adiante."
Rhona Tarrant, editora da Storyful nos EUA, concordou com Wardle que falsificações superficiais e profundas são um problema, mas falou sobre uma manipulação mais comum. O Storyful trabalha com redações para verificar imagens e fazer investigações visuais online, verificando o conteúdo de código aberto.
Tarrant enfatizou que aqueles que buscam disseminar a desinformação "não precisam de um alto grau de sofisticação". Um problema que ela vê mais ocorre quando vídeos reais são retirados de contexto, ela disse, "que tem o potencial de causar muitos danos".
O sucesso desse tipo de manipulação vem da capacidade do usuário de criar dúvidas, explicou ela. "Em vez de convencê-lo completamente de outra narrativa, basta inserir a dúvida em sua mente ou explorar a suspensão, desconfiança ou tendência das pessoas a acreditar em narrativas que se encaixam em sua própria visão de mundo quando se trata de uma notícia de última hora", disse ela.
A tecnologia não é a única resposta para verificar a autenticidade dos vídeos, acrescentou ela, dizendo que os jornalistas devem confiar também nos princípios básicos do jornalismo: verificar hora, data e fonte. Tarrant concluiu dizendo que os jornalistas também tinham a responsabilidade de estar conscientes sobre como falavam sobre a questão das falsificações profundas, para não criar mais desconfiança com o público.
Matthew Wright, diretor de pesquisa do Instituto Global de Cibersegurança do Rochester Institute of Technology, falou sobre os avanços tecnológicos que estão sendo feitos para detectar deepfakes, bem como suas limitações ao fazê-lo.
Ele falou sobre a parceria entre o Facebook, a Microsoft e outras instituições para apresentar o Facebook Detection Challenge, em que o objetivo era produzir tecnologia para detectar quando a inteligência artificial foi usada para alterar um vídeo ou enganar. Segundo Wright, nenhuma equipe técnica conseguiu passar mais de 70%, e a submissão de sua própria equipe falhou por razões técnicas. No entanto, ele acrescentou que a submissão da equipe do Facebook também falhou porque não conseguiu que seu próprio software funcionasse em seu próprio conjunto de dados.
"De qualquer forma, existem muitas falsificações profundas que estão superando até os melhores sistemas de ponta", acrescentou.
Wright também destacou a ferramenta Deep Fake da Global Cybersecurity, que foi mais afetada em vídeos virados para a frente, nos quais havia apenas uma face. Ela enfrenta problemas, disse ele, onde há várias poses e rostos. Ainda há um componente de erro no software, ele explicou. Algo que eles poderiam fazer, acrescentou, era fornecer melhores valores de incerteza.
"Se dissermos à ferramenta para executar no momento, ela não apenas dará uma resposta, mas também será muito confiante em sua resposta, independentemente do tipo de situação em que você a colocar", disse ele, acrescentando que uma solução para isso pode ser dizer à máquina para levar em consideração questões como má iluminação ou várias faces. “Em situações como essa, a ferramenta pode levantar as mãos e dizer: 'olha, eu não sei. Eu não acho que posso lhe dar algum tipo de resposta, mas você deve realmente ter cuidado com essa resposta. '”