Por primera vez en sus 21 años de historia, el Simposio Internacional de Periodismo Online (ISOJ) se celebró exclusivamente en línea en 2020. Para ver este panel en inglés, haga clic aquí. Para ver otros paneles en su idioma original (inglés), haga clic aquí.
La tendencia creciente de las manipulaciones de videos y los videos elaboradamente falsos, cheap fakes y deep fakes, bien podría convertirse en un problema mayor para la industria del periodismo, razón por la cual los periodistas deberían saber cómo detectarlos, dijeron los panelistas durante una discusión en el 21 Simposio Internacional de Periodismo en Línea (ISOJ), el 24 de julio.
“No me quita el sueño la amenaza de las falsificaciones elaboradas de videos en este momento. En realidad, me preocupa más que alguien niegue algo que realmente sucedió al decir 'eso es un deep fake'”, dijo la moderadora Claire Wardle, directora de First Draft en Estados Unidos. A medida que avanza la tecnología, la amenaza de los videos deep fakes podría convertirse en un problema grave para 2022. Sin embargo, agregó, la obsesión por los deep fakes ha hecho que las personas tomen más en serio las imágenes y videos manipulados.
Christina Anagnostopoulos, productora senior de Reuters, relató que aunque el 96% de las falsificaciones se usan en contenido pornográfico y afectan desproporcionadamente a las mujeres como métodos de acoso, los periodistas aún deben educarse sobre cómo detectar este tipo de videos. A medida que aumenta la alfabetización tecnológica de los usuarios, cada vez es más fácil incorporar estos tipos de contenido falso, que es bastante dañino y fácilmente escalable, en el mundo de las redes sociales.
"La práctica será muy importante para cuando nos preparamos, por tanto, mientras más nos familiaricemos ... más fácil será identificarlos cuando aparezcan", dijo Anagnostopoulos.
Para ayudar a comprender el problema de los deep fakes, Anagnostopoulos explicó cinco categorías de manipulación de medios, con algunos ejemplos: contexto perdido, editado, escenificado, modificado con CGI y sintético (deep fake). La gran mayoría de los problemas que Reuters observa, sostuvo, cae dentro del contexto perdido y las categorías editadas.
Contexto perdido: un trailer de 2011 de la película "Contagion" se comparte como una nueva película próxima a estrenar para demostrar que hubo una conspiración entre el gobierno y Hollywood porque sabían que la pandemia llegaría este año.
Editado: el video de un comediante que imita la voz de Donald Trump y habla sobre clips reales de Fox y la serie Friends. Fue visto más de un millón de veces.
Contenido de impostor: capturas de pantalla y clips de la película World War Z que se comparten como si fueran imágenes de MSNBC. El video fue manipulado y nunca se emitió en MSNBC.
“These examples are often rooted in some level of truth and then taken further into harmful territory,” Anagnostopoulos said about the trends of deep fakes. “They stay within what might be believable so that users fall for it but they take it one step further.
"Estos ejemplos a menudo se basan en cierto nivel de verdad y luego se llevan más lejos en territorio dañino", dijo Anagnostopoulos sobre las tendencias de las falsificaciones profundas. "Se quedan dentro de lo que podría ser creíble para que los usuarios caigan en él, pero lo llevan un paso más allá".
Rhona Tarrant, editora de Storyful en Estados Unidos, estuvo de acuerdo con Wardle en que los videos falsos y los deep fake son un problema, pero también habló sobre una manipulación aún más común. Storyful trabaja con redacciones para verificar pistas de video y hacer investigaciones visuales en línea para verificar contenido de código abierto.
Tarrant enfatizó que aquellos que buscan difundir la desinformación "no necesitan un alto grado de sofisticación". Un problema que ella ve más es cuando los videos que son reales se sacan de contexto, dijo, que "tienen el potencial de causar mucho daño".
El éxito de este tipo de manipulación proviene de la capacidad del usuario para crear dudas, explicó. "En lugar de convencerte por completo de otra narrativa, simplemente insertando la duda en tu mente o explotando la suspensión, la desconfianza o la tendencia de las personas a creer en narrativas que encajan con su propia visión del mundo cuando se trata de una noticia de última hora", expresó.
La tecnología no es la única respuesta para verificar la autenticidad de los videos, agregó. Los periodistas, dijo, deben confiar también en los principios básicos del periodismo: verificar la hora, la fecha y la fuente. Tarrant concluyó diciendo que los periodistas también tienen la responsabilidad de ser conscientes de cómo hablan sobre el tema de los deep fakes, para no generar más desconfianza con el público.
Matthew Wright, director de investigación del Instituto de Ciberseguridad Global del Instituto de Tecnología de Rochester, habló sobre los avances tecnológicos que se están haciendo para detectar deep fakes, así como sus limitaciones para hacerlos.
Wright habló sobre la asociación entre Facebook, Microsoft y otras instituciones para presentar el Facebook Detection Challenge, cuyo objetivo era producir tecnología para detectar cuándo se había utilizado inteligencia artificial para alterar un video o engañar. Según Wright, ningún equipo técnico ha podido superar el 70%, y la presentación de su propio equipo falló por razones técnicas. Sin embargo, agregó, la propuesta del equipo de Facebook también falló porque no pudieron hacer que su propio software funcionara en su conjunto de datos.
"En cualquier caso, hay muchos deep fakes que están burlando incluso los mejores y más adelantados sistemas", agregó.
Wright también destacó la herramienta Deep Fake de Ciberseguridad Global, que fue la más afectada en los videos orientados hacia adelante, en los que solo había una cara. Tiene dificultades, dijo, cuando hay múltiples poses y caras. Todavía hay un componente de error en el software, explicó. Agregó que algo que podían hacer era proporcionar mejores valores de incertidumbre.
"Si le decimos a la herramienta que se active ahora mismo, no solo dará una respuesta, dirá que tiene mucha confianza en su respuesta, sin importar en qué tipo de situación la coloques", dijo, agregando que una solución a esto podría ser decirle a la máquina que tenga en cuenta problemas tales como mala iluminación o caras múltiples. “En situaciones como esa, la herramienta puede levantar las manos y decir 'mira, no sé. No creo que pueda darte algún tipo de respuesta, pero realmente deberías tener cuidado con esta respuesta'”.
Para ver el panel, haga clic aquí.