texas-moody

Herramienta brasileña monitorea desinformación en redes y WhatsApp, una caja negra de noticias falsas

Millones de brasileños votarán en más de 5.500 municipios en las elecciones de este domingo 15 de noviembre y elegirán a sus futuros alcaldes y concejales. Para decidir a sus candidatos, necesitan navegar por un mar de noticias falsas, principalmente en WhatsApp, señalado por los expertos como una caja negra de contenido engañoso. Por lo tanto, como parte del esfuerzo por cubrir las elecciones y desenmascarar los rumores, el sitio de verificación de hechos Aos Fatos comenzó a monitorear los grupos de WhatsApp a través de su herramienta Radar.

Radar es un sistema automatizado que rastrea en tiempo real sitios web y redes sociales en Brasil, en busca de contenido potencialmente engañoso. Inicialmente, la herramienta iba a ser lanzada para las elecciones municipales, pero con la pandemia, el equipo anticipó la planificación para dar seguimiento a los rumores sobre el coronavirus. La plataforma, que debutó en versión beta en agosto, fue cubriendo gradualmente más canales, como sitios web, Twitter y YouTube, hasta que incluyó WhatsApp a mediados de octubre. Tiene previsto agregar Facebook e Instagram para fin de año.

Ferramenta Radar, do Aos Fatos

Herramienta Radar, de Aos Fatos. (Divulgación)

Para hacer el seguimiento en WhatsApp, Aos Fatos contrató a una empresa de ciencia de datos, Twist Systems. Con esta asociación, ellos acompañan a 270 grupos de discusión política que son públicos --esto significa que esos grupos han puesto a disposición un enlace de acceso en internet para que cualquiera pueda unirse. Actualmente, la herramienta recopila y analiza semanalmente más de un millón de mensajes de WhatsApp.

La directora de innovación de Aos Fatos y jefe de producto de Radar, Carol Cavaleiro, explicó a LatAm Journalism Review (LJR) que el contrato con Twist Systems fue importante porque la empresa ha tenido experiencia, desde otras elecciones, con el seguimiento en WhatsApp. "Ellos ya tenían una base de datos de estos grupos. Y cada vez que aparece un grupo nuevo, lo evalúan", afirmó Cavaleiro.

Para el editor de Radar, el periodista Bruno Fávero, el monitoreo de WhatsApp ha llamado la atención. "Es algo que muy poca gente hace y nadie lo hace como nosotros. Es una herramienta súper difícil para obtener datos y eso estuvo en el centro de las discusiones sobre desinformación en las elecciones brasileñas de 2018", dijo Fávero a LJR.

Otra ventaja del proyecto es mapear los rumores y contenidos engañosos en diferentes plataformas, lo que permite comprender y analizar cómo surgen, crecen y se difunden las olas de desinformación a través de diversas redes.

"Radar surgió de la necesidad de tener una visión más amplia del sistema de desinformación brasileño. Es muy común [que la gente] se enfoque en una red. Mucha gente estudia la desinformación en Twitter, otras personas estudian en YouTube. Lo que intentamos hacer con Radar es atravesar todas estas plataformas”, explicó Cavaleiro.

Entonces, cuando el equipo analiza el contenido de WhatsApp, también está evaluando y recolectando enlaces que circulan allí y pueden llevar a sitios con contenido falso, por ejemplo. “Cada vez que recibimos un artículo de una nueva web y cae en este filtro de posibilidad de desinformación, buscamos si tiene un canal de Facebook, un perfil de Twitter. Analizamos cómo se integran estas cuentas y las diversas plataformas”, dijo Cavaleiro.

Para dar cuenta de este trabajo, Radar tiene a diez profesionales, casi todos ellos dedicados por completo. Además de Cavaleiro y Fávero, el equipo cuenta con tres desarrolladores, dos lingüistas, dos reporteros y un científico de datos. “Radar no es solo el monitor, que es la cara más pública del proyecto. Es un núcleo que produce datos e informes sobre desinformación en las redes”, dijo Fávero.

Radar fue diseñado por la directora ejecutiva de Aos Fatos, Tai Nalon, y comenzó a planificarse en 2019. La plataforma ganó el Google Innovation Challenge y recibió el apoyo de Google News Initiative y, con eso, pudo despegar.

Según Cavaleiro, el aporte inicial a Radar está finalizando, y ahora la plataforma busca ser autosostenible. Las consultorías privadas, para empresas que buscan tener análisis de riesgo y datos de opinión pública, ya están en marcha y son una fuente de ingresos.

Al mismo tiempo, con el material generado por Radar, el equipo elabora informes y una newsletter que le llega a cerca de 600 suscriptores. Actualmente, todo el material es abierto y gratuito, ya que está en fase de "degustación", pero el plan es establecer un muro de pago para los artículos y cobrar una suscripción a la newsletter, que incluye un análisis semanal y los datos completos recopilados por la herramienta. El público objetivo son las salas de redacción, las universidades, los think tanks, los centros de investigación y las empresas privadas.

¿Cómo funciona el monitor?

El período de cerca de un año que tomó la planificación de Radar fue crucial para poner operativo el monitor, el cual tiene una función muy compleja --la metodología de la herramienta está publicada, de manera detallada y transparente, en el sitio web.

El primer paso para usar la herramienta es definir los temas que serán monitoreados. Actualmente, además de la pandemia, Radar se centra en las elecciones municipales de Brasil y en las dos ciudades más grandes, São Paulo y Río de Janeiro. El equipo de Radar luego ensambla búsquedas automatizadas en las API gratuitas (Interfaz de Programación de Aplicaciones, por sus siglas en español) de cada red social, para recopilar datos sobre estos temas.

Los términos insertados por el equipo en esta búsqueda deben ser amplios, como coronavirus, pandemia, gripe, COVID-19, para capturar la mayor cantidad de información sobre el tema. "La herramienta que creamos siempre depende de las API públicas [de las propias redes sociales]. Por lo tanto, no importa cuánto recopilemos los términos generales, nunca obtenemos la totalidad de Twitter, por ejemplo, porque la API pública limita el volumen del número de requisiciones, etc.”, explicó Cavaleiro.

Para monitorear sitios web, el primer paso es similar, excepto que en lugar de una API pública, ellos trabajan con Trendolizer. Esta herramienta, según Cavaleiro, construye una base de datos a partir de enlaces externos. Así, Trendolizer incluye en la base de datos no solo la dirección del sitio web seleccionado, sino todos aquellos cuyos enlaces que aparecen en la página. En otras palabras, la base de datos de los sitios monitoreados crece de forma progresiva, automática.

En este punto tuvo un peso importante la experiencia de verificación de datos de Aos Fatos, que ya tiene cinco años. La organización tenía una amplia base de sitios web, cuyo contenido ya había verificado, y esto sirvió para alimentar la herramienta en un primer momento.

Después de esta extensa recopilación de datos, Radar los organiza y limpia automáticamente para eliminar publicaciones muy breves, sin suficiente información o duplicadas. Luego, Radar pasa estos contenidos a través de un sistema de puntuación automatizado que ayuda a identificar si una publicación tiene el potencial de ser desinformación. El sistema de puntuación consta de una serie de métricas, diseñadas específicamente para cada plataforma. Tiene, por lo tanto, alrededor de 40 criterios que considera al analizar las publicaciones de Twitter, 23 en WhatsApp, 30 en YouTube y 36 en sitios web.

A diretora de inovação do Aos Fatos e líder de produto do Radar, Carol Cavaleiro

Directora de innovación de Aos Fatos y jefe de producto de Radar, Carol Cavaleiro. (Cortesía)

En YouTube, por ejemplo, son considerados los textos de descripción y título, así como las características del canal del editor y los comentarios realizados por otros usuarios; los videos en sí no pueden ser transcritos en su totalidad y, por lo tanto, no ingresan a la evaluación. En el caso de los sitios, la clasificación considera, entre otras cosas, la fecha y hora de publicación, el autor, la estructura textual del título y el texto completo. Algunos factores que son evaluados para varios canales son la presencia excesiva de mayúsculas, emojis o errores ortográficos. "Si la publicación tiene caracteres especiales, por ejemplo, si tiene Covid con cero y 1 [C0ViD], entonces le asigna una puntuación", dijo Cavaleiro.

Muchos de los criterios parten de palabras comúnmente utilizadas en noticias falsas o estilos de redacción, estudiadas y mapeadas por lingüistas a partir del historial de verificación de Aos Fatos. Al analizar las campañas de desinformación, buscan patrones lingüísticos y los traducen en reglas aplicables por el sistema.

"Si tiene un término alarmista, como 'atención', 'cuidado', o una construcción exagerada, como 'todos en el mundo', le dará una puntuación. Y el sistema hará esta combinación de términos. Si un tuit solo tiene la palabra Covid, tiene pocas posibilidades de ser poco informativo. Pero si tiene Covid, y otro término alarmista, otro generalista y un insulto, tiene más posibilidades”, explicó Cavaleiro.

Además, con el conocimiento de los verificadores de Aos Fatos, el equipo agrega expresiones que son frecuentes en contenido engañoso, como "vachina", utilizada para describir negativamente la vacuna probada en Brasil, en sociedad con una empresa china.

“Dentro de nuestra base de datos aplicamos estos recortes, como 'vachina', o la suma de construcciones, como 'vachina', más un hashtag problemático, más 'urgente' y 'compartir'. Esta es una construcción muy recurrente, principalmente en las teorías de conspiración. Siempre es muy alarmista y tiene un llamado a la acción al final”, expresó Cavaleiro.

Fávero señaló que estas reglas no son aleatorias, sino el resultado de mucha investigación. Dado que no existe ningún tipo de tutorial o glosario de términos problemáticos, esto debe crearse desde cero para cada tema que Radar supervisará y luego actualizarse constantemente. “Es dinámico, porque el vocabulario y la forma de hablar de la gente cambia con el tiempo, por lo que hay un proceso continuo de mejora de las reglas”, dijo.

Puntuación y limitaciones

Al final del proceso, cada contenido obtiene una puntuación de 1 a 10. Solo las publicaciones con una puntuación inferior a 5, consideradas de baja calidad, se muestran en Radar. Cuanto menor sea la calificación, mayores serán las posibilidades de que el contenido no sea informativo o contenga un error.

Fávero señala que Radar no elimina la necesidad de la verificación humana, porque las reglas automatizadas solo detectan señales de que una publicación es potencialmente engañosa. En otras palabras, no es posible afirmar que todo lo que aparece en Radar sea desinformación, sobre todo porque la herramienta no es infalible.

Cavaleiro recuerda que el sistema no es capaz de diferenciar una broma o una ironía de un contenido serio. "Es importante señalar que este intenta mapear el ecosistema no informativo, ve el todo". Si una publicación cae en Radar, pero parece ser verdadera, probablemente la construcción lingüística, las palabras, la forma en que está escrita sean comunes en materiales engañosos. “Significa que tiene ecos en algún contenido posiblemente poco informativo y, entonces, también es parte de ese ecosistema. Así es como se pierde el usuario”, dijo.

Ella explicó que, actualmente, incluso los sitios conocidos por publicar información errónea se han "profesionalizado" y mezclado contenido falso con historias republicadas de medios tradicionales. Se trata de páginas que han llegado a utilizar algunos dispositivos, como tener un archivo, para parecer fiables. “Ya no existe ese sitio donde puedes echar un ojo y decir: claro que es desinformación. Este es el ecosistema desinformativo con el que estamos tratando hoy”, dijo Cavaleiro.

Bruno Favero jornalista

Bruno Fávero, editor de Radar de Aos Fatos. (Cortesía)

Como editor de proyectos, Fávero destacó cómo la herramienta ayuda a Aos Fatos en la producción de informes y verificaciones. También es un buen termómetro para decidir si un rumor debe ser verificado o no --Aos Fatos solo busca información errónea si se está volviendo viral, con un impacto considerable fuera de la burbuja fuente. De lo contrario, terminaría contribuyendo solo a la popularización de ese contenido engañoso.

Radar también sirve para identificar artículos, porque automáticamente prepara una nube de palabras en base a todo el material de baja calidad recolectado. Allí, cuando aparece un término inesperado, puede ser indicativo de un nuevo rumor que está creciendo.

Por último, la herramienta facilita la detección de los verificadores. “Rara vez los reporteros tienen tiempo para investigar quiénes fueron los mayores diseminadores de esa desinformación'', dijo Fávero. “A veces es muy obvio, pero a veces no lo es. Y Radar ayuda mucho en eso".

Este artículo fue escrito originalmente en portugués y traducido por Paola Nalvarte.

Más artículos