Mientras la verificadora de datos Talita Burbulhan realizaba sus tareas diarias, vio un video en TikTok en el que un presentador de televisión afirmaba que Brasil estaba en alerta debido a un nuevo virus que azotó al país en vísperas de Carnaval. El presentador afirmó que el virus era más agresivo que el COVID-19.
El video luego se cortó para mostrar una transmisión de noticias tradicional. Debajo, el texto decía: “El virus ya está en Brasil”. Parecía legítimo, pero, como descubrió Burbulhan, alguien había usado herramientas de inteligencia artificial (IA) para crear desinformación, combinando una falsa presentadora de televisión con una transmisión real.
“Cuando investigué la transmisión del medio, no había información de que esto ya estuviera en Brasil”, dijo Burbulhan, verificadora de datos de Estadão Verifica, a LatAm Journalism Review (LJR). “La noticia real decía que no había casos en Brasil y que la probabilidad de propagación era baja. Pero la publicación no mostraba eso, solo la parte donde la gente expresaba sus preocupaciones”.
Estas creaciones híbridas, en parte falsas y en parte reales, son preocupantes porque las herramientas para crear contenido realista son cada vez mejores.
Estudios recientes de la Universidad de Oslo y la Universidad de Indiana muestran que el contenido de IA puede ser peligroso para el conocimiento público y el discurso político. En Brasil, un nuevo informe del Observatorio Lupa revela que la difusión de contenido falso creado con inteligencia artificial se ha triplicado desde 2024, un asombroso aumento del 308%.
El informe, titulado “Panorama de la desinformación en Brasil”, publicado a principios de febrero, afirma que este será uno de los principales desafíos que enfrentarán los medios de comunicación antes de las elecciones generales de octubre en Brasil.
Beatriz Farrugia, una de las autoras principales del informe, dijo a LJR que en 2024, el contenido de IA se utilizó principalmente para difundir desinformación mediante estafas y fraudes. En 2025, agregó, la mayor parte se utilizó en la política nacional.
“Se ha producido una diversificación del contenido de IA, que abarca la política, asuntos internacionales, entretenimiento e incluso el medio ambiente”, dijo Farrugia. “Un ejemplo fue una imagen generada por IA de una aurora boreal falsa en Río de Janeiro”.
Según Farrugia, estos videos combinan imágenes y mensajes escritos con tipografías llamativas. Los investigadores están ansiosos por mostrar la facilidad con la que se realizan estas falsificaciones.
“Hoy en día, cualquiera puede generar texto, imágenes, audio o video en segundos utilizando recursos ya incorporados en plataformas como motores de búsqueda, redes sociales, aplicaciones móviles y asistentes conversacionales”, dijo a LJR Fernando Ferreira, investigador del Netlab de la Universidad Federal de Río de Janeiro. “Ya no se necesitan conocimientos técnicos ni infraestructura: la barrera de entrada se ha reducido drásticamente, incluso para la producción de contenido engañoso o manipulado”.
Y si bien los creadores de contenido con IA crean principalmente videos para redes sociales, también crean contenido para simular conversaciones utilizando texto y video generados por IA, así como videos de selfies falsos que atribuyen declaraciones a un político o personalidad, explicó a LJR Cauê Muraro, editor ejecutivo de Fato ou Fake [Hecho o Falso] de G1.
“Esto crea un escenario bastante realista, lo que dificulta que las herramientas de detección identifiquen el uso de IA”, dijo Muraro.
Sin embargo, si bien algunos medios cuentan con equipos especializados en verificación de datos, Natália Leal, directora de Agência Lupa, dijo que ningún periodista puede descartar la posibilidad de que cualquier imagen, por realista que parezca, haya sido generada con IA.
“Vivimos en una época en la que debemos considerar todos los aspectos relacionados con la generación de imágenes y contenido mediante IA”, dijo Leal a LJR.
El uso de desinformación en las campañas nacionales y regionales de Brasil, que comienzan oficialmente en agosto, preocupa no solo a periodistas, sino también a otros sectores. El Tribunal Superior Electoral ya comparte su preocupación y está considerando imponer una multa de 30.000 reales (cerca de US $5.700) por el uso de IA en la creación de noticias falsas.
Sin embargo, Farugia afirmó que cualquier medida para combatir la desinformación e información falsa a través de comunicaciones oficiales o educativas debe reconocer que es poco probable que una simple negación extensa funcione.
“No se volverá viral en la misma medida que la narrativa falsa original”, dijo, destacando un dilema que enfrentan tanto las salas de redacción como las autoridades: en un ecosistema de información potenciado por la IA, la velocidad y la emoción a menudo triunfan sobre la precisión.
Este reportaje se tradujo usando IA y fue revisado por Silvia Higuera