Desde errores en datos hasta sesgos y riesgos en la credibilidad, líderes de redacciones latinoamericanas dicen que la IA debe utilizarse con cuidado, con políticas claras y con supervisión humana constante.
La inteligencia artificial (IA) es capaz de agilizar el trabajo en las redacciones, pero también puede amplificar errores, sesgos y poner en riesgo la credibilidad si no se usa con criterios claros. Esa fue una de las principales conclusiones de la mesa redonda “Desde la redacción: cómo la IA está cambiando el periodismo”, realizada en línea el 26 de marzo de 2026 y organizada por el Centro Knight para el Periodismo en las Américas.
En el encuentro participaron Federica Ham, periodista multimedia del diario uruguayo Búsqueda, José Jasán Nieves, director del medio digital cubano elTOQUE; y Gisella Salmon, jefa de engagement del periódico peruano El Comercio, bajo la moderación de Claudia Báez, innovadora digital en IA y consultora asociada en el laboratorio de medios británico Fathm.
Los panelistas coincidieron en que el desafío no es adoptar la tecnología, sino integrarla sin sacrificar verificación, ética ni confianza de las audiencias.
A partir de experiencias concretas del uso de la IA en productos periodísticos, como especiales electorales, sistemas para monitorear divisas y aplicaciones de visualización de datos, los panelistas señalaron que la automatización no sustituye el trabajo periodístico, sino que lo redefine. En ese proceso, destacaron la necesidad de reforzar la verificación, establecer lineamientos internos y utilizar la IA para resolver problemas específicos, no como respuesta a tendencias.
Entre diciembre de 2025 y enero de 2026, un equipo de El Comercio liderado por Salmon publicó dos especiales de datos interactivos enfocados en presentar, comparar y fiscalizar a candidatos a puestos de elección popular en Perú y sus propuestas, con base en documentos públicos.
Durante el desarrollo de esos productos, que involucraron el uso de flujos de trabajo automatizados y agentes de IA, el equipo se topó con que estas herramientas llegaban a confundir cifras o letras al momento de extraer datos, y completaban vacíos de información con datos arbitrarios, contó Salmón.
El equipo aprendió que, si bien la IA permite analizar grandes volúmenes de datos, la automatización no es infalible, y que el tiempo que se gana con esta automatización debe ser invertido en un trabajo concienzudo de verificación.
“La IA no es mágica, no es perfecta, se equivoca, alucina y tiene sesgos”, dijo Salmon. “Cada resultado que sale de haber hecho algo automatizado o de haber pasado por un proceso de IA tiene que ser revisado al detalle”.
Pero los peligros de aplicar la IA sin supervisión en las salas de redacción van más allá de errores en datos. Báez dijo que existen riesgos editoriales, legales y de comunidad en el uso no supervisado de la IA.
Los riesgos editoriales, explicó, se refieren a alucinaciones y errores de información que estas herramientas a veces producen; los legales tienen que ver con alimentar los modelos de IA con información confidencial, clasificada o con derechos de autor; y los riesgos de comunidad incluyen la reproducción de sesgos y estereotipos derivados del entrenamiento de dichas herramientas con elementos y criterios del Norte Global.
De ahí la importancia de que los medios cuenten con reglas definidas sobre el uso de la IA, dijo Báez al mencionar la encuesta que la Thomson Reuters Foundation aplicó a 200 periodistas del Sur Global en 2024. La encuesta arrojó que 81 por ciento de los periodistas ya utilizan la IA, pero solo el 13 por ciento cuenta con políticas establecidas del uso de esta tecnología en sus redacciones.
“Cuando el periodista no tiene reglas claras, no tiene guía y usa [la IA] sin una dirección, sin un marco [...] ocurren los problemas de credibilidad, donde el medio es señalado por su falta de rigor”, dijo Báez.
El éxito de la adopción de la IA en una sala de redacción no se mide por la velocidad de la automatización, sino por la capacidad de los periodistas para mantener la confianza de su audiencia, agregó.
“Si usan la IA irresponsablemente van a erosionar en segundos lo que han construido en años, que es la credibilidad”, dijo Báez.
Salmon dijo que El Comercio cuenta con una guía de políticas de IA, la cual incluye los usos recomendados de esta tecnología, los productos que pueden generarse con ella y los límites de su aplicación, entre otros.
Aunque es un manual de uso en el área de Nuevas Narrativas, en la cual se trabajan los proyectos especiales que involucran la IA, actualmente se está extendiendo al resto de la redacción, dijo Salmon. Y pronto el medio planea hacer estas políticas públicas en su sitio web para su audiencia, agregó.
Nieves señaló que elTOQUE desarrolló su política de uso de IA de forma colectiva, con todo su equipo, mientras que Ham indicó que en Búsqueda aún no tienen lineamientos definidos debido a la rápida adopción de la tecnología.
“Hasta hace unos meses ni siquiera creíamos en la posibilidad de que pudiéramos implementar la IA”, dijo Ham. “Pero sí estamos trabajando en ello porque [...] nos dimos cuenta que iba a ser fundamental, que no podíamos desarrollar más proyectos sin antes tener esta conversación”.
Báez exhortó a los asistentes a la mesa redonda a perder el miedo y lanzarse a experimentar con la IA para expandir y potenciar su periodismo. No obstante, los panelistas coincidieron en que la incorporación de la IA al trabajo periodístico no debe darse por el hype o la presión de una tendencia, sino como respuesta a necesidades concretas en las salas de redacción.
“No partan porque la herramienta es bonita o porque la IA está de moda, sino tengan un fin, vayan de un problema a una solución paso a paso”, dijo Salmon. “Siempre partimos más bien de un problema buscando la solución a través de estandarizar objetivos claros, ver qué datos tenemos y buscar un ángulo diferenciador”.
Salmon agregó que en El Comercio, el uso de la IA es más una capacidad transversal para facilitar tareas complejas y para ayudar a que una historia se entienda mejor y conecte mejor con el usuario.
elTOQUE puso en práctica este principio cuando, en 2021, desarrolló un sistema para monitorear el mercado informal de divisas en Cuba ante la ausencia de información oficial accesible. El sistema es capaz de extraer anuncios de compraventa de moneda extranjera en foros y redes sociales, y luego, mediante un algoritmo de procesamiento del lenguaje natural (PLN), calcula una tasa representativa promedio.
“Lo que le ahorramos a la gente con este sistema es esencialmente que, en lugar de entrar a 10 grupos de Telegram a ver en WhatsApp cómo está más o menos el precio [de las divisas], ya este sistema lo calcula por ellos”, dijo Nieves.
El periodista dijo que la herramienta atrajo a 5 millones de usuarios en 2025, en un país con una población total de 10 millones.
“Estamos trabajando hacia hacer más eficientes los procesos, reaprovechar contenido, aprovechar el talento de los pocos periodistas que tenemos en lo que realmente puede ser único y dejarle a la IA, con supervisión, aquello que es repetitivo y poco creativo”, dijo Nieves.
El proyecto de monitoreo de divisas le valió a elTOQUE ser acusado de delitos de tráfico de divisas y evasión fiscal por parte del gobierno cubano, que calificó la herramienta como “un programa de guerra económica organizado, financiado y ejecutado directamente por el gobierno de Estados Unidos”.
Para elTOQUE era importante dejar claro que no existía intervención ni manipulación del equipo en el cálculo de las tasas. Nieves dijo que, ante ataques e intentos de descalificación como esos, la transparencia es la mejor estrategia para usar la IA y al mismo tiempo sostener la credibilidad de un medio.
“Expusimos nuestra metodología, expusimos nuestra fuente de datos”, dijo Nieves. “No vas a lograr convencer a todo el mundo, pero vas a lograr –siendo constante y transparente en tu trabajo– que la mayoría de las personas entienda y hasta llegue a incorporar los argumentos tuyos y se convierta en tu defensor”.
Ham dijo que la transparencia también tiene que ver con informar explícitamente a las audiencias cuando se utiliza IA en la producción de contenidos.
La periodista formó parte del equipo que desarrolló Búsqueda Dataviz, una aplicación de IA capaz de crear visualizaciones de datos personalizables a partir de bases de datos y de información desestructurada.
Ella dijo que los miembros de su redacción que usan la herramienta añaden la leyenda “visualización creada por IA bajo supervisión periodística” en los gráficos generados.
“Esta oración [...] incluye estas dos miradas: la mirada de contarle al usuario lo que estamos haciendo y también responsabilizar al periodista de que tiene que supervisar el producto y lo que va a publicar”, dijo Ham.
La periodista enfatizó también la importancia de democratizar el conocimiento sobre la IA entre los miembros de una redacción. Antes de participar en el desarrollo de Búsqueda Dataviz, Ham era la única responsable de crear gráficos e infografías para el diario uruguayo. Eso, dijo, formaba cuellos de botella.
Ham y tres miembros de la redacción de Búsqueda desarrollaron la herramienta como parte de su participación en el Google AI Prototyping Sprint, una iniciativa organizada por Google News Initiative y Fathm, en octubre de 2025. Tras la creación de la herramienta, la intención del equipo era compartir los conocimientos sobre su funcionamiento con el equipo del medio y agilizar así los flujos de trabajo.
“Nos queríamos centrar en la mejora del rendimiento de algunos procesos y la automatización de otros, y nos centramos específicamente en el trabajo con datos y visualizaciones”, dijo Ham. “Queríamos democratizar el acceso a herramientas de visualización de datos”.
La periodista dijo que el volumen de visualizaciones y de análisis de datos en el sitio de Búsqueda ha escalado significativamente.
Nieves dijo que el pensamiento crítico es una de las dimensiones del trabajo periodístico que no podrían ser reemplazadas por la IA.
Si bien esta tecnología puede procesar grandes volúmenes de datos, no es capaz de interpretar dinámicas complejas ni explicar lo que ocurre detrás de ellas, como sí lo pueden hacer los periodistas, dijo.
Como ejemplo, dijo que con la data que genera la herramienta de elTOQUE, su equipo ha reportado temas como por qué el dólar llega a ciertos niveles, qué está pasando en los mercados informales, cómo se están produciendo estafas en ese mercado, entre otros.
“Y todo eso el periodismo lo permite contar a partir de haber diseñado una herramienta automática que extrae esta información, la procesa y la devuelve como un bien público”, dijo. “Es cómo aplicas cuestionamiento crítico que está inherente en el periodista y en su oficio en justamente explicar, dar contexto a las audiencias”.
Báez agregó que las labores del reportero, como el trabajo de campo, el acercamiento humano y la obtención de documentos, así como la voz editorial de cada medio, son otras capacidades que no pueden ser ejecutadas por un algoritmo.
“¿Qué es lo irremplazable que ofrece el periodismo en un ecosistema tan desafiante como el que vivimos hoy? Es rigurosidad y olfato periodístico”, dijo Báez. “La IA no tiene idea de por qué una historia importa y otra no. Eso lo deciden los humanos. La ética y el criterio editorial, o sea, qué publico, qué omito, cómo protejo fuentes…. esas son decisiones humanas, decisiones éticas”.
La discusión completa y el seminario web están disponibles de forma gratuita en el canal de YouTube del Centro Knight.