Asociaciones de medios de las Américas advierten que los medios periodísticos no deben repetir con la inteligencia artificial (IA) generativa los mismos errores que cometieron con la aparición de internet, hace casi tres décadas, cuando se permitió que los contenidos informativos estuvieran disponibles gratuitamente en los sitios web, bajo la creencia de que el modelo de negocio publicitario funcionaría en la web como en prensa escrita, radio y televisión.
Por eso, las asociaciones consideran que los medios periodísticos deben implementar un esfuerzo colectivo a nivel global para no permitir que empresas desarrolladoras de plataformas como ChatGPT impongan sus términos de uso en detrimento de la credibilidad y la sostenibilidad del periodismo, y del derecho de los usuarios a información de calidad.
Así lo consideran representantes de la Sociedad Interamericana de Prensa (SIP), la Asociación de Medios de Información de Colombia (AMI) y la Asociación Nacional de Periódicos de Brasil (ANJ, por sus siglas en portugués). Estas son tres de las más de 25 asociaciones de medios de comunicación de todo el mundo que firmaron los Principios Globales para la Inteligencia Artificial, un documento que busca orientar el desarrollo y la implementación de esa nueva tecnología de forma regulada y dentro de un marco ético y responsable para los medios periodísticos.
“Creemos que la IA generativa es algo que tiene que ser desarrollado en beneficio de la humanidad y de la civilización”, dijo a LatAm Journalism Review (LJR) Marcelo Rech, presidente ejecutivo de la ANJ. “Entonces nosotros entendemos que para no cometer los mismos errores que pasaron con los principios de internet se debe tener una regulación que establezca criterios éticos para que ese desarrollo se haga de una forma que beneficie a la sociedad”.
Ante el rápido crecimiento que han tenido las plataformas de IA generativa, las asociaciones reconocen que es necesario un esfuerzo global que represente un contrapeso significativo frente al poder de las empresas desarrolladoras. La Asociación Mundial de Editores de Noticias (WAN-IFRA) fue la encargada de convocar a asociaciones que engloban medios de todo el mundo para la redacción de los Principios.
El documento, publicado en agosto de este año, abarca cuestiones relacionadas con la propiedad intelectual, la transparencia, la rendición de cuentas, la integridad, la seguridad y el desarrollo sostenible en relación a la IA generativa y el periodismo.
La Asociación de Entidades Periodísticas Argentinas (ADEPA) y el Grupo de Diarios América (GDA) son las otras asociaciones del continente que firmaron los Principios.
Ante las múltiples crisis de desinformación que han afectado a la mayoría de los países del continente, la transparencia de las plataformas de IA generativa y la protección de la credibilidad del periodismo son temas fundamentales para las tres asociaciones antes mencionadas.
Las plataformas basadas en la tecnología denominada Generative Pre-trained Transformer (transformador generativo pre-entrenado), como ChatGPT, Google Bard o Claude, están diseñadas para generar respuestas de texto coherentes y similares a las humanas, de forma conversacional. Sin embargo, dichas plataformas son entrenadas con información de todo tipo de fuentes de internet y sus respuestas están basadas en patrones de lenguaje, no en hechos verificados. Eso provoca que a menudo la información arrojada incluya imprecisiones y tergiversaciones.
“Una información que ha sido tergiversada, que ha sido mal atribuida, puede generar confusión, puede aumentar el riesgo de desinformación”, dijo a LJR Carlos Jornet, presidente de la Comisión de Libertad de Prensa e Información de la SIP. “La desinformación ya de por sí está siendo un problema creciente que empieza a impactar sobre las instituciones democráticas, sobre la posibilidad de la ciudadanía de informarse con estándares de calidad. Si esto es potenciado por un robot que genera contenidos multiplicándose en una velocidad creciente puede tener un impacto enorme”.
Los Principios Globales para la Inteligencia Artificial establecen que debe existir transparencia en las fuentes de información que usan las plataformas de IA generativa para crear contenido, incluidos mecanismos claros y apropiados de rendición de cuentas.
El documento también indica que los desarrolladores de IA deben trabajar con los editores para desarrollar estándares y formatos de atribución que sean de beneficio mutuo, así como proporcionar información comprensible sobre cómo funcionan dichos sistemas, de modo que los usuarios puedan emitir juicios sobre la calidad y confiabilidad de la información generada.
“Tiene que haber transparencia en los sistemas de IA, no solamente [decir] de dónde sacaron las cosas, sino que hayan hecho la tarea bien hecha”, dijo a LJR Werner Zitzmann, director ejecutivo de la AMI. “Es muy importante que rindan cuentas, que no estén escondidos detrás de ‘el algoritmo’, una cosa como mágica, abstracta. [...] Lo más importante es que todos sus resultados estén orientados a garantizar la credibilidad del contenido y todo eso con base en que, si los medios somos una fuente, pues seamos creíbles para el destinatario”.
El respeto a la propiedad intelectual de los contenidos periodísticos es otro eje fundamental de los Principios, de acuerdo con las asociaciones de medios. El documento indica que los desarrolladores de IA deben respetar los derechos de propiedad intelectual de quienes generan contenido original y que los editores tienen derecho a negociar y recibir una remuneración justa por el uso de sus contenidos en las plataformas generativas.
“Creemos que hay un uso [de contenidos] que no respeta los derechos de propiedad intelectual de los medios”, dijo Jornet. “Esto termina afectando al periodismo, termina generando contenidos que seguramente pueden llevar audiencias hacia esos contenidos que fueron generados con una elevada asignación de recursos, tanto humanos como económicos, y después hay alguien que los aprovecha para generar ingresos”.
Un estudio de The Washington Post y el Instituto Allen para la IA publicado este año arrojó que los medios digitales ocupan el tercer lugar entre las fuentes de información con la que son entrenados los sistemas de IA generativa. Al menos la mitad de los diez principales sitios web en esa categoría eran medios de noticias.
El 31 de octubre, la News/Media Alliance de Estados Unidos publicó una investigación que mostró que los desarrolladores de IA no solo usan sin autorización contenidos de sus medios de noticias miembros para entrenar sus sistemas, sino que los utilizan de forma generalizada y en mayor medida que otras fuentes.
La investigación indicó también que la mayoría de los desarrolladores no obtienen las licencias necesarias para el uso de esos contenidos y tampoco dan compensación alguna a los medios de noticias.
“Nosotros defendemos con mucha vehemencia que los contenidos tienen propiedad. Tienen una certificación de origen porque fueron hechos por un periodista, por un medio”, dijo Rech. “No hay siquiera un crédito al origen de la fuente y mucho menos remuneración, no hubo acuerdos. Creemos que la regulación debe tener un acuerdo previo liberando el contenido y que los contenidos que están y sean utilizados sin autorización deben ser remunerados”.
Rech alertó sobre el creciente surgimiento de sitios que toman el contenido informativo de medios serios, lo reescriben a través de plataformas como ChatGPT y lo “re-empaquetan” para presentarlo como nuevo, sin dar ningún crédito al autor original.
Solo en agosto de este año, la organización de combate a la desinformación NewsGuard identificó 37 sitios web que utilizan chatbots para reescribir artículos de noticias de medios como CNN, The New York Times y Reuters. Algunos de esos sitios aparentemente eran generados de forma automática, sin intervención humana alguna.
Más allá de exigir que se cumpla el derecho de los medios de noticias a ser remunerados por su contenido, a través de los Principios, las asociaciones se inclinan por un modelo en el que los periodistas formen parte de la conversación y de la construcción de un ambiente de información de calidad en las plataformas de IA.
“Por un lado, queremos que reconozcan el valor [del trabajo periodístico] pero por otro queremos saber cuál es el propósito. Queremos ponerle reglas que no son solamente para efectos de pago, sino realmente [para saber] qué van a hacer con este material”, dijo Zitzmann. “Eso tiene que ser un proceso de construcción y no simplemente una cosa utilitarista donde digan ‘yo necesito estos insumos y voy a hacer un negocio con esto’”.
Zitzmann, Rech y Jornet coinciden en que no será fácil hacer que las grandes empresas tecnológicas se adhieran a los Principios propuestos por las asociaciones de medios. Sin embargo, sí creen que la declaración de esos principios es un primer paso para crear conciencia alrededor del tema, así como un llamado a otros actores involucrados, como el sector tecnológico, la Academia y los reguladores, para sumarse a hacerle frente a las plataformas de IA.
“El que venga un grupo pesado, robusto de medios del mundo diciendo ‘coincidimos en esto’ era la mejor manera de actuar con eficiencia para generar consecuencias lo más pronto posible”, dijo Zitzmann. “Esto es un tema de pesos. Nosotros estamos del lado del contrapeso a eso. Por eso es tan importante que el peso de lo colectivo le haga un contrapeso muy grande a ese poder que puede tener un producto que tiene un capital que se invierte irrestrictamente en proyectos que tienen un potencial de hacer el bien en unas cosas, pero el mal en otras”.
El siguiente paso, dijo Zitzmann, es que cada asociación de medios firmante de los Principios transmita a sus afiliados la importancia de adoptar los Principios dentro de sus propias organizaciones. Jornet dijo que se deben seguir generando instancias de debate para buscar el mejor camino a seguir.
Por su parte, Rech dijo que la ANJ ha comenzado a comunicar los Principios y su importancia en una serie de charlas con sus medios afiliados. También dijo que ha participado en foros tanto en el Congreso como ante autoridades de Brasil sobre la regulación de dicha tecnología.
“Como toda herramienta, un martillo, por ejemplo, puede ser usado para construir la casa más bella o también para golpear a alguien en la cabeza”, dijo Jornet. “Hacer una educación, una formación cultural para que la gente sepa comunicarse con las plataformas de IA y para que sepa utilizarlas debidamente, ver de qué modo hay una autorregulación por parte de las plataformas para evitar que se les emplee en forma indebida, el camino es ese para mí”.
En los inicios de internet, motores de búsqueda como Google o Yahoo! facilitaron el acceso gratuito a contenidos periodísticos de medios tradicionales que comenzaban a incursionar en las plataformas digitales. Esto acostumbró a los lectores a una gratuidad de los contenidos noticiosos, lo que finalmente derivó en una crisis en el modelo de negocio de los medios.
“El aprendizaje de lo que pasó con el algoritmo del buscador nos enseñó eso, precisamente, que cuando tienes todo abierto generas una cultura de gratuidad”, dijo Zitzmann. “Si no estabas en el buscador, no existías. Y posicionar un sitio para que la gente fuera sin saber que existía costaba unas fortunas enormes en publicidad”.
La posibilidad de que algo similar ocurra con las plataformas de IA generativa, sumado a la amenaza de desinformación y pérdida de credibilidad del periodismo, ha llevado a algunos medios a optar por bloquear su contenido de esas plataformas.
En agosto de este año, The New York Times bloqueó al rastreador web de OpenAI, la empresa desarrolladora de ChatGPT, de modo que dicha compañía ya no puede acceder al contenido del diario para entrenar a su modelo de IA. Además, el Times actualizó sus términos de servicio para prohibir el scraping de sus artículos e imágenes para el entrenamiento de plataformas de IA generativa. Al diario neoyorquino le siguieron The Washington Post, Reuters, CNN y ABC News, entre otros, con medidas similares.
En América Latina, existe la discusión entre las asociaciones de medios sobre si bloquear a sistemas como ChatGPT es la mejor opción para proteger sus contenidos. Aunque tienen opiniones diversas al respecto, tanto la SIP como la ANJ y la AMI coinciden en que se debe tomar medidas drásticas para evitar que el contenido periodístico sea usado gratuitamente por las plataformas de IA generativa.
“El algoritmo de la IA es capaz de hacer en un segundo una monografía sobre un tema porque ha tomado la información de fuentes. Cuando una o muchas de esas fuentes son los medios periodísticos, que van desde los de noticias hasta los medios especializados, y todo eso está libre, lo va a tomar, y va a aprender gratis. Eso es como ir a la universidad sin pagar la matrícula”, dijo Zitzmann.
Para Rech, la remuneración de la actividad periodística debería ir más allá del simple pago por el uso del contenido. El presidente ejecutivo de la ANJ considera que las actividades de las plataformas digitales, incluidas las de IA y redes sociales, tienen como efecto secundario una contaminación del ecosistema informativo, el cual incluye fenómenos como la desinformación y los discursos de odio.
Esa contaminación, dijo, ha sido probada en países como Brasil, con la influencia de WhatsApp en las elecciones Jair Bolsonaro; en Estados Unidos, con la desinformación generada durante el gobierno de Donald Trump; y en Filipinas, con los ejércitos de bots que manipulaban la información a favor del presidente Rodrigo Duterte.
El periodismo tiene la capacidad profesional y técnica para “limpiar” esa contaminación, con verificación de contenido e información de calidad, y los responsables de esa contaminación son quienes deberían pagar al menos una parte de esa limpieza, dijo Rech.
“Yo abogo que las plataformas tienen que tener una tasa, un porcentaje sobre sus ganancias, y eso tiene que ser transferido para el que hace la ‘limpieza’ de esa polución”, dijo. “Es como una industria que produce, por ejemplo, zapatos, y una parte de sus desechos va a parar a un río. Hay que pagar por la limpieza en ese río”.
Para Rech, esa sería la manera más segura y sustentable, no sólo de financiar al periodismo, sino para lograr que la información de calidad se imponga ante la desinformación.
“Si el crecimiento global amenaza la sanidad física del planeta, la desinformación amenaza la sanidad mental”, dijo. “Quien hace la amenaza, quien hace fortunas, billones de dólares con eso, tiene que pagar una parte de la limpieza de esa polución”.
Banner: Ilustración creada por inteligencia artificial con Magic Media de Canva