texas-moody

América Latina lidera la mención del periodismo en las leyes de IA

El impacto de la inteligencia artificial (IA) en el periodismo ya no se pone en duda y, al contrario, son cada vez más las redacciones y organizaciones de medios que adoptan iniciativas para utilizarla y gestionarla. Ya sea desde usar la tecnología para tareas mecánicas que ahorra tiempo hasta buscar mecanismos para identificar desinformación creada a partir de la IA, el periodismo busca no quedarse atrás.

La regulación de la IA, no obstante, es un escenario aún nuevo y al que no necesariamente periodistas y medios prestan atención a pesar de los impactos que esta podría tener en su ejercicio.

Justamente con el propósito de analizar las posibles implicaciones de la legislación de IA en el periodismo y el sector informativo en general, el Center for News, Technology and Innovation (CNTI) publicó recientemente el estudio Journalism’s New Frontier: An Analysis of Global AI Policy Proposals and Their Impacts on Journalism (La nueva frontera del periodismo: un análisis de las propuestas de políticas globales de IA y sus impactos en el periodismo).

El CNTI revisó 188 estrategias, leyes y políticas nacionales y regionales de IA en todo el mundo para analizar cómo la regulación abordaba siete componentes que en su consideración impactarían al periodismo. Temas como libertad de expresión, contenido manipulado o sintético, discriminación y sesgo algorítmico, propiedad intelectual y derechos de autor, transparencia y rendición de cuentas, protección de datos y privacidad, e información pública y concientización fueron el foco del estudio. Además, también identificaban cuáles de estas leyes o propuestas de ley mencionaban de manera específica al “periodismo”.

Para el caso de América Latina y el Caribe – una de las siete regiones analizadas – encontraron 80 estrategias, políticas o leyes, de las cuales cinco específicamente mencionaban al periodismo o periodistas. Esta es la región que más menciona la profesión, según los registros del CNTI.

“Nuestro objetivo era comprender las posibles implicaciones de la legislación sobre IA para el periodismo y el sector informativo en general. Con este objetivo, mencionar el periodismo a menudo puede ser un arma de doble filo”, dijo a LatAm Journalism Review (LJR) Jay Barchas-Lichtenstein, senior research manager de CNTI y quien escribió el capítulo para América Latina y el Caribe. “Es positivo porque demuestra cierta conciencia de que estas políticas probablemente impactarán en el sector periodístico. Pero puede ser negativo cuando significa que los gobiernos están definiendo qué es y qué no es periodismo”.

Barchas-Lichtenstein dijo que los trabajos previos del CNTI muestran un recelo entre periodistas al momento de que se regule su oficio. “En general, los periodistas no creen que sea apropiado que los gobiernos definan los límites ni del campo ni de sus profesionales”, dijo.

Sobre este tema y en el contexto de América Latina sobre cómo se impactará el periodismo con estas regulaciones aún no es muy claro toda vez el número de leyes promulgadas todavía es muy bajo, señala el CNTI. La organización destaca positivo que en la región el debate sobre esto parece darse más que en otras regiones, y sugiere garantizar un lenguaje legislativo que no genere “nuevos riesgos para la independencia y diversidad de un ecosistema de información dinámico”.

Ecuador, según el CNTI, tiene una de las propuestas “más completas” de la región con su Ley Orgánica para la Regulación y Promoción de la IA de 2024.

El CNTI por ejemplo destaca el artículo 31 sobre “diversidad y pluralidad en entornos digitales” que exige entre otras a los sistemas de recomendación de contenido de IA facilitar “el acceso equitativo al contenido de interés público provenientes de medios locales, comunitarios e independientes”. El artículo 32 de esta misma ley establece el “freno a censura y manipulación algorítmica” al exigir mayor transparencia y procesos de apelación a quienes usen moderación y curación de contenido basados en IA.

Brasil tiene otras de las propuestas de ley destacadas en la región con el proyecto de ley 2338 es actualmente discutido en la Cámara de Diputados. De hecho, el país es el que ha liderado el tema en la región, según el CNTI.

El proyecto ha cambiado bastante desde que fue presentado en 2023, dijo Barchas-Lichtenstein, lo que significa que tiene varias páginas de tramitação (tramitación), es decir, especie de enmiendas y modificaciones. Es decir, el proyecto actual podría tener cambios comparado con lo analizado en el informe.

“Con esta salvedad, me complace señalar una clara fortaleza que es poco probable que cambie: contiene definiciones claras de lo que está y no está regulado por la ley”, dijo Barchas-Lichtenstein.

Según la última versión analizada para el informe del CNTI, el proyecto tiene definiciones de docenas de términos como “sistema de IA”, “sistema de IA de propósito general”, “IA generativa”, “minería de textos y datos”, “integridad de la información”, entre otras.

“La especificidad es importante, especialmente porque muchos de estos términos no necesariamente tienen definiciones de consenso ampliamente aceptadas”, dijo.

Cuando se elaboró ​​el informe del CNTI, todos los países de la región, con excepción de Guatemala, Nicaragua y Belice, contaban con al menos un proyecto de ley o iniciativa regulatoria que mencionaba temas relacionados con la IA y el periodismo.

No hay un modelo “ideal”, pero sí aspectos clave

Emmanuel Vargas, codirector de la organización El Veinte, que trabaja por la defensa judicial de la libertad de expresión, dijo a LJR que es importante que organizaciones y medios se interesen en las regulaciones que haya sobre este tema por las implicaciones que podría haber.

“El afán que existe por parte de varios actores de ‘contener’ los riesgos de la IA puede llevar a la imposición de normas inútiles, o que resulten excesivamente restrictivas”, dijo Vargas, quien no hizo parte de la investigación del CNTI pero que sí la analizó. “También existe un riesgo de que las empresas tecnológicas posicionen una narrativa que apunte hacia regulaciones excesivamente relajadas, centradas en la necesidad de proteger la innovación”.

En ese sentido, dijo Vargas, la regulación sobre IA debe tener una mayor responsabilidad. Un primer paso por ejemplo es identificar cuáles son los riesgos o problemáticas que se quieren regular, y así evitar que el impacto de una regulación sea muy amplio.

“Dado que la IA acarrea ciertos riesgos de crear o reforzar sesgos discriminatorios, o de generar desinformación, es importante que existan ciertas reglamentaciones para cualquier tipo de desarrollo y despliegue de estas tecnologías cuando su propósito sea el de formar parte de procesos informativos”, dijo el abogado. “Esto incluye, por ejemplo, la reglamentación de los algoritmos de recomendación y de moderación de las plataformas de redes sociales, pero también el uso por parte de empresas periodísticas”.

Debido a que, en el caso del periodismo, su regulación podría llevar a la censura, Vargas sugiere tres factores para tener en cuenta. Priermo, el uso del derecho penal solamente en casos de mayor afectación a otros derechos como la generación de pornografía infantil. Segundo, diferenciar distintos actores que usen la tecnología y sus responsabilidades. Y el tercero, establecer medidas que hagan más transparente el uso de tecnología, y la realización de auditorías.

“Cuando se trata del uso por parte de una empresa periodística, es importante que estas regulaciones tengan salvaguardas que eviten que las obligaciones de transparencia o de auditoría no resulten en el descubrimiento de informaciones protegidas por el secreto profesional”, dijo Vargas.

Desde el CNTI, dijo Barchas-Lichtenstein, no advocan por algún tipo de legislación en particular, sino ofrecer datos y contexto para que aquellas personas encargadas de legislar puedan encontrar un marco que permita “plantear las preguntas correctas y construir un camino hacia las soluciones”.

“Nuestro objetivo es analizar y concienciar sobre las desventajas y las posibles implicaciones para el periodismo y el espacio informativo, para que los legisladores, la sociedad civil y otras partes interesadas puedan formular mejores preguntas y aprobar políticas que consideren la libertad de prensa y los valores democráticos”, dijo Barchas-Lichtenstein.

El informe de hecho culmina con una serie de recomendaciones en las que detalla “aspectos clave” que diferentes políticas deberían poner atención. Una de ellas es que las políticas que abordan el tema de contenido manipulado deben analizar los casos periodísticos para evitar caer en censuras. Por ejemplo, casos en los que a través de IA se manipula una imagen o un audio para proteger a una fuente.

Otro de estos aspectos es que en los grupos de trabajo sobre IA que realizan los legisladores incluyan a productores periodísticos, equipos de producto e ingenieros, junto con tecnólogos en IA, investigadores, la sociedad civil y otras partes interesadas relevantes. Para el CNTI este punto es vital que ya se legisla “una tecnología en constante evolución y con consecuencias de gran alcance”.

El reciente informe hace parte de una serie de investigaciones más amplia que hace el CNTI sobre periodismo e IA. Previo al análisis de políticas sobre IA, el CNTI hizo un informe sobre los usuarios habituales de chatbots de IA y sus hábitos y necesidades informativas.

Republica esta historia en tu medio de forma gratuita, con crédito a LJR. Lee nuestros lineamientos