texas-moody

ChatGPT no nos quitará el empleo, pero es fundamental experimentar y aprender sobre esta tecnología, dicen expertos en webinario

Como ha sucedido antes con el surgimiento de otros avances tecnológicos, la llegada de las herramientas de inteligencia artificial (IA) generativa como ChatGPT ha provocado gran expectación y una serie de información falsa o exagerada alrededor de estos.

Para los periodistas, este es el momento de experimentar con estos modelos, conocerlos y aprender a sacarles el mayor potencial, en lugar de prohibirlos o tenerles miedo, según coincidieron los panelistas del webinario “IA Generativa: lo que los periodistas deben saber sobre ChatGPT y otras herramientas”, realizado de manera virtual el 17 de agosto, bajo la organización del Centro Knight para el Periodismo en las Américas.

El webinario, que puede ser visto nuevamente en el canal de YouTube del Centro Knight, contó con la participación de Aimee Rinehart, directora de producto de estrategia de IA para la iniciativa Local News AI de Associated Press; y Sil Hamilton, ingeniero de aprendizaje automático e investigador residente de IA en la organización periodística Hacks/Hackers, quienes estuvieron moderados por Marc Lavallee, director de productos tecnológicos y estrategia para el periodismo en la Fundación Knight.

Ante la confusión e incertidumbre que ha provocado ChatGPT para la industria de las noticias, es importante aprender a distinguir entre lo que las empresas tecnológicas dicen que la IA generativa es capaz de hacer y lo que realmente puede hacer. Y la mejor forma en la que periodistas pueden entender las capacidades y limitaciones de esta tecnología es experimentando directamente con ella y familiarizándose con sus conceptos, técnicas y procesos. En otras palabras, iniciar un proceso de alfabetización en inteligencia artificial.

Panelists Marc Lavallee, Aimee Rinehart and Sil Hamilton during webinar, over a tech-style background.

Marc Lavallee (izq.) moderó la charla, encabezada por Aimee Rinehart, de AP (centro); y Sil Hamilton, de Hacks/Hackers (der.). (Foto: Captura de pantalla de YouTube)

 

 

“Las grandes empresas de tecnología vinieron y nos dijeron cómo iba a funcionar Internet. Y hemos acatado todas las reglas que éstas han establecido. Es lo mismo ahora: si no nos involucramos en esto, si no experimentamos, ellas escribirán las reglas”, dijo Rinehart. “Creo que este es el momento para que los periodistas se involucren, experimenten, descubran dónde están sus deficiencias y fortalezas, y luego aprendan de eso y creen estándares en torno a eso, porque ahora mismo solo estamos diciendo 'simplemente no lo usen', y esa no es una buena postura para tomar”.

Lavallee se refirió a una encuesta dada a conocer en mayo de este año por la Asociación Mundial de Periódicos y Editores de Noticias (WAN-IFRA, por sus siglas en inglés) que arrojó que casi la mitad de las salas de redacción encuestadas dijeron estar usando herramientas de IA generativa y la mayoría tenían perspectivas positivas sobre éstas. Sin embargo, solo un 20 por ciento de esas redacciones ya había diseñado lineamientos y políticas de buenas prácticas alrededor de su uso.

“Estamos apenas comenzando a entender cómo funcionan. Y gran parte de eso es la experimentación, hacer preguntas básicas y, definitivamente, recordar que no sabemos realmente cómo funcionan”, dijo Hamilton. “Pero sí sabemos en qué han sido entrenadas, y especialmente en lo que se refiere a periodistas y organizaciones de noticias, es realmente importante que no solo desarrollen políticas para trabajar con IA, sino también para controlar sus propios datos”.

Rinehart enfatizó que las mejores oportunidades con las herramientas de IA generativa son para los medios locales, ya que, por un lado, son los que tienen mayores necesidades y espacios vacíos en sus capacidades técnicas y humanas, y por otro, al ser organizaciones pequeñas, tienen mayor margen de error y espacio para corregir fallas ágilmente, en comparación con los grandes medios.

“Creo que este es su momento. [...] Simplemente necesitan más ayuda en sus coberturas. A menudo tienen un área geográfica más amplia, porque muchos otros medios han cerrado y a menudo no tienen tantas personas en la redacción”, dijo Rinehart. “Por lo que tienen más que hacer con menos recursos. Y para mí, ahí es donde la IA realmente puede entrar y cerrar esa brecha”.

La periodista contó que la AP comenzó a incursionar con inteligencia artificial en 2014, mediante la automatización de historias basadas en reportes financieros de empresas. La agencia pasó de analizar 300 reportes de manera manual a 3.000 con inteligencia artificial, lo que le permitió enfocar recursos y esfuerzos a proyectos periodísticos de mayor impacto.

Rinehart dijo que, así como la AP hizo con el análisis de reportes financieros, los medios que quieran incursionar con la inteligencia artificial deben comenzar por identificar tareas repetitivas en sus procesos editoriales y comerciales. También deben escuchar a los miembros del equipo e identificar las tareas en las que se sienten más presionados o superados. A partir de ahí pueden analizar si necesitan una herramienta automatizada.

Estas recomendaciones se desprenden del marco para la integración de la inteligencia artificial en las salas de redacción derivado de una encuesta que realizó la AP en 2021 a más de 200 medios de noticias en Estados Unidos, el cual, dijo Rinehart, pronto estará disponible para ser consultado.

“Creo que [el marco de integración] es realmente útil y puede reducir un poco la presión de ‘¡Oh, no, necesitamos IA ahora mismo!’, porque tal vez solo necesites un flujo de trabajo diferente. O tal vez solo necesites una automatización de procesos simple para que todo mejore”, dijo.

En términos de herramientas de IA generativa de texto, la periodista también sugirió no limitarse a ChatGPT, sino probar otras plataformas disponibles, como Claude, desarrollada por Anthropic, una startup tecnológica fundada por exempleados de OpenAI; así como Bard, desarrollado por Google. Lo ideal, dijo Rinehart, es realizar pruebas en las diferentes plataformas y determinar cuál ofrece mejores resultados para cada tarea y medio de noticias.

¿Cómo funciona ChatGPT? 

ChatGPT es un modelo de inteligencia artificial basado en tecnología denominada Generative Pre-trained Transformer (transformador generativo preentrenado), la cual está diseñada para generar respuestas de texto coherentes y similares a las humanas, de forma conversacional. Fue desarrollado por el laboratorio de investigación de inteligencia artificial estadounidense OpenAI.

El primer modelo de lenguaje preentrenado de OpenAI (GPT) fue lanzado en 2018. Actualmente ChatGPT funciona con la versión GPT-4 (la más avanzada hasta el momento) en su versión Plus, y con GPT-3.5 en su versión gratuita.

Sistemas como ChatGPT han sido entrenados con cantidades enormes de datos procedentes de internet. Sin embargo, una de las principales críticas a estos sistemas es su precisión y la credibilidad de sus fuentes, ya que sus respuestas están basadas en patrones, no en hechos, explicó Hamilton. Es por ello que no es recomendable que los periodistas usen estas herramientas para generar contenido.

Screenshots of generative AI online platforms ChatGPT, Bard and Claude.

Los panelistas recomendaron probar las tres herramientas de IA generativa líderes actualmente: ChatGPT, Bard y Claude. (Foto: Capturas de pantalla)

“La buena regla general es que estos modelos son muy buenos en la forma, no en el contenido”, dijo Hamilton. “Es excelente en la forma, pero cuando le pides que escriba desde cero, se queda corto en casi todo, y esto en una amplia gama de ámbitos. [...] No se le da bien escribir desde cero. Así que si quieres trabajar con el modelo, asegúrate siempre de darle algo con lo que trabajar”.

Es ahí donde el periodismo tiene una gran oportunidad, de acuerdo con el investigador, ya que los medios de noticias generan contenido de alta calidad, y ésta puede ser la materia prima con la que se puede sacar provecho a la IA generativa. Claude y Bard son capaces de leer archivos de distintos tipos, como PDFs, imágenes y videos. A partir de estos, los reporteros pueden pedir acciones específicas como resumir, reescribir, traducir o hacer preguntas específicas sobre el contenido.

“Sabemos que la inteligencia artificial funciona mejor cuando le damos información de alta calidad. Y en internet, los medios de noticias generalmente producen la información de mayor calidad que se puede obtener”, dijo Hamilton. “Así, el modelo, en lugar de basarse en su propia base de conocimientos, se fijará en el contenido que le hemos proporcionado en la pregunta. Y esto se llama 'aprendizaje contextual'”, añadió luego.

Rinehart explicó que sistemas como ChatGPT parten de dos bases: la base de lenguaje y la base de conocimiento. Para los periodistas, la panelista recomendó partir de la base de lenguaje, ya que el nivel de conocimiento que usan esos modelos es todavía incierto en la mayoría de los casos.

La periodista también enfatizó que, a diferencia de otros desarrollos tecnológicos que son creados en inglés, los modelos de IA generativa han registrado buen desempeño en otros idiomas.

“Una forma más segura para que una redacción pequeña experimente con esto es tomar esa historia que has escrito y pedirle [a la IA] que escriba tres titulares”, dijo Rinehart. “Pídele que haga un hilo en Twitter, o un post en Facebook, o un resumen, dependiendo de dónde y cómo necesites utilizarlo. Creo que esa es una forma muy buena de usarlo”.

Debido a lo incierto de la base de conocimiento desde la que trabajan, ChatGPT y sus símiles son propensos a “alucinar”. Es decir, arrojar respuestas que parecen lógicas pero que pudieran ser imprecisas o incorrectas. Esto se debe, explicó Hamilton, a que los modelos GPT entienden el significado de las palabras y cómo se relacionan entre ellas. Sin embargo, desarrollan este entendimiento de las palabras sin nunca haber “visto” lo que las palabras representan.

De ahí la importancia de proporcionar a los modelos información de calidad sobre la cual trabajar.

“Las alucinaciones se producen cuando el modelo estira este conocimiento un poco más allá de lo que realmente sabe fundamentalmente, cuando intenta confabular”, dijo Hamilton. “Hay una tendencia creciente a llamar a las alucinaciones confabulaciones, porque es cuando el GPT intenta rellenar los espacios en blanco en su conocimiento, y no acaba de entender que algo se relaciona de una manera con otra cosa, y trata de inventar una forma en la que ambas cosas podrían relacionarse”.

Las alucinaciones son consecuencia natural de la arquitectura de los modelos GPT, explicó Hamilton, Por eso, los periodistas deben siempre tomar la información que estos arrojan como tomarían la de cualquier otra fuente y verificarla, incluso cuando dicha información parezca tener sentido.

Conoce las herramientas relacionadas con la IA generativa que los panelistas recomendaron

La tecnología revoluciona el formato

Entre las preguntas más recurrentes en la audiencia del webinario estuvieron las que tienen que ver con el riesgo de los periodistas de perder  sus empleos ante el crecimiento de las tecnologías de IA generativa. Los panelistas coincidieron en que en lugar de sentir temor, los profesionales de la información deben conocer realmente cómo funciona esta tecnología y adaptarse a la nueva realidad que ésta trae consigo.

“La forma en que he podido permanecer en esta industria por tanto tiempo es porque he sido capaz de adaptarme rápidamente, o al menos de interesarme por lo que está por venir”, dijo Rinehart. “Creo que si trabajas en redacciones y quieres seguir trabajando ahí dentro de cinco años, deberías considerar seriamente este tema. No es una moda pasajera, no va a desaparecer, y cuanto más familiarizados estemos con este tema, mejor será nuestro reporteo y mejor comprenderemos hacia dónde se dirigen las noticias”.

Esta tecnología emergente trae consigo la oportunidad de revolucionar el formato en el que las noticias son entregadas a la audiencia, tal como en su momento hicieron otros avances tecnológicos, como el telégrafo, dijo Rinehart. En el siglo 19, el telégrafo provocó el surgimiento del formato de pirámide invertida en las notas informativas, el cual la AP estandarizó en su manual de estilo en 1953.

De forma similar, ChatGPT está creando una nueva forma en la que el público recibe respuestas a sus preguntas en internet, dijo Rinehart. Ya no con enlaces que llevan a otros sitios web, sino con texto que responde directamente lo que el usuario necesita. Esa es una oportunidad para que las salas de redacción encuentren formas de satisfacer esa nueva preferencia de la audiencia con la integración de los modelos de IA generativa a sus procesos de interacción con los lectores.

“Hemos aprendido mucho a través de este asunto de pregunta-respuesta que ChatGPT le ha presentado al público. Y así es como a la gente le gusta que le entreguen la información, no quieren enlaces. Está claro que quieren un párrafo que les explique todo. ¿Pueden las redacciones aprender de esto e integrarlo en su oferta?”, preguntó Rinehart.

Screenshot of the ChatGPT website.

Los periodistas que deseen sacar el mejor provecho a la IA generativa deben convertirse en buenos ingenieros de prompts, dijeron los panelistas. (Foto: Ehécatl Cabrera, CC BY-SA 4.0, via Wikimedia Commons)

La periodista dijo que las tendencias de empleo en la industria del periodismo se dirigirán principalmente a una mayor demanda de posiciones relacionadas con SEO (posicionamiento en motores de búsqueda) y a empleos de edición y corrección de estilo.

Por su parte, Hamilton agregó que la capacidad hasta ahora limitada de generar textos desde cero de los modelos de IA generativa pone a salvo el trabajo de reporteros y escritores. Pero estos modelos eventualmente se integrarán en una dinámica de co-trabajo con los periodistas.

“El desarrollo de estos modelos, tal y como va la trayectoria actual, apunta a simplemente en colaborar con nosotros, no en automatizar por completo los puestos de trabajo”, dijo. “Es muy importante ser consciente del tema, como dice Aimee, [...] utilizar realmente estas herramientas en el día a día y averiguar dónde encajan en nuestro propio flujo de trabajo, porque va a ser diferente para cada uno”.

La importancia de los prompts

En la IA generativa, el prompt es la indicación que se le da a los modelos para generar el contenido o respuesta deseados. Entre más claro y estructurado el prompt, más precisa será la respuesta de la plataforma. De acuerdo con los panelistas, los prompts son una forma en la que los usuarios pueden guiar a modelos como ChatGPT a obtener material de utilidad.

Al proceso de diseñar prompts efectivos para obtener respuestas relevantes se le conoce como prompt engineering o ingeniería de prompts. Los periodistas que deseen sacar el mejor provecho a la IA generativa deben convertirse en buenos ingenieros de prompts, de acuerdo con los panelistas. Entre más contexto e indicaciones incluya el prompt, mejor será el resultado.

“Todos podemos convertirnos en mejores ingenieros de prompts, en el sentido de hacer preguntas más detalladas”, dijo Rinehart. “Estaba hablando con alguien que entrevistó a mucha gente de marketing y dijo que estos son mejores en diseñar prompts que los periodistas. Un prompt de tres palabras no te va a llevar a mucho, pero empezar [por indicarle al modelo] algo como 'imagina que eres un profesor de universidad que asigna esta tarea a un estudiante de segundo año', etcétera. Esos detalles quizá te acerquen más a los resultados que quieres”.

Desarrollar prompts efectivos para los fines de cada sala de redacción puede llevar bastante tiempo, porque se trata de una actividad de ensayo y error, y porque lleva cierta dosis de intuición y de llegar a conocer mejor al modelo, dijo Hamilton. Los usuarios deben estar conscientes de que los modelos GPT no son capaces de entender totalmente lo que se les indica. De ahí la importancia de crear prompts con suficiente información y contexto.

“A veces hay que ser como un ‘encantador de IA’, y eso es bueno y malo a la vez. Por el lado bueno, encierra la promesa de la ingeniería, de que se puede hacer determinista, seguro y confiable”, dijo. “Pero también se trata de modelos que no entendemos completamente. La ingeniería de prompts es un poco de una línea, en el sentido de que no puedes diseñar un resultado perfecto cada vez. Depende mucho de la intuición. Tienes que trabajar mucho con el modelo para empezar a hacerte una idea de cómo piensa”.

Hamilton y Reinhart coincidieron en la necesidad de tener cuidado en no compartir información sensible o confidencial en los prompts. Si bien OpenAI implementó este año la política de no usar información que los usuarios proporcionan para entrenar al modelo de ChatGPT, todavía es incierto qué tantos datos permanecen en las nubes de estas plataformas.

“Muchas de estas herramientas toman, recopilan y utilizan cualquier cosa que introduzcas en ellas. Así que si estás trabajando en una importante y jugosa historia, yo evitaría proporcionar cualquier información a esa nubes”, dijo Rinehart.

Para los periodistas que quieren conocer a fondo cómo usar esta nueva tecnología, el Centro Knight ofrecerá el curso gratuito en línea “Cómo usar ChatGPT y otras herramientas de IA generativa en tu redacción”, del 25 de septiembre al 22 de octubre de 2023, anunció Rosental Alves, director del Centro Knight, al final del webinario.

 

Banner: Imagen creada con inteligencia artificial a través de Microsoft Bing

Artículos Recientes