La inteligencia artificial (IA) continúa con su cada vez más rápido camino a convertirse en un elemento presente en muchas industrias, incluido el periodismo. En las salas de redacción, esta tecnología está transformando tareas que en el pasado eran ejecutadas por seres humanos, como la redacción de noticias, la generación de imágenes y el análisis de datos.
El informe “Periodismo, medios y tecnología: tendencias y predicciones para 2024”, publicado en enero por el Instituto Reuters para el Estudio del Periodismo, reportó que éste sería el año de la incorporación plena de la IA en los flujos de trabajo en las redacciones. De los medios de todo el mundo que fueron encuestados para el informe, un 16 por ciento reportó haber designado ya un responsable de actividades relacionadas con la IA en su redacción, mientras que 24 por ciento dijo que planea hacerlo pronto.
No obstante, el periodista e investigador Nic Newman, autor del reporte, dijo que los editores de América Latina han tardado más en adaptarse a la llegada de la IA al periodismo, por lo que estarían menos preparados para hacer frente a esta disrupción tecnológica.
Por eso, hoy presentamos una lista con 15 conceptos clave que todo periodista debe conocer para navegar con confianza en esa transición del periodismo hacia la era de la IA. Cada término viene acompañado de un caso concreto y real de su uso en periodismo, como una forma de ejemplificar los efectos que esta tecnología está teniendo en la industria.
Abreviada como IA, la inteligencia artificial es una rama de la informática que se enfoca en la creación de sistemas capaces de realizar tareas que normalmente requerirían de la inteligencia humana. Los sistemas de IA tienen la posibilidad de realizar funciones y resolver problemas complejos en mucho menor tiempo del que le tomaría hacerlo a seres humanos.
En el contexto periodístico, la IA puede aplicarse en tareas como la automatización de procesos, el análisis de datos, la identificación de patrones y tendencias y la generación automatizada de contenido, entre otros.
Un algoritmo es una secuencia ordenada de instrucciones preestablecidas que sigue una máquina o un sistema para resolver un problema o ejecutar una tarea específica. Los algoritmos funcionan a partir de datos proporcionados por seres humanos, los cuales procesan para luego entregar un resultado.
También conocido por su equivalente en inglés, machine learning, es una subárea de la IA en la que las máquinas “aprenden” progresivamente a partir de la experiencia y con base en datos proporcionados por seres humanos.
El aprendizaje automático permite ejecutar tareas como análisis predictivo, reconocimiento de patrones, personalización y optimización de procesos con alta precisión, gracias a algoritmos que “aprenden” a analizar grandes volúmenes de datos.
Las redes neuronales son modelos de aprendizaje automático inspirados en la estructura y funcionamiento del cerebro biológico. Están compuestas por unidades interconectadas llamadas "neuronas artificiales" que procesan información y aprenden de los datos. Las redes neuronales crean un sistema adaptable que las máquinas utilizan para aprender de sus errores y mejorar continuamente.
Las redes neuronales son la unidad fundamental de los LLM debido a su capacidad única de aprender patrones complejos en grandes cantidades de datos. Esto hace que los LLM sean capaces de ejecutar tareas como la generación de texto coherente, comprensión del lenguaje natural o el análisis de sentimiento.
El deep learning, como también se le conoce, es un tipo de aprendizaje automático en el que las máquinas son capaces de “aprender” con la experiencia sin intervención humana. En el aprendizaje profundo intervienen redes neuronales artificiales y varias capas de procesamiento de información, lo que hace posible la comprensión de patrones complejos en grandes volúmenes de datos.
El aprendizaje profundo es particularmente útil en el procesamiento de datos no estructurados, como imágenes, audio o video. Algunas de las tareas en las que se puede aplicar este tipo de aprendizaje automático incluyen el análisis de texto, la generación automática de contenidos, el reconocimiento de voz, el análisis de imágenes y la detección de patrones.
La IA generativa es el tipo de inteligencia artificial capaz de crear nuevos contenidos a partir del aprendizaje de datos masivos existentes. Los modelos que integran la IA generativa aprenden patrones de grandes volúmenes de datos y luego generan contenido que sigue esos patrones, ya sea en formato de texto, imagen, sonido o video.
Los modelos actuales de IA generativa han sido entrenados con cantidades masivas de información en línea provenientes de fuentes como artículos de noticias, libros, páginas web, bases de datos abiertas, entre otros. Esa diversidad de fuentes permite a los modelos aprender patrones lingüísticos, estructuras gramaticales y relaciones semánticas para aplicarlas en la generación de nuevo contenido.
Es una rama de la IA enfocada en la interacción entre sistemas informáticos y el lenguaje humano. El PLN tiene por objetivo hacer que las máquinas sean capaces de comprender, interpretar y generar lenguaje de manera similar a como lo hacen los humanos.
Algunas de las tareas que utilizan PLN son la traducción automática, la generación de contenido en texto o audio y la respuesta a preguntas.
Los modelos de lenguaje de gran tamaño (LLM, por sus siglas en inglés) son modelos de IA que han sido entrenados utilizando enormes cantidades de texto. Estos modelos utilizan el PLN y el aprendizaje automático para comprender y generar un lenguaje natural que emula al que usa el ser humano para hablar o escribir.
Un LLM es capaz de realizar tareas como redacción de textos, traducción, resumen de documentos, conversaciones, entre otras.
Los chatbots son programas de IA diseñados para sostener conversaciones con usuarios humanos. Estos sistemas utilizan técnicas de PLN para entender y responder a las entradas de los usuarios emulando la comunicación humana.
Existen chatbots básicos que simplemente siguen reglas predefinidas para responder a preguntas específicas, pero también los hay más complejos que utilizan aprendizaje automático para mejorar sus respuestas con la experiencia. Algunos de los chatbots más avanzados emplean LLM para generar respuestas mucho más elaboradas y con referencias contextuales.
Los modelos GPT (transformador generativo preentrenado, por sus siglas en inglés) son un tipo de LLM desarrollados por la organización OpenAI. Están basados en la arquitectura de transformadores, que son modelos de aprendizaje profundo capaces de “entender” el contexto de la información de manera más profunda mediante la transformación de las palabras en representaciones numéricas llamadas vectores, que le permiten identificar las relaciones semánticas y sintácticas del lenguaje.
La transformación de la información en vectores permite a los modelos GPT realizar tareas tan complejas como la generación de lenguaje similar al humano. Estos modelos son el motor de ChatGPT, el chatbot de IA generativa de OpenAI.
En el contexto de la IA generativa, un prompt es una instrucción o pregunta inicial que se le da a un sistema para que genere una respuesta o realice una tarea específica. Los expertos consideran que entre más claros y específicos sean los prompts, más precisas serán las respuestas de las plataformas de IA.
Una API (Interfaz de programación de aplicaciones, por sus siglas en inglés) es una interfaz que permite a una aplicación o un sistema informático comunicarse con otro para aprovechar sus capacidades. En esencia, una API es un puente que permite que un software acceda a las funciones o datos de otro software.
En el contexto de la IA, una API permite a los desarrolladores integrar funciones de IA dentro de sus propias aplicaciones sin necesidad de desarrollar esas capacidades desde cero.
El fine-tuning (ajuste fino) es una técnica dentro de la IA que consiste en modificar un modelo previamente entrenado para adaptarlo a una tarea nueva o a un conjunto de datos específico. En lugar de empezar el entrenamiento del modelo desde el principio, lo cual puede requerir muchos recursos y tiempo, se utiliza un modelo ya entrenado y se realiza un ajuste con un conjunto de datos más pequeño y específico para la tarea en cuestión.
También conocida como extracción de opiniones, el análisis de sentimiento es una técnica de IA para identificar emociones en un texto. Los sistemas de análisis de sentimientos utilizan algoritmos de PLN con los que analizan palabras, frases y contextos dentro del texto para determinar, por ejemplo, si el sentimiento expresado es positivo, negativo o neutral.
La visión computarizada es una tecnología que permite a las máquinas extraer, procesar y analizar información contenida en datos visuales, como imágenes y videos. Esto incluye detectar objetos, reconocer rostros y analizar movimientos, entre otras tareas.
No todos los sistemas de visión computarizada utilizan IA. Sin embargo, los que aplican técnicas de IA, como aprendizaje automático o aprendizaje profundo, son capaces de realizar funciones más sofisticadas, como el reconocimiento de patrones complejos en imágenes, además de que la IA mejora su precisión y eficacia.