texas-moody

Estas redacciones brasileñas usan IA para monitorear el odio digital y rastrear proyectos de ley

  • Por Aline Gatto Boueri
  • 23 febrero, 2026

Dos medios brasileños enfocados en la cobertura de género y raza han lanzado herramientas que combinan inteligencia artificial, teoría feminista y periodismo de datos para monitorear el discurso de odio en línea y proyectos de ley sobre los derechos de niñas, mujeres y personas LGBTQ.

Una de ellas, Radar Antigênero, desarrollada por la redacción independiente Gênero e Número, es una plataforma gratuita que permite a los usuarios buscar, clasificar y analizar videos de YouTube que promueven discursos de odio contra mujeres y personas LGBTQ. Con el uso de IA, la herramienta ayuda a visualizar cómo se difunden estas narrativas y las estrategias que las sostienen.

La otra, QuiterIA, creada por el Instituto AzMina, examina proyectos de ley desde una perspectiva feminista, ayudando a los usuarios a rastrear, clasificar y evaluar iniciativas legislativas que podrían afectar a niñas, mujeres y comunidades LGBTQ.

Las herramientas facilitan la creación de bases de datos que pueden alimentar reportajes y ayudar a monitorear tendencias del debate público en el año en que Brasil vuelve a las urnas para elecciones nacionales y regionales. A continuación, un vistazo más cercano a cómo funciona cada una.

Una IA para seguir el discurso de odio

Lanzada en septiembre de 2025, Radar Antigênero permite a los usuarios realizar búsquedas en un catálogo de videos de YouTube que promueven discursos de odio contra mujeres o comunidades LGBTQ – comúnmente descritos como “discurso antigénero.” Es una colaboración entre el equipo de Gênero e Número, una redacción independiente con sede en Río de Janeiro, y la firma de análisis de datos Novelo Data.

Para desarrollar el Radar, el equipo realizó una investigación a partir de términos que se suelen usar en discursos de odio. En la primera recopilación, captaron un gran volumen de videos, que transcribieron con Whisper, un conversor de audio a texto de OpenAI. Las transcripciones las organizaron en una base de datos y las clasificaron manualmente.

Luego, el equipo evaluó cuáles palabras clave arrojan contenidos de mayor impacto en YouTube, ya sea por su alcance o por el volumen de interacciones, y seleccionó 36 canales que producen discurso antigénero de manera sistemática.

El resultado es una plataforma con una interfaz visual que permite a los usuarios buscar videos del 2018 al 2026. Produce una visualización de los videos que cumplen con los criterios de búsqueda y muestra su productor, fecha de publicación, número de visualizaciones y “me gusta”.

El grupo compartió una versión preliminar de la plataforma para recibir retroalimentación de expertos en tecnología, ciencia de datos y estudios de género, según Vitória Régia da Silva, directora ejecutiva de Gênero e Número. Fue un paso que ayudó a afinar el enfoque del proyecto.

“Eso contribuyó a la formulación y validación de la metodología, que siempre puede ajustarse porque el discurso es continuo”, le dijo a LatAm Journalism Review (LJR). “Fue un proceso que implicó una investigación y pruebas exhaustivas”.

El equipo clasificó y organizó los ataques por objetivos de los ataques, ejes temáticos y estrategias discursivas.

Los primeros hallazgos de la plataforma ponen en evidencia la amplitud del fenómeno. Según su sitio web, 65% de los videos analizados entre enero de 2018 y agosto de 2025 promueven roles tradicionales de género, 25% contienen mensajes antifeministas y 20% recurren a argumentos moralistas.

“Al principio pensamos que esta herramienta no era para todo el mundo, pero nos fuimos dando cuenta de que puede apoyar a cualquiera que quiera reflexionar sobre políticas públicas, producir conocimiento y seguir narrativas”, dijo Silva. “Así que, en efecto, puede ser para todos”.

Una “IA feminista” para monitorear el Congreso

Diseñada para monitorear los proyectos de ley en el Congreso de Brasil sobre los derechos de niñas, mujeres y personas LGBTQ, QuiterIA fue lanzada en noviembre de 2025 por la organización feminista Instituto AzMina, incorporada en São Paulo.

Con su nombre inspirado en Maria Quitéria de Jesús, heroína de la independencia brasileña, la herramienta fue entrenada con datos recopilados desde 2019 para el proyecto Elas no Congresso. Sus hallazgos se publican en hojas de cálculo de acceso público.

Según Ana Carolina Araújo, coordinadora general de QuiterIA, el entrenamiento con perspectiva feminista, interseccional y antirracista es fundamental para diferenciar la herramienta de otros modelos.

“La mayoría de las herramientas de inteligencia artificial disponibles para el público están entrenadas con datos de internet. Entonces, si un conjunto de datos contiene muchas afirmaciones machistas, por ejemplo, la IA tiende a reproducir esos sesgos”, dijo Araújo. “Para nosotras, la perspectiva especializada es muy importante: que la IA pueda reproducir una mirada feminista”.

La retroalimentación de grupos que abogan por los  derechos humanos y de las mujeres se usan para categorizar los proyectos de ley como favorables o desfavorables y para el reentrenamiento de QuiterIA. Cuando la inteligencia artificial contradice las evaluaciones realizadas por especialistas, Araújo afirma que prevalece el criterio humano.

Adriano Belisario, del equipo de desarrollo de QuiterIA, sostiene que el debate sobre la inteligencia artificial debe incorporar matices para avanzar.

“Tenemos un universo amplio de usos, no todos están relacionados con las Big Tech”, señaló en conversación con LJR. “Existen iniciativas que producen inteligencia artificial en contextos que no están orientados al lucro, sino a la garantía de derechos”.

QuiterIA también fue moldeada por debates en curso entre tecnólogas feministas. Un enfoque feminista de la inteligencia artificial, explicó Araújo, busca evitar prácticas extractivas de datos y favorece modelos de lenguaje más pequeños, que tienen un menor impacto ambiental y pueden ejecutarse en computadoras personales en lugar de servidores a gran escala.

“Nuestra idea de usar una IA feminista no es solo evitar daños”, dijo Araújo. “Queremos deliberadamente generar acceso a derechos, generar reparación y ver transformación”.

Republica esta historia en tu medio de forma gratuita, con crédito a LJR. Lee nuestros lineamientos.