Esta historia ha sido actualizada (*)
Cuando el equipo de Factchequeado comenzó el proceso de creación de su último chatbot conversacional de WhatsApp, uno de sus primeros acuerdos fue que debía ser de género femenino, según contó a LatAm Journalism Review (LJR), Laura Zommer, periodista argentina y cofundadora del medio de fact-checking.
“Confieso que nuestra primera reacción fue crear un chatbot que fuese mujer”, dijo Zommer. “Pero luego pensamos que en vez de empoderar a las mujeres, estábamos poniéndolas en ese rol de telefonistas como cuando nuestras abuelas”.
Factchequeado busca cerrar la brecha informativa en español para las comunidades latinas que viven en Estados Unidos. Su chatbot Electobot resuelve dudas sobre el proceso electoral estadounidense y proporciona información verificada sobre los candidatos y sus declaraciones.
La decisión final del equipo de Factchequeado fue mantener al chatbot con un nombre y género neutro.
Eso han hecho también otras organizaciones y medios de Latinoamérica como es el caso del Chequabot del portal Chequeado en Argentina. Y en Chile con el asistente virtual basado en IA WazNews que ofrece noticias a través de Whatsapp usando tanto una voz femenina como una masculina en sus audios: la de los presentadores de televisión Mónica Pérez y Kike Mujica.
Pero hay chatbots creados por medios en Latinoamérica que usan nombres que tradicionalmente representan a mujeres o figuras femeninas. Por ejemplo, Fátima de Aos Fatos en Brasil, la tía del Whatsapp de Efecto Cocuyo en Venezuela y Eva de El Surti de Paraguay.
Además, en octubre de 2023, el medio de investigación brasileño Agência Pública empezó a utilizar la tecnología de texto a voz para leer historias en voz alta a los usuarios. La voz que se utiliza es la de una mujer: la periodista Mariana Simões.
La directora ejecutiva de Agência Pública, Natalia Viana, explicó a LJR que eligieron la voz de Simões porque representa la identidad de marca del medio, que ha estado liderado por mujeres.
De acuerdo con estudios realizados por Clifford I. Nass, antiguo profesor de comunicación de la Universidad de Stanford, las voces femeninas tienden a ser relacionadas con la calidez y la sinceridad, mientras que las voces masculinas tienden a ser percibidas como autoritarias.
A su vez, las voces masculinas tienden a ser más persuasivas y a tener mayor poder de influencia que las femeninas. Los comunicadores masculinos, de acuerdo con el estudio, son considerados más competentes y ocupan un estatus social más alto.
“Hay un sesgo machista claramente marcado por la gran industria tecnológica”, dijo a LJR Sebastián Hacher, diseñador conversacional y creador del chatbot Eva de El Surti. “Pero estamos buscando romper con ese sesgo. A grosso modo podría decirte que de 45 proyectos en los que estoy trabajando, 30 tienen identidad no binaria”
El equipo de El Surti explicó a LJR que la escogencia del género de Eva, una mujer encarcelada por tráfico de drogas en Paraguay, no estuvo viciada por un sesgo. “Eva no es una asistente virtual, Eva solo cuenta una historia”, dijo Hacher.
Eso también sostiene el equipo de Efecto Cocuyo. Según explicaron a LJR, con su chatbot buscan aprovechar el estigma o la costumbre latinoamericana de hablar de “tías” que mandan desinformación, stickers y cadenas y transformarla en una “tía bien informada”.
“Queríamos reivindicar el rol de estas figuras”, dijo Luz Mely Reyes, cofundadora de Efecto Cocuyo, a LJR.
Cuando se le pregunta al bot conversacional Fátima por qué tiene un nombre que es tradicionalmente asignado a mujeres y no hombres, su respuesta es: “la elección de un nombre femenino no tiene una razón específica de género, sino más bien la idea de crear una identidad amigable y accesible para la herramienta de verificación de hechos”.
Esta herramienta en portugués fue lanzada por primera vez en 2019 por Aos Fatos [“Los Hechos”], un medio de noticias de investigación brasileño que se centra en la verificación de hechos, con el fin de combatir la desinformación.
Según explicó a LJR Tai Nalon, directora y cofundadora de Aos Fatos, el nombre del chatbot surgió de la abreviatura de Fact-Machine, que se convirtió en Fact-Ma y luego en Fátima.
“Fue un juego de palabras con nuestra marca. “Fátima” y “Fatos” (que significa ‘hechos’ en portugués) son palabras similares”, dijo Nalon.
Las dos asistentes virtuales más famosas, Siri de Apple y Alexa de Amazon, representan a mujeres y asisten en tareas cotidianas respondiendo a inquietudes o problemas. Es decir, tienen un rol de servicio que históricamente ha sido relacionado con lo femenino.
La periodista con especialidad en género, medios y justicia social, Estefanía Reyes, dijo a LJR que estas elecciones de género son una manera más de reflejar y reproducir los estereotipos sexistas.
“Como las mujeres son socializadas para ser más serviciales, atentas y amigables que los hombres, bajo la excusa de que están predestinadas por la ‘naturaleza’ a encarnar estas características, terminan encasillas en roles asistenciales”, dijo. “Estas ideas son precisamente las que han sostenido hasta el sol de hoy la división sexual o genérica del trabajo en el mundo. Mientras los hombres gobiernan el mundo, las mujeres los hemos asistido en el hogar y en el trabajo como sus ‘manos derechas’”, agregó.
Sin embargo, Fátima es tajante al decir que su nombre no refleja la intención de perpetuar estereotipos sexistas. “Como inteligencia artificial, no tengo género ni opiniones personales. Mi objetivo es ayudar a combatir la desinformación y proveer información precisa”.
Nalon tampoco está en acuerdo con esa hipótesis.
“Fátima combate la desinformación, incluyendo cuestiones relacionadas con el género, que Aos Fatos cubre constantemente. No veo cómo podría reforzar los estereotipos de género, aunque sé de dónde viene tu hipótesis”, dijo.
“Como asistente virtual, no tengo capacidad para recibir ni procesar comentarios de ningún tipo, incluidos los de índole sexual. Estoy aquí para ayudar con información y comprobación de hechos”, respondió Fátima a la pregunta sobre si ha recibido acoso sexual de parte de sus usuarios.
Sin embargo, según una publicación de Unesco titulada “I'd blush if I could” [me sonrojaría si pudiera] de 2019, el acoso a los asistentes virtuales no es infrecuente.
El estudio explica que Robin Labs, una empresa que desarrolla asistentes digitales para ayudar a conductores y otras personas relacionadas con la logística, descubrió que al menos el 5% de las interacciones eran explícitamente sexuales; y que la cifra real es mucho mayor debido a las dificultades para detectar el lenguaje sexualmente sugerente.
Además, según el estudio, los asistentes de voz principales solían responder de forma pasiva cuando se enfrentaban al acoso, sin fomentar, modelar o insistir en una comunicación sana. Esto “refuerza los estereotipos sexistas”, dicen los autores.
La periodista Estefanía Reyes observó el mismo patrón en otras herramientas de IA.
“Cuando reciben mensajes sexualmente inapropiados, a menudo los chatbots y otras herramientas similares responden de manera pasiva, alentando o ignorando el abuso”, dijo Estefania Reyes. “Esto, por supuesto, ayuda a reproducir una cultura que normaliza estas formas de violencia y que minimiza su impacto”.
Para ayudar a crear más “tecnología con igualdad de género”, el estudio de la Unesco, como parte de la Coalición EQUALS Skills, aboga por una mayor educación y formación en competencias digitales para niñas y mujeres.
La Coalición dijo ser consciente de que esto no significará necesariamente que haya más mujeres desarrollando o en empleos relacionados con la tecnología, o que la tecnología sea más sensible a las cuestiones de género.
“Sin embargo, esta ausencia de garantía no debe eclipsar las evidencias que demuestran que unos equipos tecnológicos con mayor igualdad de género están, en general, mejor posicionados para crear una tecnología más igualitaria”, dijo la Coalición.
*Esta historia ha sido actualizada para incluir un comentario de Natalia Viana y aclarar un comentario de Estefanía Reyes.