texas-moody

Por que a escolha do gênero de chatbots pode reproduzir estereótipos sexistas

 Esta matéria foi atualizada (*)

 

Quando a equipe do Factchequeado começou o processo de criação de seu último chatbot conversacional no WhatsApp, um dos primeiros consensos foi que ele deveria ser do gênero feminino, segundo relatou à LatAm Journalism Review (LJR) a jornalista argentina Laura Zommer, cofundadora do meio de fact-checking.

"Confesso que nossa primeira reação foi criar um chatbot que fosse mulher", disse Zommer. "Mas depois pensamos que, em vez de empoderar as mulheres, estávamos colocando-as nesse papel de telefonistas, como no tempo das nossas avós".

O Factchequeado busca preencher um vazio de informações em espanhol para comunidades latinas que vivem nos Estados Unidos. Seu chatbot Electobot responde dúvidas sobre o processo eleitoral dos EUA e fornece informações verificadas sobre candidatos e suas declarações.

A decisão final da equipe do Factchequeado foi manter o chatbot com um nome e gênero neutros.

Outras organizações e meios de comunicação da América Latina também fizeram isso, como é o caso da ferramenta Chequabot, do portal Chequeado na Argentina. E, no Chile, do assistente virtual baseado em IA WazNews, que oferece notícias pelo WhatsApp usando tanto uma voz feminina quanto masculina em seus áudios: a dos apresentadores de TV Mónica Pérez e Kike Mujica.

No entanto, há chatbots de meios de comunicação na América Latina que usam nomes tradicionalmente associados a mulheres ou figuras femininas. Por exemplo, Fátima do Aos Fatos no Brasil, a "Tia do WhatsApp", do Efecto Cocuyo, na Venezuela, e Eva, do El Surti, no Paraguai.

Além disso, em outubro de 2023, o meio de jornalismo investigativo brasileiro Agência Pública começou a usar a tecnologia de texto para voz para ler histórias em voz alta para os usuários. A voz escolhida foi a da jornalista Mariana Simões. 

A diretora executiva da Agência Pública, Natalia Viana, disse à LJR que a voz de Simões foi escolhida porque representa a identidade da marca do veículo, que foi criado por mulheres.

De acordo com estudos realizados por Clifford I. Nass, antigo professor de comunicação da Universidade de Stanford, vozes femininas tendem a ser associadas a calor e sinceridade, enquanto vozes masculinas são vistas como autoritárias. 

Por sua vez, vozes masculinas tendem a ser mais persuasivas e a ter maior poder de influência que as femininas. Comunicadores masculinos, segundo o estudo, são considerados mais competentes e ocupam um status social mais elevado.

"Há um viés machista claramente marcado pela grande indústria tecnológica", disse à LJR Sebastián Hacher, designer conversacional e criador do chatbot Eva do El Surti. "Mas estamos tentando romper com esse viés. Em linhas gerais, posso dizer que de 45 projetos em que estou trabalhando, 30 têm identidade não binária".

A equipe do El Surti explicou à LJR que a escolha do gênero de Eva, uma mulher encarcerada por tráfico de drogas no Paraguai, não foi enviesada. "Eva não é uma assistente virtual; Eva apenas conta uma história", disse Hacher.

O Efecto Cocuyo também compartilha dessa visão. Segundo explicaram à LJR, com seu chatbot buscam aproveitar o estigma ou o hábito latino-americano de falar das "tias" que enviam desinformação, stickers e correntes, e transformá-lo em uma "tia bem informada".

"Queríamos reivindicar o papel dessas figuras", disse Luz Mely Reyes, cofundadora do Efecto Cocuyo à LJR.

O que dizem os próprios chatbots?

Quando se pergunta ao bot conversacional Fátima por que tem um nome tradicionalmente feminino, sua resposta é: "A escolha de um nome feminino não tem um motivo específico relacionado a gênero, mas sim a ideia de criar uma identidade amigável e acessível para a ferramenta de checagem de informações”.

chatbot conversation

Fátima é uma ferramenta em português lançada pela primeira vez em 2019 pelo Aos Fatos, veículo investigativo brasileiro especializado em verificação de fatos (Captura de tela)

A ferramenta em português foi lançada pela primeira vez em 2019 pelo Aos Fatos, um meio de notícias de investigação brasileiro focado em verificação de fatos, com o objetivo de combater a desinformação.

Segundo Tai Nalon, diretora e cofundadora do Aos Fatos, o nome do chatbot surgiu da abreviação de Fact-Machine, que se tornou Fact-Ma e depois Fátima. "Foi um jogo de palavras com nossa marca. 'Fátima' e 'Fatos' são palavras semelhantes", disse Nalon.

As duas assistentes virtuais mais famosas, Siri da Apple e Alexa da Amazon, representam mulheres e ajudam em tarefas cotidianas, respondendo a perguntas ou resolvendo problemas, papel historicamente associado ao feminino.

A jornalista especializada em gênero, mídia e justiça social Estefania Reyes disse à LJR que essas escolhas de gênero refletem e reproduzem estereótipos sexistas.

No entanto, Fátima afirma que seu nome não reflete a intenção de perpetuar estereótipos sexistas. "Como inteligência artificial, não tenho gênero e nem opiniões pessoais. Meu objetivo é ajudar a combater a desinformação e oferecer informações precisas”.

Nalon também não concorda com essa hipótese. "Fátima combate a desinformação, incluindo questões relacionadas a gênero, que Aos Fatos cobre constantemente. Não vejo como poderia reforçar estereótipos de gênero, embora eu entenda de onde vem essa hipótese".

Violência de gênero e assédio

“Como assistente virtual, não tenho a capacidade de receber ou processar comentários de qualquer natureza, incluindo comentários sexuais. Estou aqui para ajudar com informações e checagem de fatos”, respondeu Fátima à pergunta sobre se já recebeu assédio sexual de usuários.

Contudo, segundo uma publicação da Unesco de 2019 intitulada "I'd blush if I could" [Eu coraria se pudesse], o assédio a assistentes virtuais não é incomum.

O estudo explica que a Robin Labs, uma empresa que desenvolve assistentes digitais para ajudar motoristas e outros profissionais da logística, descobriu que ao menos 5% das interações eram explicitamente sexuais; e que o número real é muito maior, devido às dificuldades de detectar linguagem sexualmente sugestiva.

Além disso, segundo o estudo, os principais assistentes de voz costumavam responder de forma passiva ao assédio, sem promover ou insistir em uma comunicação saudável, o que "reforça estereótipos sexistas", afirmam os autores.

woman smiling to the camera

Estefania Reyes, jornalista especializada em gênero, mídia e justiça social, disse à LJR que as escolhas de gênero na criação de chatbots são mais uma forma de refletir e reproduzir estereótipos sexistas. (Foto: Reprodução)

A jornalista Estefanía Reyes observou o mesmo padrão em outras ferramentas de IA. 

"Quando recebem mensagens sexualmente inapropriadas, chatbots e ferramentas similares muitas vezes respondem de forma passiva, encorajando ou ignorando o abuso", disse Reyes. "Isso, é claro, ajuda a reproduzir uma cultura que normaliza essas formas de violência e minimiza seu impacto."

Para ajudar a criar mais "tecnologia com igualdade de gênero", o estudo da Unesco, como parte da Coalizão EQUALS Skills, defende uma maior educação e formação em competências digitais para meninas e mulheres.

A Coalizão reconhece que isso não significa necessariamente que haverá mais mulheres em empregos tecnológicos ou que a tecnologia será mais sensível a questões de gênero.

"No entanto, essa ausência de garantia não deve eclipsar as evidências que mostram que equipes tecnológicas com maior igualdade de gênero estão, em geral, melhor posicionadas para criar uma tecnologia mais igualitária", afirmou a Coalizão.

 

Regras para republicação

Artigos Recentes