Dois veículos brasileiros com foco na cobertura de gênero e raça lançaram ferramentas que aliam inteligência artificial, teoria feminista e jornalismo de dados para monitorar o discurso de ódio virtual e projetos de lei sobre direitos de meninas, mulheres e pessoas LGBTQ.
O Radar Antigênero, desenvolvido pela organização de mídia Gênero e Número, é uma plataforma gratuita que permite pesquisar, classificar e analisar vídeos do YouTube que promovem desinformação sobre gênero e discurso de ódio direcionado a mulheres, meninas e pessoas LGBTQ. Com o uso de inteligência artificial, a ferramenta ajuda a visualizar o fluxo e as estratégias de divulgação desse tipo de conteúdo.
Já a QuiterIA, do Instituto AzMina, coleta e classifica, a partir de uma perspectiva feministas, as propostas legislativas que afetam direitos de meninas, mulheres e pessoas LGBTQ apresentadas na Câmara dos Deputados e no Senado.
As ferramentas facilitam a produção de bancos de dados que podem alimentar reportagens e ajudar a monitorar tendências do debate público no ano em que o Brasil volta às urnas para escolher presidente, governadores, senadores e deputados federais e estaduais. A seguir, um olhar mais atento sobre como cada uma funciona.
IA para acompanhar o discurso de ódio
Lançado em setembro de 2025, o Radar Antigênero analisa vídeos que divulgam conteúdo misógino e LGBTfóbico no YouTube. Os dados estão disponíveis em uma plataforma que traz visualizações e também permite a pesquisa por palavras-chave. O projeto é uma parceria da organização de mídia Gênero e Número com o estúdio de análise de dados Novelo Data.
Para desenvolver o Radar, a equipe realizou uma pesquisa a partir de termos que costumam ser usados em discursos de ódio. A primeira coleta captou um grande volume de vídeos, que foram transcritos com Whisper, um conversor de áudio em texto da OpenAI. As transcrições foram organizadas em uma base de dados e classificadas de maneira manual.
A partir desse trabalho inicial, a equipe do projeto avaliou que palavras-chave retornam conteúdos de maior impacto no Youtube, seja pelo alcance ou pelo volume de interações, e selecionou 36 canais que produzem discurso antigênero de maneira sistemática.
O resultado é uma plataforma com interface gráfica e API aberta, que permite que usuários pesquisem vídeos publicados em português e no Brasil, desde 2018 a 2026. Os dados podem ser visualizados e baixados em formato aberto, com informações sobre número de likes e visualizações, data da publicação e canal que divulgou cada vídeo.
A equipe do Radar apresentou a plataforma a um grupo de stakeholders dos campos da tecnologia, da ciência de dados e dos estudos de gênero para ajudar no treinamento da IA, conta Vitória Régia da Silva, diretora executiva da Gênero e Número.
“Isso contribuiu para a formulação e a validação da metodologia, que sempre pode ser ajustada, porque o discurso é vivo”, afirma Silva a LatAm Journalism Review (LJR). “Foi um processo de muita pesquisa e testes.”
A equipe organizou e classificou o conteúdo por eixos temáticos, estratégias discursivas e alvos centrais dos ataques.
De acordo com os dados divulgados pelo Radar, 65% dos vídeos analisados entre janeiro de 2018 e agosto de 2025 promovem papéis tradicionais de gênero, 25% têm mensagens antifeministas e 20% utilizam argumentos moralistas.
“No primeiro momento, pensamos que essa ferramenta não era para todo mundo, mas fomos percebendo que serve de apoio para qualquer pessoa que queira pensar políticas públicas, produzir conhecimento e acompanhar narrativas sobre o assunto”, lembra Silva. “Então pode, sim, ser para todo mundo.”
IA feminista monitora Congresso brasileiro
Treinada para monitorar a atividade parlamentar no Congresso Nacional com foco em direitos de mulheres, meninas e pessoas LGBT+, a QuiterIA foi lançada em novembro de 2025 pelo Instituto AzMina, que nasceu como um veículo de jornalismo feminista e hoje também desenvolve projetos no campo da tecnologia e da análise de dados.
Com nome inspirado por Maria Quitéria de Jesus, heroína da independência brasileira, a inteligência artificial foi treinada com dados coletados desde 2019 para o projeto Elas no Congresso. Os dados são disponibilizados em planilhas de acesso público.
Segundo Ana Carolina Araújo, coordenadora geral da QuiterIA, o treinamento com perspectiva feminista, interseccional e antirracista é fundamental para distinguir a ferramenta de outros modelos.
“A maioria das IAs às que o público tem acesso são treinadas com dados da internet. Então, se vem um conjunto de dados com várias afirmações machistas, por exemplo, a IA tende a repetir esses preconceitos”, aponta Araújo. “Para nós, é muito importante o olhar especializado, que a IA possa repetir o olhar feminista.”
A QuiterIA usa contribuições organizações do campo de direitos humanos e feminismos para a classificação dos projetos de lei como favoráveis ou desfavoráveis e para o retreinamento do modelo. Quando a inteligência artificial contradiz as avaliações feitas por especialistas, Araújo afirma que o que prevalece é o critério humano.
Adriano Belisario, da equipe de desenvolvimento da QuiterIA, defende que o debate sobre inteligência artificial precisa incorporar nuances para avançar.
“Temos um universo amplo de usos, nem todos são relacionados às Big Tech”, aponta em conversa com a LJR. “Existem iniciativas produzindo inteligência artificial em contextos que não são direcionados ao lucro, mas sim à garantia de direitos”
A QuiterIA também foi idealizada a partir do debate que já era desenvolvido por feministas no campo da tecnologia. Araújo ressalta que uma IA feminista não faz extrativismo de dados e trabalha com modelos menores, que têm menos impactos ambientais e podem ser rodados em computadores pessoais.
“Nossa ideia para o uso de uma IA feminista não é só evitar danos. Queremos deliberadamente gerar acesso a direitos, gerar regeneração, ver a transformação”, aponta Araújo.