Enquanto a verificadora de fatos Talita Burbulhan realizava suas tarefas diárias, ela viu um vídeo no TikTok em que um âncora de TV afirmava que o Brasil estava em alerta devido a um novo vírus que atingiu o país na véspera da semana do Carnaval. O âncora disse que o vírus era mais agressivo que a COVID-19.
O vídeo então cortou para uma transmissão normal de notícias. Abaixo dele, o texto dizia: “O vírus já está no Brasil”. Parecia legítimo, mas, como Burbulhan descobriu, alguém havia usado ferramentas de inteligência artificial (IA) para criar desinformação, juntando um âncora de TV falso com uma transmissão real.
“Quando pesquisei a transmissão da empresa de mídia, não havia nenhuma informação de que isso já estivesse no Brasil”, disse Burbulhan, verificador de fatos do Estadão Verifica, à LatAm Journalism Review (LJR). “A notícia real dizia que não havia casos no Brasil e que a probabilidade de propagação era baixa. Mas a postagem não mostrava isso, apenas a parte em que as pessoas compartilhavam suas preocupações.”
Essas criações híbridas – parte falsas, parte reais – são preocupantes porque as ferramentas estão ficando cada vez melhores na criação de conteúdo realista.
Estudos recentes da Universidade de Oslo e da Universidade de Indiana mostram que o conteúdo de IA pode ser perigoso para o conhecimento público e o discurso político. E no Brasil, um novo relatório do Observatório Lupa constata que a disseminação de conteúdo falso criado com inteligência artificial triplicou desde 2024 – um aumento impressionante de 308%.
O relatório, intitulado “Visão geral da desinformação no Brasil”, publicado no início de fevereiro, afirma que esse será um dos principais desafios que a mídia enfrentará antes das eleições gerais de outubro no Brasil.
Beatriz Farrugia, uma das principais autoras do relatório, disse à LJR que, em 2024, o conteúdo de IA era usado principalmente para espalhar desinformação por meio de golpes e fraudes. Em 2025, disse ela, a maior parte foi usada na política nacional.
“Houve uma diversificação do conteúdo de IA, abrangendo política, assuntos internacionais, entretenimento e até mesmo o meio ambiente”, disse Farrugia. “Um exemplo foi uma imagem gerada por IA de uma falsa aurora boreal no Rio de Janeiro.”
De acordo com Farrugia, esses vídeos combinam imagens e mensagens escritas em fontes chamativas. Pesquisadores estão ansiosos para apontar a facilidade com que tais fabricações são feitas.
“Hoje, qualquer pessoa pode gerar texto, imagens, áudio ou vídeo em segundos usando recursos já incorporados em plataformas como mecanismos de busca, redes sociais, aplicativos móveis e assistentes conversacionais”, disse Fernando Ferreira, pesquisador do Netlab da Universidade Federal do Rio de Janeiro, ao LJR. “Conhecimento técnico e infraestrutura não são mais necessários: a barreira de entrada caiu drasticamente, inclusive para a produção de conteúdo enganoso ou manipulado.”
E embora os criadores de conteúdo de IA criem principalmente vídeos para mídias sociais, eles também criam conteúdo para simular conversas usando texto e vídeo gerados por IA, além de vídeos falsos de selfies atribuindo declarações a um político ou personalidade, disse Cauê Muraro, editor executivo do Fato ou Fake do G1, ao LJR.
“Isso cria um cenário suficientemente realista, dificultando que as ferramentas de detecção identifiquem o uso da IA”, disse Muraro.
Mas, embora algumas organizações de notícias tenham equipes dedicadas à verificação de fatos, Natália Leal, chefe da Agência Lupa, disse que nenhum repórter pode descartar a possibilidade de que qualquer imagem – por mais realista que pareça – possa ter sido gerada com IA.
“Estamos vivendo em uma época em que precisamos considerar todas as questões relacionadas à geração de imagens por IA e à geração de conteúdo por IA”, disse Leal ao LJR.
O uso de desinformação nas campanhas nacionais e regionais do Brasil, que começam oficialmente em agosto, preocupa não apenas jornalistas, mas também outros setores. O Tribunal Superior Eleitoral já compartilha suas preocupações e avalia uma multa de 30.000 reais (cerca de US$ 5.700) pelo uso de IA na criação de notícias falsas.
Farrugia, no entanto, disse que quaisquer medidas para combater a desinformação e a informação errada por meio de comunicações oficiais ou educacionais devem reconhecer que simplesmente emitir uma longa negação provavelmente não funcionará.
“Ela não se tornará viral na mesma medida que a narrativa falsa original”, disse ela, ressaltando um dilema enfrentado tanto pelas redações quanto pelas autoridades: em um ecossistema de informação superalimentado pela IA, a velocidade e a emoção muitas vezes superam a correção.