O impacto da inteligência artificial (IA) no jornalismo já não é colocado em dúvida e, ao contrário, são cada vez mais numerosas as redações e organizações de mídia que adotam iniciativas para utilizá-la e geri-la. Seja no uso da tecnologia para tarefas mecânicas que economizam tempo, seja na busca por mecanismos para identificar desinformação criada com o auxílio da IA, o jornalismo procura não ficar para trás.
A regulamentação da IA, no entanto, ainda é um cenário novo e que não necessariamente recebe a atenção de jornalistas e meios de comunicação, apesar dos impactos que pode ter sobre o exercício da profissão.
Justamente com o objetivo de analisar as possíveis implicações da legislação sobre IA no jornalismo e no setor informativo em geral, o Center for News, Technology and Innovation (CNTI) publicou recentemente o estudo Journalism’s New Frontier: An Analysis of Global AI Policy Proposals and Their Impacts on Journalism (A nova fronteira do jornalismo: uma análise das propostas globais de políticas de IA e seus impactos no jornalismo).
O CNTI revisou 188 estratégias, leis e políticas nacionais e regionais de IA em todo o mundo para analisar como a regulamentação abordava sete componentes que, em sua avaliação, impactam o jornalismo. Temas como liberdade de expressão, conteúdo manipulado ou sintético, discriminação e viés algorítmico, propriedade intelectual e direitos autorais, transparência e prestação de contas, proteção de dados e privacidade, além de informação pública e conscientização, foram o foco do estudo. Além disso, o levantamento também identificou quais dessas leis ou propostas legislativas mencionavam de forma específica o “jornalismo”.
No caso da América Latina e do Caribe — uma das sete regiões analisadas — foram encontradas 80 estratégias, políticas ou leis, das quais cinco mencionavam especificamente o jornalismo ou os jornalistas. Segundo os registros do CNTI, esta é a região que mais faz referência à profissão.
“Nosso objetivo era compreender as possíveis implicações da legislação sobre IA para o jornalismo e o setor informativo em geral. Com esse propósito, mencionar o jornalismo muitas vezes pode ser uma faca de dois gumes”, disse à LatAm Journalism Review (LJR) Jay Barchas-Lichtenstein, gerente sênior de pesquisa do CNTI e responsável pelo capítulo sobre a América Latina e o Caribe. “Isso é positivo porque demonstra certa consciência de que essas políticas provavelmente terão impacto sobre o setor jornalístico. Mas pode ser negativo quando significa que os governos estão definindo o que é e o que não é jornalismo.”
Barchas-Lichtenstein afirmou que trabalhos anteriores do CNTI mostram uma resistência por parte dos jornalistas quando se trata da regulamentação de sua profissão. “De modo geral, os jornalistas não acreditam que seja apropriado que os governos definam os limites, seja do campo, seja de seus profissionais”, disse.
Sobre esse tema e no contexto da América Latina, ainda não está totalmente claro como essas regulamentações irão impactar o jornalismo, uma vez que o número de leis promulgadas ainda é muito baixo, aponta o CNTI. A organização considera positivo o fato de que, na região, o debate sobre o assunto parece ocorrer de forma mais intensa do que em outras regiões e sugere garantir uma linguagem legislativa que não gere “novos riscos para a independência e a diversidade de um ecossistema de informação dinâmico”.
O Equador, segundo o CNTI, possui uma das propostas “mais completas” da região com sua Lei Orgânica para a Regulação e Promoção da IA, de 2024.
O CNTI destaca, por exemplo, o artigo 31, sobre “diversidade e pluralidade em ambientes digitais”, que exige, entre outros pontos, que os sistemas de recomendação de conteúdo baseados em IA facilitem “o acesso equitativo a conteúdos de interesse público provenientes de meios de comunicação locais, comunitários e independentes”. Já o artigo 32 da mesma lei estabelece um “freio à censura e à manipulação algorítmica”, ao exigir maior transparência e a existência de processos de recurso para aqueles que utilizam moderação e curadoria de conteúdo baseadas em IA.
O Brasil possui outra proposta de lei de destaque na região, com o Projeto de Lei nº 2.338, atualmente em discussão na Câmara dos Deputados. De fato, segundo o CNTI, o país tem liderado o debate sobre o tema na região.
O projeto mudou bastante desde que foi apresentado em 2023, disse Barchas-Lichtenstein, o que significa que ele passou por várias etapas de tramitação, isto é, uma série de emendas e modificações. Assim, o texto atualmente em discussão pode apresentar diferenças em relação àquele analisado no relatório.
“Com essa ressalva, tenho o prazer de destacar uma clara virtude que dificilmente mudará: o projeto contém definições claras do que está e do que não está regulado pela lei”, afirmou Barchas-Lichtenstein.
De acordo com a versão mais recente analisada para o relatório do CNTI, o projeto apresenta definições de dezenas de termos, como “sistema de IA”, “sistema de IA de propósito geral”, “IA generativa”, “mineração de textos e dados”, “integridade da informação”, entre outros.
“A especificidade é importante, especialmente porque muitos desses termos não possuem definições consensuais amplamente aceitas”, disse.
Quando o relatório do CNTI foi elaborado, todos os países da região, com exceção da Guatemala, Nicarágua e Belize, contavam com pelo menos um projeto de lei ou iniciativa regulatória que mencionava temas relacionados à IA e ao jornalismo.
Emmanuel Vargas, codiretor da organização El Veinte, que atua pela defesa judicial da liberdade de expressão, disse à LJR que é importante que organizações e meios de comunicação se interessem pelas regulamentações existentes sobre o tema, devido às implicações que elas podem ter.
“O zelo de vários atores em ‘conter’ os riscos da IA pode levar à imposição de normas inúteis ou excessivamente restritivas”, afirmou Vargas, que não participou da pesquisa do CNTI, mas a analisou. “Também existe o risco de que empresas de tecnologia promovam uma narrativa que favoreça regulamentações excessivamente permissivas, centradas na necessidade de proteger a inovação.”
Nesse sentido, disse Vargas, a regulamentação sobre IA deve ser pautada por maior responsabilidade. Um primeiro passo, por exemplo, é identificar quais são os riscos ou problemas que se deseja regular, evitando que o impacto de uma regulamentação seja excessivamente amplo.
“Como a IA acarreta certos riscos de criar ou reforçar vieses discriminatórios, ou de gerar desinformação, é importante que existam regras para qualquer tipo de desenvolvimento e aplicação dessas tecnologias quando seu propósito for integrar processos informativos”, afirmou o advogado. “Isso inclui, por exemplo, a regulamentação dos algoritmos de recomendação e de moderação das plataformas de redes sociais, mas também o uso por empresas jornalísticas.”
Como, no caso do jornalismo, sua regulamentação poderia levar à censura, Vargas sugere três fatores a serem considerados. Primeiro, o uso do direito penal apenas em casos de maior impacto sobre outros direitos, como a produção de pornografia infantil. Segundo, diferenciar os diversos atores que usam a tecnologia e suas responsabilidades. E, terceiro, estabelecer medidas que tornem mais transparente o uso da tecnologia, incluindo a realização de auditorias.
“Quando se trata do uso por parte de uma empresa jornalística, é importante que essas regulamentações incluam salvaguardas que evitem que as obrigações de transparência ou de auditoria levem à revelação de informações protegidas pelo sigilo profissional”, disse Vargas.
Segundo Barchas-Lichtenstein, do CNTI, a instituição não defende nenhum tipo específico de legislação, mas busca oferecer dados e contexto para que as pessoas responsáveis por legislar possam encontrar um marco que permita “fazer as perguntas certas e construir um caminho para as soluções”.
“Nosso objetivo é analisar e conscientizar sobre as desvantagens e as possíveis implicações para o jornalismo e para o espaço informativo, para que legisladores, sociedade civil e outras partes interessadas possam formular melhores perguntas e aprovar políticas que considerem a liberdade de imprensa e os valores democráticos”, afirmou Barchas-Lichtenstein.
O relatório, de fato, termina com uma série de recomendações nas quais detalha “aspectos-chave” aos quais diferentes políticas deveriam prestar atenção. Uma delas é que as políticas que tratam do tema de conteúdo manipulado devem analisar os casos jornalísticos para evitar cair em censura. Por exemplo, situações em que, por meio da IA, se manipula uma imagem ou um áudio para proteger uma fonte.
Outro desses aspectos é que, nos grupos de trabalho sobre IA conduzidos pelos legisladores, sejam incluídos produtores jornalísticos, equipes de produto e engenheiros, junto a especialistas em IA, pesquisadores, sociedade civil e outras partes interessadas relevantes. Para o CNTI, esse ponto é vital quando se legisla “uma tecnologia em constante evolução e com consequências de grande alcance”.
O recente relatório faz parte de uma série mais ampla de pesquisas do CNTI sobre jornalismo e IA. Além da análise de políticas sobre IA, o CNTI elaborou um relatório sobre os usuários habituais de chatbots de IA, investigando seus hábitos e necessidades de informação.
Este artigo foi traduzido com a ajuda de IA e revisado por Ramon Vitral