Associações de mídia das Américas alertam que meios jornalísticos não devem repetir com a inteligência artificial (IA) generativa os mesmos erros cometidos com o advento da internet há quase três décadas, quando se permitiu que o conteúdo informativo fosse disponibilizado gratuitamente em sites na crença de que o modelo de negócios de publicidade funcionaria na web como funcionava na imprensa escrita, no rádio e na televisão.
Portanto, as associações acreditam que os meios jornalísticos devem implementar um esforço coletivo em nível global para não permitir que empresas desenvolvedoras de plataformas como o ChatGPT imponham seus termos de uso em detrimento da credibilidade e da sustentabilidade do jornalismo e do direito dos usuários a informações de qualidade.
Essa é a opinião dos representantes da Sociedade Interamericana de Imprensa (SIP), da Associação de Meios de Informação (AMI) da Colômbia e da Associação Nacional de Jornais (ANJ) do Brasil. Essas são três das mais de 25 associações de meios de comunicação de todo o mundo que assinaram os Princípios Globais para a Inteligência Artificial, um documento que busca orientar o desenvolvimento e a implementação dessa nova tecnologia de forma regulamentada e dentro de uma estrutura ética e responsável para os meios de notícias.
"Acreditamos que a IA generativa é algo que deve ser desenvolvido para o benefício da humanidade e da civilização", disse Marcelo Rech, presidente-executivo da ANJ, à LatAm Journalism Review (LJR). "Portanto, entendemos que, para não cometermos os mesmos erros que aconteceram com os primórdios da internet, precisamos ter uma regulamentação que estabeleça critérios éticos para que esse desenvolvimento seja feito de forma a beneficiar a sociedade".
Dado o rápido crescimento das plataformas de IA generativas, as associações reconhecem que é necessário um esforço global para oferecer um contrapeso significativo ao poder das empresas de desenvolvimento. A Associação Mundial de Editores de Notícias (WAN-IFRA) foi a responsável por reunir associações que englobam meios de todo o mundo para redigir os Princípios.
O documento, publicado em agosto deste ano, abrange questões relacionadas a propriedade intelectual, transparência, responsabilidade, integridade, segurança e desenvolvimento sustentável em relação à IA generativa e ao jornalismo.
A Asociación de Entidades Jornalísticas Argentinas (ADEPA) e o Grupo de Diarios América (GDA) são as outras associações do continente que assinaram os Princípios.
Em face das múltiplas crises de desinformação que afetaram a maioria dos países do continente, a transparência das plataformas de IA generativa e a proteção da credibilidade do jornalismo são questões fundamentais para as três associações mencionadas acima.
As plataformas baseadas na tecnologia denominada Generative Pre-trained Transformer (transformador generativo pré-treinado), como ChatGPT, Google Bard ou Claude, foram projetadas para gerar respostas de texto coerentes e semelhantes às humanas em forma conversacional. No entanto, essas plataformas são treinadas com informações de todos os tipos de fontes da internet e suas respostas são baseadas em padrões de linguagem, não em fatos verificados. Como resultado, as informações fornecidas geralmente incluem imprecisões e deturpações.
"As informações que foram deturpadas, que foram mal atribuídas, podem gerar confusão e aumentar o risco de desinformação", disse Carlos Jornet, presidente do Comitê de Liberdade de Imprensa e Informação da SIP, à LJR. “A desinformação já é um problema crescente que está começando a ter um impacto sobre as instituições democráticas, sobre a possibilidade de os cidadãos serem informados com padrões de qualidade. Se isso for aprimorado por um robô que gera conteúdo em um ritmo cada vez maior, pode ter um impacto enorme.”
Os Princípios Globais para a Inteligência Artificial afirmam que deve haver transparência nas fontes de informação que as plataformas de IA generativa usam para criar conteúdo, incluindo mecanismos de claros e adequados de prestação de contas.
O documento também afirma que os desenvolvedores de IA devem trabalhar com os editores para desenvolver padrões e formatos de atribuição que sejam mutuamente benéficos, bem como fornecer informações compreensíveis sobre como esses sistemas funcionam, para que os usuários possam fazer julgamentos sobre a qualidade e a confiabilidade das informações geradas.
"É preciso haver transparência nos sistemas de IA, não apenas [dizendo] de onde eles tiraram as coisas, mas que fizeram bem a lição de casa", disse Werner Zitzmann, diretor-executivo da AMI, à LJR. “É muito importante que eles sejam responsáveis, que não estejam se escondendo atrás do 'algoritmo', uma espécie de coisa mágica e abstrata. [...] O mais importante é que todos os resultados sejam voltados para garantir a credibilidade do conteúdo e tudo isso com base no fato de que, se os meios de comunicação somos uma fonte, então sejamos confiáveis para o destinatário.”
O respeito à propriedade intelectual do conteúdo jornalístico é outro eixo fundamental dos Princípios, de acordo com as associações de mídia. O documento afirma que os desenvolvedores de IA devem respeitar os direitos de propriedade intelectual daqueles que geram conteúdo original e que os editores têm o direito de negociar e receber uma remuneração justa pelo uso de seu conteúdo em plataformas generativas.
"Acreditamos que há um uso [de conteúdo] que não respeita os direitos de propriedade intelectual dos meios de comunicação", disse Jornet. “Isso acaba afetando o jornalismo, acaba gerando conteúdo que certamente pode levar o público a esse conteúdo que foi gerado com uma alta alocação de recursos, tanto humanos quanto econômicos, e depois há alguém que se aproveita disso para gerar receita.”
Um estudo do The Washington Post e do Allen Institute for AI publicado este ano constatou que meios digitais ocupam o terceiro lugar entre as fontes de informação nas quais os sistemas de IA generativa são treinados. Pelo menos metade dos dez principais sites dessa categoria eram de meios de notícias.
Em 31 de outubro, a News/Media Alliance dos Estados Unidos divulgou uma pesquisa mostrando que os desenvolvedores de IA não apenas usam conteúdo não autorizado dos meios de notícias membros da associação para treinar seus sistemas, mas também o utilizam de forma generalizada e em maior escala do que outras fontes.
A pesquisa também indicou que a maioria dos desenvolvedores não obtém as licenças necessárias para o uso de tal conteúdo e não oferece nenhuma compensação aos meios de notícias.
"Defendemos com veemência que o conteúdo tem uma propriedade. Ele tem uma certificação de origem porque foi feitos por um jornalista, por um meio de comunicação", disse Rech. “Não há sequer um crédito para a origem da fonte, muito menos remuneração, não houve acordo. Acreditamos que a regulamentação deve ter um acordo prévio para a liberação do conteúdo e que o conteúdo que é usado sem autorização deve ser remunerado.”
Rech alertou sobre o crescente surgimento de sites que pegam conteúdo de notícias de meios de comunicação sérios, reescrevem-no por meio de plataformas como o ChatGPT e o "reempacotam" para apresentá-lo como novo, sem dar nenhum crédito ao autor original.
Somente em agosto deste ano, a organização antidesinformação NewsGuard identificou 37 sites que usavam chatbots para reescrever artigos de notícias de meios como CNN, The New York Times e Reuters. Alguns desses sites aparentemente eram gerados automaticamente, sem nenhuma intervenção humana.
Além de exigir que o direito dos meios de notícias de serem pagos por seu conteúdo seja aplicado, por meio dos Princípios, as associações favorecem um modelo em que os jornalistas façam parte da conversa e da construção de um ambiente de informação de qualidade em plataformas de IA.
"Por um lado, queremos que eles reconheçam o valor [do trabalho jornalístico], mas, por outro lado, queremos saber qual é o propósito. Queremos estabelecer regras que não sejam apenas para fins de pagamento, mas realmente [para saber] o que eles farão com esse material", disse Zitzmann. "Isso precisa ser um processo de construção e não apenas uma coisa utilitarista em que eles dizem 'preciso desses insumos e vou fazer disso um negócio'."
Zitzmann, Rech e Jornet concordam que não será fácil fazer com que as grandes empresas de tecnologia adiram aos princípios propostos pelas associações de mídia. No entanto, eles acreditam que a declaração desses princípios é um primeiro passo para aumentar a conscientização sobre a questão, bem como um apelo para que outras partes interessadas, como o setor de tecnologia, o meio acadêmico e os órgãos reguladores, se unam para fazer frente às plataformas de IA.
"Ter um grupo pesado e robusto de meios de comunicação do mundo todo dizendo 'concordamos com isso' foi a melhor maneira de agir com eficiência para gerar consequências o mais rápido possível", disse Zitzmann. "Essa é uma questão de pesos. Queremos fazer um contrapeso a isso. É por isso que é tão importante que o peso do coletivo contrabalanceie o poder de um produto que tem capital investido irrestritamente em projetos que têm o potencial de fazer o bem em algumas coisas, mas também de fazer o mal em outras", disse Zitzmann.
A próxima etapa, disse Zitzmann, é que cada associação de mídia que assinou os Princípios transmita aos seus afiliados a importância de adotar os Princípios em suas próprias organizações. Jornet disse que as discussões devem continuar a ser realizadas para encontrar o melhor caminho a seguir.
Por sua vez, Rech disse que a ANJ começou a comunicar os Princípios e sua importância em uma série de conversas com seus meios afiliados. Ele também disse que participou de fóruns no Congresso Nacional e perante autoridades brasileiras sobre a regulamentação de tal tecnologia.
"Como qualquer ferramenta, um martelo, por exemplo, pode ser usado para construir a casa mais bonita ou para bater na cabeça de alguém", disse Jornet. "Fazer uma educação, uma formação cultural para que as pessoas saibam como se comunicar com as plataformas de IA e como usá-las corretamente, ver como há autorregulação por parte das plataformas para evitar que sejam mal utilizadas, esse é o caminho a seguir para mim."
Nos primórdios da internet, mecanismos de busca como o Google ou o Yahoo! forneciam acesso gratuito ao conteúdo jornalístico dos meios tradicionais que estavam começando a fazer incursões em plataformas digitais. Isso acostumou os leitores à gratuidade do conteúdo noticioso, o que acabou levando a uma crise no modelo de negócios dos meios de notícias.
"Aprender com o que aconteceu com o algoritmo do mecanismo de busca nos ensinou exatamente isso, que quando você tem tudo aberto, você gera uma cultura de gratuidade", disse Zitzmann. “Se você não estava no mecanismo de busca, você não existia. E posicionar um site de forma que as pessoas fossem até ele sem saber que ele existia custava enormes fortunas em publicidade.”
A possibilidade de algo semelhante acontecer com as plataformas de IA generativa, juntamente com a ameaça de desinformação e perda de credibilidade do jornalismo, levou alguns meios de comunicação a optar por bloquear seu conteúdo nessas plataformas.
Em agosto deste ano, o The New York Times bloqueou o rastreador da web da OpenAI, desenvolvedora do ChatGPT, para que a empresa não pudesse mais acessar o conteúdo do jornal para treinar seu modelo de IA. Além disso, o NYT atualizou seus termos de serviço para proibir a raspagem de seus artigos e imagens para o treinamento de plataformas de IA generativas. O jornal novaiorquino foi seguido pelo The Washington Post, Reuters, CNN e ABC News, entre outros, com medidas semelhantes.
Na América Latina, há uma discussão entre as associações de mídia sobre se bloquear sistemas como o ChatGPT é a melhor opção para proteger seu conteúdo. Embora tenham opiniões diferentes sobre o assunto, a SIP, a ANJ e a AMI concordam que medidas drásticas devem ser tomadas para evitar que o conteúdo jornalístico seja usado gratuitamente por plataformas de IA generativas.
"O algoritmo de IA é capaz de produzir uma monografia sobre um tema em um segundo porque obteve informações de fontes. Quando uma ou muitas dessas fontes são meios jornalísticos, que vão desde meios de notícia até meios especializados, e tudo isso é gratuito, ele vai pegar e aprender de graça. É como ir para a faculdade sem pagar a mensalidade", disse Zitzmann.
Para Rech, a remuneração pela atividade jornalística deve ir além do simples pagamento pelo uso do conteúdo. O presidente-executivo da ANJ acredita que as atividades das plataformas digitais, incluindo IA e redes sociais, têm como efeito colateral uma contaminação do ecossistema de informações, que inclui fenômenos como desinformação e discurso de ódio.
Essa contaminação, segundo ele, foi testada em países como o Brasil, com a influência do WhatsApp na eleição de Jair Bolsonaro; nos Estados Unidos, com a desinformação gerada durante o governo de Donald Trump; e nas Filipinas, com os exércitos de bots que manipularam informações a favor do presidente Rodrigo Duterte.
O jornalismo tem a capacidade profissional e técnica de "limpar" essa poluição, com verificação de conteúdo e informações de qualidade, e os responsáveis por essa poluição são os que devem pagar pelo menos parte dessa limpeza, disse Rech.
"Defendo que as plataformas tenham que pagar uma taxa, uma porcentagem sobre seus lucros, e que isso seja repassado a quem faz a 'limpeza' dessa poluição", disse ele. “É como uma indústria que produz, por exemplo, sapatos, e parte de seus resíduos vai para um rio. Você tem que pagar pela limpeza desse rio.”
Para Rech, essa seria a maneira mais segura e sustentável, não apenas para financiar o jornalismo, mas para fazer com que a informação de qualidade prevaleça sobre a desinformação.
"Se o crescimento global ameaça a saúde física do planeta, a desinformação ameaça a saúde mental", disse ele. “Quem faz a ameaça, quem faz fortuna, bilhões de dólares com isso, tem que pagar uma parte da limpeza dessa poluição.”
Banner: Ilustração criada por inteligência artificial com o Magic Media do Canva