Como aconteceu antes com o surgimento de outros avanços tecnológicos, o advento de ferramentas de inteligência artificial (IA) generativas, como o ChatGPT, gerou grande expectativa e uma série de informações falsas ou exageradas.
Para os jornalistas, este é o momento de experimentar com esses modelos, de conhecê-los e aprender a aproveitá-los ao máximo, em vez de bani-los ou temê-los, disseram os palestrantes do webinário “IA Generativa: O que os jornalistas precisam saber sobre ChatGPT e outras ferramentas”, realizadoo virtualmente no dia 17 de agosto, organizada pelo Centro Knight para o Jornalismo nas Américas.
O webinário, que pode ser visto novamente no canal do Centro Knight no YouTube no original em inglês ou na tradução simultânea em português, contou com a participação de Aimee Rinehart, gerente de produto de estratégia de IA para da iniciativa Local News AI de Associated Press, e de Sil Hamilton, engenheiro de aprendizado de máquina e pesquisador de IA residente na organização de notícias Hacks/Hackers, com moderação de Marc Lavallee, diretor de produtos de tecnologia e estratégia para jornalismo da Fundação Knight.
Levando em consideração a confusão e a incerteza que o ChatGPT causou na indústria do jornalismo, é importante aprender a diferenciar entre aquilo que as empresas de tecnologia dizem que a IA generativa é capaz de fazer e aquilo que ela realmente é capaz de realizar. E a melhor maneira de os jornalistas entenderem as capacidades e limitações dessa tecnologia é experimentando-a em eles mesmos e familiarizando-se com seus conceitos, técnicas e processos. Ou seja, iniciarem um processo de alfabetização em inteligência artificial em primeira mão.
“As grandes empresas de tecnologia vieram e nos contaram como a internet iria funcionar. E nós acatamos todas as regras que eles estabeleceram. É a mesma coisa agora: se não nos envolvermos nisso, se não experimentarmos, eles vão escrever as regras”, disse Rinehart. “Acho que este é o momento para os jornalistas se envolverem, experimentarem, descobrirem onde estão suas fraquezas e pontos fortes, e então aprenderem com isso e criarem padrões em torno disso, porque agora estamos apenas dizendo 'simplesmente não use isso ', e essa não é uma boa postura a se tomar".
Lavallee indicou uma pesquisa divulgada em maio deste ano pela Associação Mundial de Jornais e Editores de Notícias (WAN-IFRA, na sigla em inglês), que descobriu que quase metade das redações pesquisadas disseram que estavam usando ferramentas de IA generativas e a maioria tinha perspectivas positivas sobre elas. No entanto, apenas 20% dessas redações já haviam elaborado diretrizes e políticas de boas práticas em torno de seu uso.
“Estamos apenas começando a entender como elas funcionam. E grande parte desse processo consiste em experimentação, fazer perguntas básicas e definitivamente lembrar que não sabemos realmente como elas funcionam”, disse Hamilton. “Mas sabemos para o que elas foram treinadas e, especialmente no que se refere a jornalistas e organizações de notícias, é realmente importante que não apenas desenvolvam políticas para trabalhar com IA, mas também para controlar seus próprios dados”.
Rinehart enfatizou que as melhores oportunidades com ferramentas de IA generativa são para as mídias locais, já que, por um lado, são as que têm maiores carências e lacunas em suas capacidades técnicas e humanas, e, por outro, por serem organizações pequenas, têm maior margem de erro e espaço para corrigirem falhas rapidamente, em comparação com as grandes mídias.
“Acho que esse é o momento desses veículos. [...] Eles simplesmente precisam de mais ajuda com sua cobertura. Eles costumam ter uma área geográfica maior, porque muitos outros veículos fecharam e muitas vezes não têm tantas pessoas na redação”, disse Rinehart. “Portanto, precisam fazer mais com menos recursos. E, para mim, é aí que a IA pode realmente entrar e ocupar essa lacuna""
O jornalista disse que a AP começou a mexer com inteligência artificial em 2014, ao automatizar reportagens com base em relatórios financeiros da empresa. A agência antes analisava 300 relatórios manualmente, e graças à IA aumentou para 3 mil, o que permitiu que concentrasse recursos e esforços em projetos jornalísticos de maior impacto.
Rinehart disse que, assim como a AP fez com a análise de relatórios financeiros, os meios de comunicação que desejam se envolver com inteligência artificial devem começar identificando tarefas repetitivas em seus processos editoriais e de negócios. Eles também devem ouvir os membros da equipe e identificar as tarefas em que se sentem mais pressionados ou sem capacidade de dar vazão. A partir daí, eles podem analisar se precisam de uma ferramenta automatizada.
Estas recomendações vieram de um marco para a integração da inteligência artificial em redações derivado de uma pesquisa da AP de 2021 com mais de 200 veículos de notícias nos Estados Unidos, que, disse Rinehart, logo estará disponível para consulta.
“Acho que [o marco de integração] é realmente útil e pode reduzir um pouco da pressão de 'Ah, não, precisamos de IA agora!', porque talvez você só precise de um fluxo de trabalho diferente. Ou talvez você só precise de automação de processos simples para melhorar as coisas”, disse ele.
Em termos de ferramentas de IA geradoras de texto, o jornalista também sugeriu não se limitar ao ChatGPT, mas tentar outras plataformas disponíveis, como o Claude, desenvolvido pela Anthropic, startup de tecnologia fundada por ex-funcionários da OpenAI; assim como o Bard, desenvolvido pelo Google. O ideal, disse Rinehart, é testar as diferentes plataformas e determinar qual delas funciona melhor para cada tarefa e meio de comunicação.
O ChatGPT é um modelo de inteligência artificial baseado na tecnologia chamada Generative Pre-trained Transformer (Transformador Pré-Treinado Generativo), projetado para gerar respostas de texto consistentes e humanas de maneira conversacional. Foi desenvolvido pelo laboratório americano de pesquisa em inteligência artificial OpenAI.
O primeiro modelo de linguagem pré-treinado da OpenAI, chamado só GPT, foi lançado em 2018. O ChatGPT atualmente funciona com o GPT-4 (o sistema mais avançado até agora) em sua versão paga, e com o GPT-3.5 em sua versão gratuita.
Sistemas como o ChatGPT foram treinados com grandes quantidades de dados da internet. No entanto, uma das principais críticas a esses sistemas é a precisão e a credibilidade de suas fontes, já que suas respostas são baseadas em padrões, não em fatos, explicou Hamilton. É por isso que não é recomendado que os jornalistas usem essas ferramentas para gerar conteúdo.
"A boa regra é que esses modelos são muito bons em forma, não em conteúdo", disse Hamilton. “Ele é excelente na forma, mas quando você pede para ele escrever do zero, ele falha em quase tudo, e isso em uma ampla gama de áreas. [...] Ele não é bom em escrever do zero. Portanto, se você quiser trabalhar com o modelo, certifique-se sempre de dar a ele algo para trabalhar".
É aí que o jornalismo tem uma grande oportunidade, segundo o pesquisador, já que os meios de comunicação geram conteúdo de alta qualidade, e essa pode ser a matéria-prima a a partir a qual a IA generativa pode ser aproveitada. O Claude e o Bard podem ler arquivos de diferentes tipos, como PDFs, imagens e vídeos. A partir deles, os repórteres podem solicitar ações específicas, como resumir, reescrever, traduzir ou fazer perguntas específicas sobre o conteúdo.
“Sabemos que a inteligência artificial funciona melhor quando fornecemos informações de alta qualidade. E na internet, os meios de comunicação geralmente produzem informações da mais alta qualidade que podem ser obtidas”, disse Hamilton. “Assim, o modelo, em vez de confiar em sua própria base de conhecimento, analisará o conteúdo que fornecemos na pergunta. E isso se chama 'aprendizagem contextual'”, acrescentou mais tarde.
Rinehart explicou que sistemas como o ChatGPT funcionam a partir de duas bases: a base de linguagem e a base de conhecimento. Para os jornalistas, o painelista recomendou partir do idioma base, já que o nível de conhecimento utilizado por esses modelos ainda é incerto na maioria dos casos.
O jornalista também enfatizou que, ao contrário de outros desenvolvimentos tecnológicos criados em inglês, os modelos generativos de IA têm um bom desempenho em outros idiomas.
“Uma maneira mais segura de uma pequena redação experimentar isso é pegar uma matéria que escreveu e pedir [à IA] para escrever três manchetes”, disse Rinehart. “Peça a ela para fazer um tópico no Twitter, ou uma postagem no Facebook, ou um resumo, dependendo de onde e como você precise usar. Eu acho que é uma maneira muito boa de usar".
Devido à incerteza da base de conhecimento a partir da qual trabalha, o ChatGPT e seus similares são propensos a "alucinações". Ou seja, respostas que parecem lógicas, mas podem ser imprecisas ou incorretas. Isso ocorre porque, explicou Hamilton, os modelos GPT entendem o significado das palavras e como elas se relacionam entre si. No entanto, eles desenvolvem essa compreensão das palavras sem nunca terem "visto" o que as palavras representam.
Daí a importância de fornecer modelos com informações de qualidade sobre as quais trabalhar.
“As alucinações ocorrem quando o modelo estende esse conhecimento um pouco além do que realmente sabe fundamentalmente, quando tenta conspirar”, disse Hamilton. "Há uma tendência crescente de chamar as alucinações de fabulações, porque é quando o GPT tenta preencher as lacunas em seu conhecimento, e não entende bem que algo está relacionado de uma maneira a outra coisa, e tenta inventar uma maneira pela qual ambas as coisas podem estar relacionadas”.
As alucinações são uma consequência natural da arquitetura dos modelos GPT, explicou Hamilton, e é por isso que os jornalistas devem sempre pegar as informações dos programas como pegariam informações de qualquer outra fonte e verificá-las, mesmo quando essas informações pareçam fazer sentido.
Entre as perguntas mais recorrentes na audiência do webinário estavam aquelas relacionadas ao risco de jornalistas perderem seus empregos devido ao crescimento de tecnologias generativas de IA. Os palestrantes concordaram que, em vez de ter medo, os profissionais da informação devem realmente entender como essa tecnologia funciona e se adaptar à nova realidade que ela traz.
“A maneira como consegui permanecer neste setor por tanto tempo é porque consegui me adaptar rapidamente ou, pelo menos, me interessar pelo que está por vir”, disse Rinehart. “Acho que se você trabalha em redações e quer continuar trabalhando lá daqui a cinco anos, deveria considerar seriamente essa questão. Não é uma moda passageira, não vai desaparecer, e quanto mais familiarizados estivermos com esse assunto, melhor será nossa capacidade de reportagem e melhor entenderemos para onde as notícias estão indo".
Essa tecnologia emergente traz consigo a oportunidade de revolucionar o formato em que as notícias são entregues ao público, assim como outros avanços tecnológicos, como o telégrafo fizeram em seu tempo, disse Rinehart. No século XIX, o telégrafo impulsionou o surgimento do formato de pirâmide invertida nos briefings, que a AP padronizou em seu manual de estilo em 1953.
Da mesma forma, o ChatGPT está criando uma nova maneira para o público obter respostas para suas perguntas online, disse Rinehart. Não mais com links que levam a outros sites, mas com textos que respondem diretamente ao que o usuário precisa. Esta é uma oportunidade para as redações encontrarem maneiras de satisfazer essa nova preferência do público, integrando modelos generativos de IA em seus processos de engajamento do leitor.
“Aprendemos muito com esse modelo de perguntas e respostas que o ChatGPT apresentou ao público. E é assim que as pessoas gostam de informações entregues a elas, não querem links. É claro que eles querem um parágrafo que explique tudo. As redações podem aprender com isso e integrar isso em suas ofertas?” perguntou Rinehart.
O jornalista disse que as tendências de emprego na indústria do jornalismo serão direcionadas principalmente para uma maior demanda por cargos relacionados a SEO (posicionamento em mecanismos de busca) e trabalhos de edição e revisão.
De sua parte, Hamilton acrescentou que a capacidade até então limitada de gerar texto a partir do zero de modelos generativos de IA economiza o trabalho de repórteres e escritores. Mas esses modelos acabarão sendo integrados em uma dinâmica de cooperação com jornalistas.
“O desenvolvimento desses modelos, conforme a trajetória atual, visa simplesmente colaborar conosco, não automatizar totalmente os trabalhos”, disse ele. “É muito importante estar ciente do problema, como diz Aimee, [...] realmente usar essas ferramentas no dia a dia e descobrir onde elas se encaixam em nosso próprio fluxo de trabalho, porque vai ser diferente para todos."
Na IA generativa, o comando, chamado de prompt em inglês, é a indicação dada aos modelos para gerar o conteúdo ou a resposta desejada. Quanto mais clara e estruturada for o comando, mais precisa será a resposta da plataforma. De acordo com os painelistas, os comandos são uma maneira que os usuários podem orientar modelos como ChatGPT para obter material útil.
Oao processo de concepção de comandos eficazes para obter respostas relevantes é conhecido como engenharia de prompts ou engenharia de comandos. Os jornalistas que desejam tirar o máximo proveito da IA generativa devem se tornar bons engenheiros de comandos, de acordo com os palestrantes. Quanto mais contexto e indicações incluir o comando ou prompt, melhor o resultado.
“Todos nós podemos nos tornar melhores engenheiros de prompts, no sentido de fazer perguntas mais detalhadas”, disse Rinehart. “Eu estava conversando com alguém que entrevistou muitos profissionais de marketing e ele disse que eles são melhores em projetar comandos do que jornalistas. Um comando de três palavras não vai te levar muito longe; comece [contando ao modelo] algo como 'imagine que você é um professor universitário dando esse dever de casa para um aluno do segundo ano', algo assim. Esses detalhes podem aproximá-lo dos resultados desejados”.
Desenvolver comandos eficazes para fins individuais de redação pode levar muito tempo, porque é um exercício de tentativa e erro e requer uma certa dose de intuição e conhecer melhor o modelo, disse Hamilton. Os usuários devem estar cientes de que os modelos GPT não são capazes de entender completamente o que está sendo indicado a eles. Daí a importância de criar comandos com informações e contexto suficientes.
“Às vezes você tem que ser como um 'encantador de IA', e isso é bom e ruim ao mesmo tempo. Pelo lado positivo, ele mantém a promessa da engenharia, de que pode ser determinístico, seguro e confiável", disse ele. “Mas esses também são modelos que não entendemos completamente. A engenharia de comandos é um pouco de tentativa e erro, no sentido de que você não pode criar um resultado perfeito todas as vezes. Depende muito da intuição. Você tem que trabalhar muito com o modelo para começar a ter uma ideia de como ele pensa".
Hamilton e Reinhart concordaram com a necessidade de ter cuidado para não compartilhar informações sensíveis ou confidenciais em seus comandos. Apesar de a OpenAI ter implementado neste ano a política de não utilização de informação que os utilizadores fornecem para treinar o modelo ChatGPT, ainda é incerto quantos dados permanecem nas nuvens dessas plataformas.
“Muitas dessas ferramentas pegam, coletam e usam tudo o que você coloca nelas. Então, se você está trabalhando em uma história grande e suculenta, eu evitaria fornecer qualquer informação para essas nuvens”, disse Rinehart.
Para os jornalistas que desejam se aprofundar no uso dessa nova tecnologia, o Centro Knight oferecerá o curso online gratuito “Como usar o ChatGPT e outras ferramentas generativas de IA em sua redação”, de 25 de setembro a 22 de outubro de 2023, anunciou Rosental Alves, diretor do Centro Knight, ao final do webinário.
Banner: Imagem criada com inteligência artificial através do Microsoft Bing