Por Luciana Gurgel
O Oxford Internet Institute (OII), centro de pesquisas dedicado a estudar a influência da tecnologia na sociedade, publicou há duas semanas um relatório sobre inteligência artificial generativa, jornalismo e o futuro da democracia. O documento consolida os debates de um simpósio promovido pelo instituto em junho, reunindo acadêmicos do próprio OII, de outras instituições e jornalistas.
Parte do que foi discutido não é novidade: a IA já estava no jornalismo há algum tempo, ainda que nem todos percebessem isso; o problema de direitos autorais é um risco para quem produz conteúdo; e os textos ou imagens produzidos pelos robôs não são confiáveis.
Saindo do óbvio, há reflexões interessantes − e preocupantes − levantadas pelos participantes do encontro sobre o uso da IA na mídia e seu efeito sobre a democracia por meio do jornalismo e da mídia de forma mais ampla, incluindo as sociais.
Uma delas é a personalização, que permite adaptar linguagem ou estilo na apresentação de informações para públicos de diferentes idades ou origens. Hanna Kirk, do OII, se disse “empolgada e assustada” com esse recurso.
Ela teme que os LLMs (Large Language Models) sejam usados para treinar modelos de linguagem radicais, que assumam narrativas anti-woke. Woke é o termo em inglês para depreciar o chamado comportamento politicamente correto, traduzindo-se em oposição à inclusão, à diversidade e à proteção do meio ambiente.
A pesquisadora apontou ainda o risco de a personalização tornar ainda mais difícil que as pessoas sejam expostas a pontos de vista diferentes dos seus, aprofundando o problema das bolhas de filtro das redes sociais.
Embora Kirk seja favorável a algum tipo de personalização, “dentro dos limites” − sejam eles quais forem ou quem os determine −, ela admite que é quase inevitável haver algum “esgarçamento ideológico”.
Outro risco debatido foi a falta de diversidade e de um processo democrático no treinamento dos LLMs, o que explica os preconceitos e a chamada hegemonia cultural do conteúdo gerado pelas IAs.
Hanna Kirk explicou que, apesar de revisores humanos darem feedback para melhorar a qualidade das respostas (o chamado Feedback Learning ou RLHF, de reinforcement learning from human feedback), os dados coletados são geralmente de um número pequeno de pessoas. E “sob as especificações dos tecnocratas do Vale do Silício”. Isso significa que poucos seres humanos concentram o poder de moldar os modelos usados em todo o mundo, salientou. E preconceitos acabam sendo espelhados neles.
A pesquisadora criticou o que chamou de falsa suposição de universalidade desses modelos: a ideia de que o treinamento de um chatbot com base nas preferências e no feedback de cerca de 50 funcionários é generalizável para a diversidade de humanos que usarão a tecnologia.
Ela acredita que os vieses não são produto da arquitetura dos sistemas de IA generativa, mas da forma como eles são treinados.
Por isso, recomendou, é crucial refletir sobre a visão de mundo desejada para esses modelos − quais vozes serão incluídas e priorizadas − e sobre como eles podem ser ajustados de forma a se tornarem “inofensivos, prestativos e honestos”.
Jornalistas do Financial Times e da BBC falaram sobre as questões que enfrentam em suas redações, como a preocupação com deepfakes, que podem enganar tanto os profissionais quanto o público.
As ferramentas sofisticadas de criação de imagens e vídeos estão permitindo a disseminação de conteúdo falso atribuído a grandes veículos de mídia, servindo como instrumento para manipulação.
Outra ameaça associada ao jornalismo é a da perda do controle. Gemma Newlands, também pesquisadora do OII, comentou sobre o temor de que as redações se tornem extremamente dependentes de pouquíssimas empresas “com tendências monopolistas”. E falou sobre o risco de os chatbots substituirem as camadas humanas em processos que não possam ser revertidos futuramente.
Para equilibrar tudo isso, diz o relatório, a saída é uma regulamentação da IA que não fique nas mãos apenas de empresas privadas e reguladores do Norte Global e inclua o público na tomada de decisão − o que não parece nada fácil nem provável que aconteça.
Para receber as notícias de MediaTalks em sua caixa postal ou se deixou de receber nossos comunicados, envie-nos um e-mail para incluir ou reativar seu endereço.