Inteligência Artificial e os novos processos de exploração do trabalho no jornalismo

No último ano, houve uma explosão do uso de inteligência artificial (IA) em diversos setores no mundo do trabalho. No jornalismo não foi diferente. Com isso, os primeiros impactos começam a chegar, com um processo de exploração mais acentuado e a perda de postos de trabalho 

por Eduardo Viné e Juliana Almeida

Em novembro de 2020 o portal de notícias G1 divulgou uma iniciativa inédita: a empresa publicaria, ao final das eleições, um texto com os resultados do pleito em todos os 5568 municípios brasileiros. O feito seria possível graças ao que a empresa chamou de “processador de linguagem natural”, desenvolvido pela área de tecnologia da própria Globo.

O portal deixava claro que todos os textos gerados por essa tecnologia seriam revisados por um jornalista. O material publicado no site apresentava a mesma estrutura: título com o nome do prefeito eleito e seu partido; linha fina com a porcentagem dos votos; no corpo do texto, além da divulgação do resultado, umas poucas linhas  sobre a biografia do candidato; e no final da nota aparecia a seguinte advertência: 

“Esta reportagem foi produzida de modo automático com o apoio de um sistema de inteligência artificial e antes de ser publicada foi revisada por um jornalista do G1. Se houver novas informações relevantes, a reportagem pode ser atualizada. Saiba mais sobre o sistema de inteligência artificial usado pelo G1 em g1.com.br/eleicoes” 

A iniciativa pode disponibilizar em tempo recorde matérias sobre as eleições em regiões que não contavam com veículos de comunicação locais. Cidades pequenas como Borá, com 838 habitantes, e Nova Castilho, com 1062 habitantes, tiveram matérias sobre o pleito municipal disponíveis poucas horas depois da apuração.

O que em 2020 era uma iniciativa experimental, foi rapidamente incorporado ao processo de produção, não só no jornalismo. A tecnologia ficou conhecida como ‘Inteligência Artificial Generativa” e foi popularizada a partir de 2023 por programas como o Chat GPT, que, através de “prompts”, propõe textos e resultados partindo de uma enorme base de dados, desconhecida pelos usuários em geral.

A utilização dessa tecnologia não se limitou ao texto. Programas como o Midjorney oferecem imagens realistas partindo de comandos empregados pelos usuários. A tecnologia não se limita a produzir uma imagem, mas é capaz de copiar estilos, também se baseando em um banco de dados oculto em sua programação. 

Ainda é difícil de medir o impacto na atividade jornalística, mas os efeitos da utilização da tecnologia de IA, sendo apropriada pelos veículos de comunicação, começam a atingir os jornalistas.

Em maio de 2024, trabalhadores e trabalhadoras da Rede Internacional de Televisão (RIT TV), pertencente ao grupo midiático da Fundação Internacional de Comunicação (FIC), foram demitidos de maneira surpreendente: parte significativa da equipe deixou a empresa a partir do avanço da utilização de IA na rotina de trabalho da emissora. Suspeita-se que a motivação das demissões faz parte de uma escalada de precarização e substituição do trabalho humano por inteligência artificial (IA).

Segundo um estudo do Fundo Monetário Internacional (FMI), cerca de 60% dos postos de trabalho serão afetados por algum tipo de inteligência artificial. No Brasil, no primeiro trimestre de 2024, aproximadamente 8,6 milhões de pessoas estavam desempregadas.

Caso RIT

Segundo relatos dos jornalistas da emissora, em janeiro de 2024, os jornalistas da Rede Internacional de Televisão começaram a ser orientados a utilizar uma ferramenta de inteligência artificial para produção de textos. A inserção da ferramenta foi gradual, como conta o jornalista Evandro*: “Um gestor enviou uma mensagem no grupo pedindo para começarmos a testar o uso da inteligência artificial, reportando quaisquer problemas encontrados. Achamos estranho, pois ela estava sendo utilizada na gravação do off. Eu escrevia o texto e precisava alterar palavras para que a inteligência pudesse interpretá-las ‘corretamente’.”

Desde então, a utilização de inteligência artificial nas edições da emissora tornou-se cada vez mais comum. Apenas as reportagens eram feitas pelos jornalistas; outros materiais como boletins e notas eram produzidos pela IA. Como resultado, as notícias começaram a parecer robotizadas. Os apresentadores aparentavam estar interagindo com máquinas. Os offs eram todos produzidos por inteligência artificial, e os jornalistas eram obrigados a escrever de maneira incorreta para que o robô pudesse “ler” corretamente, o que os deixou frustrados após anos de estudo e dedicação.

Segundo Patrícia*, a introdução da ferramenta contribuiu diretamente para a sua demissão: “Acredito que sim, a IA contribuiu para que profissionais como nós fossem sendo dispensados, pois a empresa viu uma oportunidade de reduzir custos, demitindo aqueles que recebiam um salário inadequado para contratar funcionários recém-formados pagando um terço do valor. Esses funcionários, por sua vez, não percebem que estão sendo desvalorizados ao aceitarem qualquer oferta para entrar no mercado de trabalho com rapidez”.

Editora Abril

Desde dezembro de 2023, a Editora Abril tem investido significativamente em inteligência artificial. Um dos sites administrados pela editora, bebe.com.br, foi criticado por apresentar artigos que citavam apenas uma fonte, ou nenhum conteúdo novo. Os textos eram publicados por uma empresa terceirizada e não passavam por edição pelos jornalistas do site. Em um dos casos, citava-se como única fonte a revista Crescer, da Editora Globo, em uma reportagem de 2016, que detalhou como selecionar um médico. Em abril de 2024, os textos foram retirados do ar. Segundo o site Aos Fatos, foram identificados cerca de 50 textos atribuídos a Vanessa Tavares, com o objetivo de aumentar o volume de publicações e a audiência do site através do Google.

A IA também chegou a ser utilizada em um dos maiores semanários do Brasil. A capa da edição 2880 da Revista Veja é o exemplo mais evidente da substituição do trabalho de designers, ilustradores e fotógrafos por inteligência artificial. A imagem gerada pela inteligência artificial resultou em um erro gritante: um homem branco com seis dedos e vários broches de causas sociais. A matéria principal da edição aborda o “Exagero da Patrulha”, argumentando que o politicamente correto estava sendo levado a extremos. A crítica realizada pela revista acabou se voltando contra o veículo, que ficou marcado pelo grotesco erro de edição estampado na capa.

IA

A questão do uso da IA no jornalismo é complexa e requer uma abordagem específica. No caso da produção de informação, ela tem que ser vista com um olhar apurado. A inteligência artificial é um processamento de dados com velocidade que o cérebro humano não é capaz de alcançar, e que utiliza o cruzamento de dados de diversas fontes para produzir rapidamente um outro produto. Isso envolve questões éticas e legais, como o conhecimento sobre o banco de dados utilizado e levanta questões relacionadas aos direitos autorais do material utilizado, além de uma discussão sobre a regulação do  uso da tecnologia.

O Grupo Globo atualizou os princípios editoriais incluindo a utilização de Inteligência Artificial na produção jornalística em suas redações. O uso está previsto na cartilha do G1, onde está escrito que, ao utilizar a inteligência artificial, este processo será submetido aos valores e à supervisão humana, além de respeitar os direitos autorais — próprios e de terceiros. No entanto, a mesma cartilha diz que essa supervisão será por amostragem. Roseli Fígaro, professora titular do Departamento de Comunicações e Artes (CCA) na Escola de Comunicações e Artes da Universidade de São Paulo (ECA-USP) e membro do Conselho Gestor do Instituto de Ciência, comenta que esse processo de análise por amostragem coloca o próprio jornalismo em uma linha de produção. “É interessante pensar que a qualidade do jornalismo pode ser controlada por amostragem? Quais fatores me permitiriam racionalizar a notícia de forma a ser de fato avaliada a partir de amostragem? Então, quais fontes? Consultou dois lados? Como é que se daria isso? Existe esse protocolo? E a segunda questão que eu penso é que notícia não é sapato, não é batata, não é roupa. Que você está lá na esteira de produção, você tira uma amostra e analisa, porque sapatos, dentro de uma linha de produção determinada, são todos iguais, vêm de couro, de plástico, etc. Mas a notícia, numa linha de produção, não é a mesma. São diferentes notícias, diferentes assuntos, diferentes lugares, diferentes protagonistas, ou seja, o fato é diferente. Então, nós não temos, além de ver processos muito genéricos, do que estrutura o discurso jornalístico, nós não teríamos como verificar a qualidade dessa notícia por amostra.”

A UTILIZAÇÃO DA FERRAMENTA DE FORMA TÃO FREQUENTE NAS REDAÇÕES CORROBORA PARA UM AMBIENTE AINDA MAIS PRECARIZADO DA CATEGORIA

Popularmente usada no Brasil, a OpenAI, responsável pelo ChatGPT, modelo de linguagem baseado em Transformer, especificamente no modelo GPT (Generative Pre-trained Transformer), recebeu uma notificação do jornal New York Times pelo licenciamento do uso do conteúdo. A preocupação do publicador é que, ao criar textos com respostas baseadas nas reportagens originais dos jornalistas do Times, o chatbot se torne um competidor direto do jornal.

Em março de 2024, foi aprovado o texto final do projeto da Lei de Inteligência Artificial da União Europeia (Lei de IA da UE), conhecido como a primeira estrutura jurídica horizontal abrangente do mundo para a regulamentação de sistemas de IA em toda a UE.

Já no Brasil, a legislação regulamentadora caminha a passos de tartaruga. Ainda tramita no Congresso Nacional a regulamentação das mídias digitais e do uso de inteligência artificial. Foi apresentado pelo senador Eduardo Gomes (PL-TO) o projeto de lei 2.338/2023 que pede a “implementação e uso responsável de sistemas de inteligência artificial (IA) no país, com o objetivo de proteger os direitos fundamentais e garantir a implementação de sistemas seguros e confiáveis, em benefício da pessoa humana, do regime democrático e do desenvolvimento científico e tecnológico.” O PL ainda sugere que haja “transparência, explicabilidade, inteligibilidade e auditabilidade”.

Entidades da sociedade civil, juntamente com a Fenaj, elogiaram a iniciativa do senador em uma carta endereçada, em 8 de julho, aos senadores, manifestando apoio ao PL. “O respeito às legislações de direitos autorais, e a proteção de obras e produções artísticas, intelectuais e jornalísticas têm sido um dos principais temas dos debates sobre a necessidade de regulação da inteligência artificial generativa. Normativas internacionais que tratam da matéria, como o Ato Europeu da Inteligência Artificial, recentemente aprovado por toda a comunidade europeia, também se debruçam sobre o tema”, dizem as entidades em sua manifestação.

Segundo Ana Mielke, jornalista e presidente do coletivo Intervozes, em um texto publicado no site Outras Palavras, existem poucas iniciativas que vêm sendo esboçadas para reverter o impacto da IA sobre o mercado de trabalho eestas ainda reforçam uma tendência a priorizar ações para qualificação e/ou capacitação de pessoas para usos e aplicações da IA. “Políticas voltadas ao letramento ou à capacitação funcional são fundamentais para reduzir o impacto da redução de postos de trabalho, mas é preciso traçar estratégias que aliem a criação de novos postos de trabalho a um processo de reindustrialização. É preciso que as políticas públicas estejam alinhadas a uma ideia de um Estado produtor de tecnologias e não apenas consumidor ou usuário final de tecnologias proprietárias. E a formação profissional de excelência carece obrigatoriamente de investimento pesado em ensino, pesquisa e extensão, principalmente nas universidades.” O texto pode ser lido na íntegra aqui.

Precarização

A introdução da IA nas redações não se limita a uma transformação tecnológica; representa também um desafio ético significativo. Um caso que preocupa diretamente o trabalho jornalístico são as deep fakes, uma interface que escaneia o rosto de uma determinada pessoa e copia suas expressões ao falar e até a voz. para criar um vídeo “falso”, gerando assim uma série de informações falsas que não foram feitas pela pessoa copiada.

Alterações em imagens sempre foram um dilema no jornalismo, mas a criação de material com inteligência artificial eleva essa preocupação a um outro patamar. O assunto é relativamente novo, mas os impactos começam a ser percebidos na rotina dos jornalistas em todas as áreas. 

Preservar a ética, a diversidade de vozes e a qualidade da informação torna-se imperativo em um contexto de rápida evolução tecnológica e desafios sociais crescentes. Afinal, o uso da ferramenta em si não pode ser um artifício para a substituição de profissionais nas redações, aumentando assim a exploração dos trabalhadores e os lucros das empresas de comunicação. 

*Os nomes citados nesta reportagem são fictícios, para proteger a identidade das e dos jornalistas