Governos devem adotar lei para pagamento de conteúdo jornalístico usado em IA
Os governos devem adotar legislação para que veículos de mídia sejam compensados pelo uso de seu conteúdo no treinamento de modelos de inteligência artificial. A recomendação vem do Fórum sobre Informação e Democracia, em relatório recém-lançado que traz orientações a formuladores de políticas e empresas de IA.
Segundo a entidade, embora acordos voluntários de licenciamento de conteúdo entre companhias de inteligência artificial e organizações jornalísticas possam ser um primeiro passo, eles não garantem a sustentabilidade dos veículos e podem favorecer grandes grupos de mídia.
As recomendações constam do relatório intitulado “IA como um bem público: garantindo controle democrático da IA no espaço informacional”.
A Associated Press e a Axel Springer (dona do Politico, Bild e Welt) fecharam contratos de licenciamento de conteúdo com a Open AI, criadora do ChatGPT, no ano passado. Já o jornal The New York Times está processando a companhia de tecnologia por violações de direitos autorais. No Brasil, a Folha e outros veículos bloquearam a mineração de dados em seus sites.
O Fórum reúne 11 organizações internacionais e realiza sua conferência em paralelo à Assembleia Geral da ONU. As recomendações foram divulgadas no momento em que a União Europeia se prepara para votar sua Lei de IA e após a Casa Branca baixar um decreto sobre o tema. O Senado brasileiro também levará a votação um projeto de lei sobre o tópico, de autoria do senador Rodrigo Pacheco (PSD-MG).
O relatório recomenda que os países estabeleçam direitos para as organizações de mídia e jornalistas em relação ao uso de conteúdo jornalístico para treinamento e “grounding” (contextualização, fundamentação e checagem) de IA. As organizações de mídia devem ter direito a transparência sobre o uso de seu conteúdo e a opção de não permitir a utilização.
O Fórum sugere modelos para compensação dos veículos de mídia pelo uso de seu conteúdo: por meio de imposto sobre a receita das empresas de IA ou de taxação global para apoiar a mídia. Esses recursos seriam distribuídos através de um fundo independente global.
O documento também aponta para a possibilidade de estabelecer os chamados códigos de barganha, como o implementado na Austrália em 2021, que permitem aos veículos negociação conjunta com as empresas, e arbitragem caso não se chegue a um acordo. Outra possibilidade aventada é implementar um sistema de royalties semelhante à compensação usada em plataformas como o Spotify.
Outra recomendação do Fórum é aumentar o peso da credibilidade e qualidade dos veículos de notícias e de suas reportagens nos algoritmos de classificação e recomendação, para aumentar a visibilidade de informação de qualidade, e não apenas de conteúdo que engaja.
O relatório alerta que acontecimentos recentes mostraram o poder destrutivo que a IA pode ter sobre os processos políticos.
“Deepfakes de políticos podem influenciar o comportamento de eleitores, os sistemas de IA podem amplificar conteúdos que acirram conflitos, chatbots já deram informações incorretas sobre eleições, e os sistemas de IA podem reproduzir desigualdades existentes e levar a discriminação e viés”, diz o grupo.
“No entanto, a IA também apresenta possibilidades inexploradas para fortalecer a produção de notícias, análise de dados e acesso à informação.”
“Em um ano em que quase 3 bilhões de pessoas irão às urnas no mundo todo, esse tema não poderia ser mais importante”, diz Laura Schertel Mendes, co-presidente do grupo de trabalho que elaborou o relatório e professora de Direito no IDP. “Regular a esfera pública digitalizada é pressuposto básico para qualquer democracia, para que as pessoas possam formar suas opiniões de forma livre e independente.”
Entre as outras recomendações estão a adoção de padrões de autenticidade e procedência de conteúdo, rotulagem, “fair trade” e transparência dos sistemas de IA, além de processos participativos para definir regras e critérios para criar e testar inteligências artificiais.