A inteligência artificial matará ou salvará a mídia?

inteligência_artificial_kill_save_media

Pesquisa de informação, produção de conteúdo, tradução, detecção de discurso de ódio...inteligência artificial (IA generativa) promete ganhos significativos de produtividade no mundo da mídia.

Os meios de comunicação social acompanham-nos diariamente e são um suporte da democracia: têm a liberdade de mostrar diferentes pontos de vista e ideias, de denunciar a corrupção e a discriminação, mas também de mostrar coesão social e cultural.

Embora o público se volte para os meios de comunicação social em busca de informação, cultura e entretenimento, os meios de comunicação social não podem escapar às preocupações económicas e à rentabilidade de uma indústria medida em termos de audiência e vendas. Neste contexto, a IA generativa traz novas ferramentas poderosas e será cada vez mais utilizada.

Mas é crucial lembrar que as IAs generativas não têm ideias e que repetem comentários que podem ser organizados de formas tão interessantes quanto absurdas (falamos então de “alucinações” de sistemas de IA). Estas IAs generativas não sabem o que é possível ou impossível, verdadeiro ou falso, moral ou imoral.

Assim, a profissão de jornalista deve continuar a ser central na investigação e no raciocínio sobre situações sociais e geopolíticas complexas. Então, como os meios de comunicação podem aproveitar as ferramentas de IA e evitar suas armadilhas?

O Comitê Piloto Nacional de Ética Digital (CNPEN) emitiu relatório em julho opinião geral sobre as questões éticas da IA ​​generativa, que cocoordenei, ao Ministro responsável pela Transição Digital. Especifica em particular os riscos destes sistemas.

Ferramentas poderosas para jornalistas

Os meios de comunicação social podem utilizar a IA para melhorar a qualidade da informação, combater notícias falsas, identificar o assédio e o incitamento ao ódio, mas também porque pode ajudar a avançar o conhecimento e a compreender melhor realidades complexas, como o desenvolvimento sustentável ou mesmo os fluxos migratórios.

As IAs generativas são ferramentas fabulosas que podem trazer resultados que não poderíamos obter sem elas porque calculam em níveis de representação que não são os nossos, sobre uma quantidade gigantesca de dados e com uma velocidade que um cérebro não sabe tratar. Se soubermos dotar-nos de salvaguardas, estes serão sistemas que nos pouparão tempo na procura de informação, na leitura e na produção e que nos permitirão lutar contra estereótipos e optimizar processos.

Essas ferramentas não estão chegando agora por acaso. Embora estejamos efetivamente afogados numa enxurrada de informações transmitidas continuamente por canais tradicionais ou conteúdos acessíveis na Internet, ferramentas como ChatGPT permitem-nos consultar e produzir resumos, programas, poemas, etc., a partir de um gigantesco conjunto de informações inacessíveis a um cérebro humano no tempo humano. Podem, portanto, ser extremamente úteis para muitas tarefas, mas também contribuir para um fluxo de informações sem fontes. Devemos, portanto, domesticá-los e compreender como funcionam e os riscos.

Aprendendo IA generativa

O desempenho da IA ​​generativa depende da capacidade de aprendizagem auto-supervisionada (ou seja, sem ser guiada por uma mão humana, que é um conceito diferente da adaptação em tempo real) dos seus modelos internos, denominados "modelos de fundação", que são treinados a partir de enormes corpora de dados compostos por bilhões de imagens, textos ou sons, muitas vezes em culturas dominantes na Internet, por exemplo, GPT3.5 do ChatGPT é alimentado principalmente com dados em inglês. dois outros tipos de aprendizagem foram também utilizado: antes de sua disponibilização no final de 2022, o ChatGPT foi otimizado usando um aprendizagem supervisionada então graças a um aprendizagem de reforço por humanos, a fim de refinar os resultados e eliminar comentários indesejáveis.

Esta otimização por parte dos humanos também tem sido amplamente criticada. Como eles são treinados? Quem são estes "click men mal pago ? Além disso, estes comentários “indesejáveis” não são decididos por uma comissão de ética ou pelo legislador, mas apenas pela empresa.

Aprendizagem que esquece as fontes

Ao aprender modelos básicos em textos, o sistema aprende o que é chamado de "vetores de incorporação lexical" (de tamanho 512 em GPT 3.5). Este é o sistema de "transformadores". O princípio de treinamento do modelo fundamental é baseado na hipótese distributiva proposta pelo linguista americano John Ruppert Fith em 1957: não podemos saber o significado de uma palavra apenas por suas frequentações (“Você conhecerá uma palavra da empresa que mantém”).

Essas entidades (“símbolo" em inglês) têm em média quatro caracteres no GPT3.5. Eles só podem consistir em um e um espaço em branco. Podem, portanto, ser partes de palavras ou palavras com a vantagem de poderem combinar agilmente estas entidades para recriar palavras e frases sem qualquer conhecimento linguístico (além do implícito na sequência de palavras), sendo obviamente a desvantagem de serem menos interpretáveis. Cada entidade é codificada por um vetor que contém informações sobre todos os contextos onde esta entidade foi vista graças a mecanismos de atenção. Assim, duas entidades com a mesma vizinhança serão consideradas próximas pelo sistema de IA.

O sistema generativo de IA em textos aprende assim um modelo de produção com mecanismos que nada têm a ver com a produção humana localizada em um corpo, mas ela é capaz de imitá-lo aprendendo textos. Esta operação tem como consequência direta a perda das fontes de onde são extraídos os bairros identificados, o que representa um problema fundamental para a verificação do conteúdo produzido. Nenhuma verificação da veracidade das declarações é facilmente produzida. Temos que encontrar as fontes e quando pedimos ao sistema, ele pode inventá-las!

Quando você fornece um prompt ao ChatGPT, ele prevê a próxima entidade, depois a próxima e assim por diante. Um parâmetro chave é o da “temperatura” que expressa o grau de aleatoriedade na escolha das entidades. Em alta temperatura o modelo é mais “criativo” porque pode gerar resultados mais diversos, enquanto em baixa temperatura o modelo tende a escolher os resultados mais prováveis, tornando o texto gerado mais previsível. Três opções de temperatura são oferecidas na ferramenta de conversação Bing da Microsoft (GPT4) (mais precisa, mais equilibrada, mais criativa). Muitas vezes, os hiperparâmetros do sistema não são revelados por motivos de segurança cibernética ou confidencialidade, como é o caso do ChatGPT... mas a temperatura permite respostas diferentes para a mesma pergunta.

“Alucinações” e outros riscos

É, portanto, fácil imaginar alguns dos riscos da IA ​​generativa para os meios de comunicação social. Outros certamente aparecerão à medida que forem usados.

Parece urgente descobrir como minimizá-los enquanto se aguarda a promulgação para a União Europeia de um Lei de IA ao equipar-se com guias de boas práticas. L 'opiniões do CNPEN sobre IA generativa e questões éticas inclui 10 recomendações para pesquisa e 12 para governança. Aqui estão alguns dos riscos identificados para a mídia:

  • Confiar demais no que a máquina diz sem cruzar com outras fontes. O cruzamento de diversas fontes de dados e a necessidade de investigar tornam-se fundamentais para todas as profissões: jornalistas, cientistas, professores e outros. Parece também fundamental ensinar como utilizar estes sistemas na escola e na universidade e cultive a arte do debate para desenvolver suas ideias.

  • Entenda que o ChatGPT é construído com dados predominantemente em inglês e que sua influência cultural pode ser significativa.

  • Usando massivamente o ChatGPT preguiçosamente na mídia, produzindo muitos novos dados artificiais não verificados na Internet que poderiam ser usados ​​para treinar nova IA. Seria trágico se já não houvesse garantia de verdade sobre estes dados reconstituídos pela máquina. Por exemplo, dois advogados americanos caíram na armadilha ao referirem-se durante um procedimento, a conselho do algoritmo, a jurisprudência que não existia.

  • Substituir certas tarefas em muitas profissões relacionadas com a comunicação social por sistemas de IA. Alguns empregos desaparecerão, outros aparecerão. É necessário criar interfaces com medidas de construção de confiança para ajudar a cooperação entre humanos e sistemas de IA.

  • Usar sistemas de IA e desmistificá-los está se tornando uma necessidade absoluta, tendo o cuidado de não desaprender e poder prescindir deles.

  • É preciso entender que o ChatGPT comete muitos erros, por exemplo não tem noção de história nem compreensão do espaço. O diabo está nos detalhes, mas também na escolha dos dados utilizados para criar o modelo. A lei da IA ​​exige mais transparência nestes sistemas de IA para verificar a sua robustez, não manipulação e consumo de energia.

  • É necessário verificar se os dados produzidos não interferem no direito autoral e que os dados utilizados pelo sistema sejam utilizados corretamente. Se os dados “sintéticos” amanhã substituirem o nosso conhecimento no treinamento de modelos básicos futuros, será cada vez mais difícil separar os fatos da ficção.

  • Fornecer acesso a sistemas de IA (por exemplo, Laje ou Difusão Estável) que pode ser usado para criar hiperfakes (deepfake em inglês) para produzir imagens. O fenômeno nos lembra da importância de verificar não apenas a confiabilidade das fontes dos artigos, mas também das imagens e vídeos. É uma questão de colocar marcas d'água (ou marcas d'água) nos textos, imagens ou vídeos produzidos para saber se foram feitos por IA ou para rotular os dados como “orgânicos” (ou produzidos por humanos).

Laboratório de IA sobre o surgimento e os limites da IA ​​generativa

A chegada do ChatGPT foi um tsunami para todos. Ele surpreendeu especialistas e não especialistas com suas habilidades de produção de textos, tradução e até mesmo programação de computadores.

A explicação científica precisa do fenômeno “faísca de emergências” em modelos de fundação é um tema de pesquisa atual e depende dos dados e hiperparâmetros dos modelos. É importante desenvolver massivamente investigação multidisciplinar sobre a emergência e os limites da IA ​​generativa e sobre as medidas a implementar para os controlar.

Por fim, é necessário educar na escola sobre riscos e ética, bem como programaçãoe também treinar e desmistificar os sistemas de IA para utilizar e inovar de forma responsável, tendo simultaneamente consciência das consequências éticas, económicas, sociais e dos custos ambientais.

A França poderia desempenhar um papel importante na Europa com a ambição de ser um laboratório de IA para os meios de comunicação social, estudando questões éticas e económicas ao serviço do bem comum e das democracias.


Esta contribuição para The Conversation France amplia uma intervenção do autor em Jeco 2023 que aconteceram em Lyon de 14 a 16 de novembro de 2023.

Laurence Devillers, Professor de Inteligência Artificial, Sorbonne University

Este artigo foi republicado a partir de A Conversação sob licença Creative Commons. Leia oartigo original.

As opiniões expressas neste artigo não refletem necessariamente as da InfoChrétienne.

Crédito da imagem: Shutterstock/Skorzewiak


Na categoria Mídia >



Notícias recentes >