A Axel Springer, uma das maiores empresas de mídia da Europa, está colaborando com a OpenAI para integrar jornalismo com a ferramenta de inteligência artificial (IA) ChatGPT, conforme declarado pela editora alemã em um comunicado em seu blog em 13 de dezembro.
A colaboração envolve o uso de conteúdo das marcas de mídia da Axel Springer para avançar no treinamento dos grandes modelos de linguagem da OpenAI. O objetivo é alcançar uma melhor experiência de usuário do ChatGPT com conteúdo atualizado e autoritativo em diversos tópicos, bem como aumentar a transparência através da atribuição e vinculação de artigos completos.
Chatbots de IA generativa há muito lutam com a precisão factual, ocasionalmente gerando informações falsas, comumente referidas como “alucinações”. Iniciativas para reduzir essas alucinações de IA foram anunciadas em junho em uma postagem no site da OpenAI.
Alucinações de IA ocorrem quando sistemas de inteligência artificial geram informações factualmente incorretas que são enganosas ou não suportadas por dados do mundo real. As alucinações podem se manifestar de várias formas, como gerar informações falsas, inventar eventos ou pessoas inexistentes ou fornecer detalhes imprecisos sobre certos tópicos.
A mistura de IA e jornalismo apresentou desafios, incluindo preocupações com transparência e desinformação. Em outubro, um estudo global da Ipsos revelou que 56% dos americanos e 64% dos canadenses acreditam que a IA irá exacerbar a propagação de desinformação, e globalmente, 74% pensam que a IA facilita a criação de notícias falsas realistas.
A parceria entre OpenAI e Axel Springer visa garantir que os usuários do ChatGPT possam gerar resumos das marcas de mídia da Axel Springer, incluindo Politico, Business Insider, Bild e Die Welt.
Entretanto, o potencial da IA para combater a desinformação também está sendo explorado, como visto em ferramentas como AI Fact Checker e a integração da GPT-4 da Microsoft em seu navegador Edge.
A Associated Press respondeu a essas preocupações emitindo diretrizes restringindo o uso de IA generativa na reportagem de notícias, enfatizando a importância da supervisão humana.
Em outubro, uma equipe de cientistas da Universidade de Ciência e Tecnologia da China e do Laboratório YouTu da Tencent desenvolveu uma ferramenta para combater as "alucinações" de modelos de inteligência artificial (IA).
VEJA MAIS: