Publicidade
Um estudo recente do Tow Center for Digital Journalism expôs falhas preocupantes nas ferramentas de busca generativa, especialmente na relação dessas tecnologias com o jornalismo. O relatório analisou oito plataformas que utilizam IA para pesquisa em tempo real e revelou erros críticos que comprometem a precisão e a confiabilidade das informações fornecidas.
Os chatbots analisados apresentaram respostas incorretas em mais de 60% das consultas. O Grok 3 liderou a lista negativa, errando em 94% das vezes, enquanto o Perplexity teve uma taxa de erro de 37%.
As ferramentas raramente indicam incerteza ou recusam responder quando não possuem informações corretas. Curiosamente, as versões premium, como Perplexity Pro e Grok 3, foram mais propensas a fornecer respostas erradas do que suas versões gratuitas.
Continua depois da publicidade
Alguns chatbots ignoraram restrições de rastreamento impostas por veículos de mídia, como o National Geographic, acessando conteúdos que deveriam estar bloqueados.
Muitos chatbots citaram fontes erradas ou direcionaram os usuários para versões de reproduções de artigos originais. O Grok 3 e o Gemini fabricaram ou quebraram links em mais de 50% das respostas.
Mesmo veículos que firmaram parcerias com empresas de IA, como a Time com a OpenAI e Perplexity, continuam enfrentando problemas de citação e atribuição correta do conteúdo.
Continua depois da publicidade
Impacto no Jornalismo
Essas falhas levantam questões urgentes sobre o impacto da busca generativa na sustentabilidade do jornalismo. Com a redução do tráfego para sites de notícias devido às respostas prontas dos chatbots, o modelo de negócios dos veículos tradicionais se enfraquece.
Menos acessos significam menor receita com publicidade, menos assinantes impactam diretamente a receita de veículos de notícias, resultando em uma redução drástica na viabilidade financeira das redações e na dificuldade crescente em manter equipes jornalísticas sustentáveis.
Além disso, a propagação de informações erradas por meio dessas plataformas compromete a credibilidade do jornalismo e dificulta o combate à desinformação.
Continua depois da publicidade
Quando um usuário recebe uma resposta errada, sem qualquer indicação de incerteza, ele tende a confiar na IA como uma fonte confiável, prejudicando a percepção pública sobre fontes jornalísticas legítimas.
O paradoxo da busca generativa
Além do problema da atribuição correta de informações, há também uma ameaça ao modelo de negócios do jornalismo digital que se alimenta de um paradoxo.
Até aqui, a troca era clara: você fazia conteúdo bom e o Google te premiava com tráfego para monetizar sua audiência. Sem o incentivo do tráfego, será que algumas publicações vão parar de deixar o conteúdo indexado para buscas? Ou será que sites menores dependentes deste modelo de negócio vão até mesmo parar de existir?
Continua depois da publicidade
E é aí que mora o paradoxo: se os sites de notícias pararem de produzir conteúdo, de onde as IAs vão pegar as informações para requentar suas versões? Se elas sempre vão precisar de um conteúdo original, tem algum ponto em que a conta não vai fechar…
O Que Pode Ser Feito?
Para mitigar esses problemas, algumas medidas são essenciais: garantir maior transparência na obtenção de informações, assegurando que as plataformas de busca generativa deixem claro de onde estão retirando seus dados e como os processam; respeitar as diretrizes de rastreamento, já que o não cumprimento dessas regras enfraquece a relação entre empresas de tecnologia e publishers.
Aprimorar sistemas de checagem de informações é fundamental, pois melhora os mecanismos internos de verificação e oferecendo aos usuários a opção de visualizar múltiplas fontes antes de aceitar uma resposta como verdade.
Continua depois da publicidade
É necessário poiar modelos de monetização mais sustentáveis para o jornalismo, promovendo acordos mais justos entre publishers e empresas de tecnologia para garantir que os veículos sejam remunerados corretamente pelo uso de seu conteúdo; e incentivar a educação midiática para usuários, ensinando as pessoas a questionar as respostas da IA e procurar fontes primárias para minimizar os danos da desinformação.