Buscadores com IA falham ao dar informações corretas em 60% das consultas

Pesquisa revela falhas nas ferramentas de busca generativa, com chatbots errando mais de 60% das respostas. Erros assim comprometem a credibilidade do jornalismo e o modelo de negócios dos veículos. Para mitigar, é essencial garantir transparência, checagem de informações e acordos justos entre publishers e empresas de tecnologia.

Flávio Moreira

Importante: os comentários e opiniões contidos neste texto são responsabilidade do autor e não necessariamente refletem a opinião do InfoMoney ou de seus controladores

Publicidade

Um estudo recente do Tow Center for Digital Journalism expôs falhas preocupantes nas ferramentas de busca generativa, especialmente na relação dessas tecnologias com o jornalismo. O relatório analisou oito plataformas que utilizam IA para pesquisa em tempo real e revelou erros críticos que comprometem a precisão e a confiabilidade das informações fornecidas.

Os chatbots analisados apresentaram respostas incorretas em mais de 60% das consultas. O Grok 3 liderou a lista negativa, errando em 94% das vezes, enquanto o Perplexity teve uma taxa de erro de 37%.

As ferramentas raramente indicam incerteza ou recusam responder quando não possuem informações corretas. Curiosamente, as versões premium, como Perplexity Pro e Grok 3, foram mais propensas a fornecer respostas erradas do que suas versões gratuitas.

Continua depois da publicidade

Alguns chatbots ignoraram restrições de rastreamento impostas por veículos de mídia, como o National Geographic, acessando conteúdos que deveriam estar bloqueados.

Muitos chatbots citaram fontes erradas ou direcionaram os usuários para versões de reproduções de artigos originais. O Grok 3 e o Gemini fabricaram ou quebraram links em mais de 50% das respostas.

Mesmo veículos que firmaram parcerias com empresas de IA, como a Time com a OpenAI e Perplexity, continuam enfrentando problemas de citação e atribuição correta do conteúdo.

Continua depois da publicidade

Impacto no Jornalismo

Essas falhas levantam questões urgentes sobre o impacto da busca generativa na sustentabilidade do jornalismo. Com a redução do tráfego para sites de notícias devido às respostas prontas dos chatbots, o modelo de negócios dos veículos tradicionais se enfraquece.

Menos acessos significam menor receita com publicidade, menos assinantes impactam diretamente a receita de veículos de notícias, resultando em uma redução drástica na viabilidade financeira das redações e na dificuldade crescente em manter equipes jornalísticas sustentáveis.

Além disso, a propagação de informações erradas por meio dessas plataformas compromete a credibilidade do jornalismo e dificulta o combate à desinformação.

Continua depois da publicidade

Quando um usuário recebe uma resposta errada, sem qualquer indicação de incerteza, ele tende a confiar na IA como uma fonte confiável, prejudicando a percepção pública sobre fontes jornalísticas legítimas.

O paradoxo da busca generativa

Além do problema da atribuição correta de informações, há também uma ameaça ao modelo de negócios do jornalismo digital que se alimenta de um paradoxo.

Até aqui, a troca era clara: você fazia conteúdo bom e o Google te premiava com tráfego para monetizar sua audiência. Sem o incentivo do tráfego, será que algumas publicações vão parar de deixar o conteúdo indexado para buscas? Ou será que sites menores dependentes deste modelo de negócio vão até mesmo parar de existir?

Continua depois da publicidade

E é aí que mora o paradoxo: se os sites de notícias pararem de produzir conteúdo, de onde as IAs vão pegar as informações para requentar suas versões? Se elas sempre vão precisar de um conteúdo original, tem algum ponto em que a conta não vai fechar…

O Que Pode Ser Feito?

Para mitigar esses problemas, algumas medidas são essenciais: garantir maior transparência na obtenção de informações, assegurando que as plataformas de busca generativa deixem claro de onde estão retirando seus dados e como os processam; respeitar as diretrizes de rastreamento, já que o não cumprimento dessas regras enfraquece a relação entre empresas de tecnologia e publishers. 

Aprimorar sistemas de checagem de informações é fundamental, pois melhora os mecanismos internos de verificação e oferecendo aos usuários a opção de visualizar múltiplas fontes antes de aceitar uma resposta como verdade.

Continua depois da publicidade

É necessário poiar modelos de monetização mais sustentáveis para o jornalismo, promovendo acordos mais justos entre publishers e empresas de tecnologia para garantir que os veículos sejam remunerados corretamente pelo uso de seu conteúdo; e incentivar a educação midiática para usuários, ensinando as pessoas a questionar as respostas da IA e procurar fontes primárias para minimizar os danos da desinformação.

Autor avatar
Flávio Moreira

Flávio Moreira é jornalista especializado em estratégia e inovação no mercado de mídia. Atualmente, atua como Coordenador de Parcerias e Estratégia no InfoMoney, tendo passado por posições de liderança como Editor-chefe de Assinaturas e Novos Projetos no UOL, Head de Conteúdo no Torcedores.com e Gestor de Comunidades FIFA na Electronic Arts. Além de sua trajetória profissional, Flávio é autor de uma newsletter sobre tendências e inovação para publishers, que conta com mais de 6 mil assinantes em busca de insights sobre o futuro da comunicação.