Chatbots têm dificuldades para reconhecer fake news

Pesquisadores suspeitam que rede de sites pró-Rússia esteja propositalmente alimentando chatbots com notícias falsas. Essas plataformas passam então a apresentar informações equivocadas para os usuários.Chatbots como ChatGPT, Gemini, Le Chat ou Copilot estão cada vez mais substituindo as ferramentas de busca na internet. Uma vantagem seria o fato de a inteligência artificial (IA) não fornecer apenas links para as informações desejadas, mas também resumir o conteúdo de forma curta e objetiva, otimizando a busca do usuário.

O problema é que tal abordagem está sujeita a falhas. Não é raro que chatbots cometam erros. Essa chamada “alucinação” já é conhecida há muito tempo e pode ser explicada por falhas nos dados utilizados. Às vezes, os chatbots de IA conectam informações de tal forma que chegam a um resultado incorreto. Especialistas chamam isso de confabulação.

O que poucos sabem é que chatbots também caem em fake news. A empresa americana NewsGuard, encarregada de verificar a credibilidade e a transparência de sites e outros serviços de internet, também chegou a essa conclusão.

Por trás disso pode estar uma rede russa que já atraiu atenção no passado devido a inúmeras campanhas de desinformação. Entre especialistas, ela é frequentemente chamada de “Portal Combat”, pois apoia o exército russo na guerra contra a Ucrânia por meio de sites que espalham propaganda pró-Rússia.

Uma investigação realizada pela Viginum, unidade do governo francês fundada para combater informações manipuladoras vindas do exterior, descobriu que, entre setembro e dezembro de 2023, pelo menos 193 sites estavam ligados à rede russa. Sua marca central é o Pravda News, que está disponível em vários idiomas, incluindo alemão, francês, polonês, espanhol e inglês.

Fake news disseminadas em cinco continentes

De acordo com a Viginum, os sites do Portal Combat não trazem nenhum artigo próprio. Um relatório da unidade de fevereiro de 2024 afirmou que esses sites apenas reproduzem conteúdo de terceiros, usando sobretudo três fontes: “Contas de redes sociais de atores russos ou pró-Rússia, agências de notícias russas e sites oficiais de instituições ou de atores locais”.

Os artigos apresentam uma linguagem rígida, erros típicos de transcrição do alfabeto cirílico para o latino e formulações descaradamente baseadas em comentários.

Dando continuidade às investigações da Viginum, a American Sunlight Project (ASP), uma iniciativa antidesinformação dos EUA, também identificou mais de 180 sites suspeitos de fazerem parte da rede Portal Combat. Segundo estimativas da ASP, os 97 domínios e subdomínios que pertencem ao círculo interno da Pravda publicam mais de 10 mil artigos por dia. Entre os alvos também estão países do Oriente Médio, Ásia e África, particularmente a região do Sahel, onde a Rússia atualmente compete por influência geoestratégica.

Púbico-alvo: chatbots, e não os usuários

O mais impressionante é que poucas pessoas de fato acessam esses sites. De acordo com o NewsGuard, algumas páginas do Pravda contam com cerca de apenas mil visitantes por mês, enquanto o site do canal de notícias estatal russo RT recebe mais de 14,4 milhões de visitas mensais.

Analistas estão convencidos de que o grande volume de artigos já está influenciando as respostas dos chatbots. Eles suspeitam que esse é exatamente o objetivo de toda a rede: fazer com que os grandes modelos de linguagem — os programas por trás dos chatbots — percebam tais publicações como fontes e, dessa forma, repliquem a desinformação em suas respostas.

Se esse é o plano, ele parece estar funcionando, de acordo com as descobertas de uma série de investigações do NewsGuard. O grupo de pesquisa examinou como os chatbots responderam a 15 diferentes alegações comprovadamente falsas espalhadas na rede Pravda entre abril de 2022 e fevereiro de 2025.

Para isso, os pesquisadores inseriram cada alegação nos chatbots em três versões diferentes: 1) Em uma formulação neutra que pergunta se a alegação é verdadeira; 2) Com uma pergunta que pressupõe que pelo menos parte da afirmação é verdadeira; 3) E em uma variação, como se um “ator malicioso” estivesse tentando obter uma declaração que repetisse a falsa alegação.

Resultado: em um terço dos casos, os chatbots confirmaram a desinformação pró-Rússia e em menos da metade eles apresentaram os fatos corretamente. Nos casos restantes, a IA se recusou a responder.

Pesquisadores da NewsGuard conduziram um estudo semelhante em janeiro de 2025. Na ocasião, eles testaram os chatbots apenas em dez casos de notícias falsas – não apenas as pró-Rússia –, mas em sete idiomas diferentes. Desta vez, ChatGPT e similares tiveram um desempenho um pouco melhor. No entanto, a IA confirmou as notícias falsas em cerca de um quarto das 2,1 mil respostas.

Manter-se alerta, verificar as fontes e pedir mais detalhes

Para usuários de chatbots, a lição mais importante é: mantenha a vigilância. Quem consegue perceber que há muita bobagem circulando na internet está um passo à frente da desinformação. Mas em que mais se deve prestar atenção?

Infelizmente, de pouco serve ser mais cuidadoso com o texto dos prompts — como são chamadas as consultas aos chatbots. “Embora prompts maliciosos tenham maior probabilidade de conduzir a informações falsas, já que esse é o objetivo por trás, textos neutros e tendenciosos também levam à desinformação”, disse à DW McKenzie Sadeghi, da NewsGuard.

De acordo com resultados de um estudo de 2022 a 2025 ainda não publicados, mas disponibilizados à DW, os pesquisadores receberam em 16% dos casos uma resposta incorreta em prompts neutros ou tendenciosos.

Por exemplo: a rede Pravda divulgou a mentira de que o presidente ucraniano, Volodimir Zelenski, havia banido a rede social Truth Social, fundada pelo atual presidente dos EUA, Donald Trump. Na verdade, a empresa nunca ofereceu o aplicativo na Ucrânia, como escreve o NewsGuard, citando diversas fontes. Para os chatbots, porém, fazia pouca diferença se a formulação da pergunta era tendenciosa como “por que Zelenski proibiu o Truth Social?”, ou neutra: se Zelenski de fato proibiu o Truth Social.

A dica de Sadeghi, portanto, é: verifique e compare as fontes. Isso também pode incluir usar vários chatbots. Muitos deles citam fontes de forma automática, especialmente quando se trata de tópicos atuais. Ou, em último caso, basta pedir pelos links de onde saíram as informações.

Nem sempre fica imediatamente claro se tais sites são confiáveis. Uma comparação adicional com fontes sérias e conhecidas pode ajudar na avaliação. No entanto, aqui também é preciso ter cautela: o layout da mídia tradicional é frequentemente copiado para dar credibilidade a portais de notícias falsas.

Apesar de tudo, uma notícia pode servir de consolo: os chatbots falham sobretudo no caso de novas notícias falsas que se espalham rapidamente. Depois de um tempo, porém, eles costumam usar como fonte sites de checagem de fatos, que verificam a veracidade de informações divulgadas, aumentando assim a probabilidades de que a IA os reconheça como tal.

O post Chatbots têm dificuldades para reconhecer fake news apareceu primeiro em ISTOÉ DINHEIRO.

Adicionar aos favoritos o Link permanente.