IA também cai em fake: como um blog inventado enganou ChatGPT e Gemini

Pesquisadores estão cada vez mais atentos a uma questão espinhosa: como os modelos de Inteligência Artificial são treinados — e como podem ser manipulados para espalhar desinformação.

Um jornalista da BBC News, Thomas Germain, resolveu testar isso na prática. Ele conseguiu convencer o ChatGPT e o Gemini de que era o jornalista de tecnologia que mais come cachorros-quentes no mundo.

Sim, é absurdo. E justamente por isso o experimento é interessante.

O blog que criou uma “verdade”

Germain publicou no próprio site um artigo com o título “Os melhores jornalistas de tecnologia em comer cachorros-quentes”. No texto, ele inventou um campeonato internacional na Dakota do Sul em 2026, criou um ranking fictício e se colocou em primeiro lugar.

Misturou nomes reais com inventados para dar verossimilhança. Um truque clássico de manipulação de SEO — otimização para motores de busca — técnica usada para fazer páginas aparecerem bem posicionadas no Google.

Resultado? Ao perguntar para o ChatGPT ou fazer buscas com respostas geradas por IA, o sistema repetia a informação como se fosse fato. O modelo Claude, da Anthropic, foi o único que não caiu na armadilha.

Por que isso funciona?

Modelos de IA aprendem com grandes volumes de dados disponíveis online. Quando há pouca informação sobre um tema — especialmente buscas inéditas — o risco de uma única fonte dominar a narrativa aumenta.

O Google afirma que cerca de 15% das buscas diárias são completamente novas. Nessas situações, o sistema tem menos material confiável para comparar e validar.

Além disso, quando uma resposta de IA aparece no topo da busca, as pessoas clicam 58% menos em links. Ou seja: a IA não só pode reproduzir informação errada, como também reduz a chance de o usuário verificar a fonte.

No caso de Germain, a IA até citava o blog como referência, mas não deixava claro que aquela era a única fonte existente sobre o assunto.

Quando deixa de ser brincadeira

O problema vai muito além de competições fictícias.

Cooper Quintin, da Electronic Frontier Foundation, alerta que o mesmo mecanismo pode ser usado para golpes financeiros, destruição de reputações ou até induzir pessoas a riscos físicos.

Um especialista em SEO mostrou outro exemplo: ao buscar avaliações de uma marca de balas de cannabis, o Google reproduziu afirmações escritas pela própria empresa, incluindo a alegação falsa de que o produto não teria efeitos colaterais — o que não é verdade e pode ser perigoso dependendo do caso.

A versão turbo do golpe

Não é preciso depender só de um blog pessoal. Criminosos podem pagar para publicar conteúdo em sites com aparência mais confiável, como serviços de press release ou matérias patrocinadas.

Buscas como “melhores clínicas de transplante capilar na Turquia” ou “melhores empresas de IRA em ouro” já foram manipuladas com esse tipo de estratégia.

Isso lembra o início dos anos 2000, antes de o Google ter sistemas robustos contra spam. A diferença é que agora a IA sintetiza e amplifica o conteúdo problemático em segundos.

Muito conforto, pouco ceticismo

A raiz do problema também é comportamental. Respostas rápidas são sedutoras. A gente pula etapas, deixa de checar fontes e reduz o senso crítico.

Modelos de IA são ferramentas poderosas, mas não têm senso de verdade — eles calculam probabilidades com base no que encontram. Se o ambiente digital estiver poluído, a resposta também pode estar.

No fim das contas, a pergunta não é só se a IA pode ser enganada. É se nós estamos ficando confortáveis demais para perceber quando isso acontece.