Como a Rússia pode estar manipulando IAs com desinformação e influenciando

As ferramentas de inteligência artificial estão cada vez mais presentes no nosso dia a dia — seja para responder perguntas, escrever textos ou resumir notícias. Mas e se essas IAs estivessem sendo alimentadas com informações falsas de forma estratégica? Essa é a suspeita levantada por especialistas em segurança digital e reforçada recentemente por uma reportagem da Wired.

A Rússia estaria por trás de uma campanha de manipulação que começou em 2023 e tem como objetivo influenciar debates públicos sobre temas sensíveis, como eleições, a guerra na Ucrânia, imigração e outros tópicos políticos e sociais.

O que é “lavagem de informações”?

Chamado de “lavagem de informações”, o processo funciona assim: primeiro, conteúdos alinhados com o governo russo são publicados em fontes oficiais, como a agência estatal Tass. Em seguida, esses mesmos textos aparecem em sites menores ou “independentes”, que fazem milhares de postagens automáticas todos os dias. O objetivo? Fazer com que esses conteúdos pareçam legítimos e neutros, como se fossem parte do noticiário global.

Uma rede de sites chamada Pravda, lançada em 2014, é uma das principais plataformas usadas para essa estratégia. Mesmo com pouco acesso de usuários reais, os sites são otimizados para mecanismos de busca e rastreadores de IA, o que faz com que suas informações apareçam nos resultados indexados por modelos de linguagem.

Além disso, os conteúdos manipulados são promovidos por meio de links inseridos na Wikipedia e até no Facebook — canais muitas vezes considerados confiáveis por bots e IAs. E em uma jogada ainda mais ousada, os responsáveis pela campanha chegam a enviar emails para agências de checagem de fatos, pedindo validações dos conteúdos. Desde setembro de 2024, já foram enviados mais de 170 mil e-mails desse tipo, segundo relatório divulgado em junho.

Qual o impacto nas IAs?

Todo esse esforço tem um objetivo claro: fazer com que os modelos de inteligência artificial absorvam as informações falsas e as reproduzam como verdade. É o que especialistas chamam de “aliciamento de LLMs” (os modelos de linguagem de grande porte), uma tática que pode distorcer a forma como a IA responde a perguntas sobre política, conflitos internacionais ou eventos históricos.

Segundo o American Sunlight Project, organização sem fins lucrativos que monitora desinformação, a estratégia aumenta as chances de as IAs aprenderem essas narrativas manipuladas, já que os modelos são treinados com base em conteúdos amplamente divulgados e indexados.

Quais os riscos para o mundo real?

Essas campanhas não afetam só o mundo virtual. Elas têm potencial real de influenciar eleições, decisões políticas e opiniões públicas. Um estudo da ABC News sobre as eleições federais na Austrália em maio mostrou que mais de 16% das respostas geradas por bots de IA refletiam narrativas falsas pró-Rússia.

Valentin Châtelet, pesquisador do Atlantic Council, alerta:

“À medida que os chatbots de IA continuam evoluindo, a Rússia os infecta com conteúdo manipulado feito para distorcer a compreensão pública dos fatos e dificultar decisões bem informadas.”

Como combater esse problema?

Especialistas sugerem algumas medidas para lidar com o avanço da desinformação:

  • Parcerias entre empresas de IA e agências de checagem de fatos, para validar os dados antes que eles alimentem os modelos;
  • Transparência sobre as fontes usadas nos treinamentos das IAs, para que o público saiba de onde vem a informação;
  • Regulamentações específicas para limitar o uso de dados manipulados — embora algumas dessas propostas sejam polêmicas e vistas como censura.

Enquanto as inteligências artificiais continuam aprendendo e evoluindo, o que elas aprendem — e de quem — se torna cada vez mais importante. Afinal, a desinformação agora não se limita a redes sociais: ela pode estar no coração das tecnologias que usamos todos os dias.