A OpenAI anunciou o banimento de diversas contas associadas a órgãos de segurança chineses, redes internacionais de fraude romântica e operações coordenadas de manipulação de opinião pública. As ações fazem parte do relatório de ameaças divulgado em fevereiro de 2026, que revela como ferramentas de inteligência artificial, incluindo o ChatGPT, vinham sendo exploradas de forma indevida em campanhas políticas e financeiras ao redor do mundo.
Segundo a empresa, os responsáveis pelas operações combinavam o uso de IA com métodos tradicionais, como perfis falsos em redes sociais e sites fraudulentos, para aumentar a credibilidade dos golpes. As estratégias iam desde a criação de falsas agências de relacionamento até a falsificação de documentos e a personificação de escritórios jurídicos.
IA usada em operações de influência política
Uma das atividades identificadas estaria ligada a agentes associados à polícia chinesa, que utilizaram o ChatGPT para organizar campanhas digitais direcionadas contra a primeira-ministra do Japão, Sanae Takaichi. Embora o sistema tenha bloqueado tentativas diretas de planejamento de ataques, a ferramenta acabou sendo usada para administrar redes de contas falsas e estruturar relatórios operacionais.
De acordo com a OpenAI, o objetivo dessas ações era pressionar críticos do governo chinês e reduzir a visibilidade de opiniões contrárias, tanto dentro do país quanto no exterior.
Golpes românticos e fraude financeira em escala
No Sudeste Asiático, investigadores identificaram uma operação baseada no Camboja que aplicava golpes amorosos contra homens na Indonésia. O grupo utilizava IA para gerar mensagens personalizadas, anúncios e conversas convincentes, direcionando vítimas para plataformas falsas que exigiam pagamentos elevados.
A fraude combinava automação e interação humana, causando prejuízos recorrentes a centenas de pessoas todos os meses por meio de manipulação emocional.
Redes russas e produção automatizada de conteúdo
O relatório também aponta o uso de contas ligadas à rede russa Rybar para criação e tradução de conteúdos publicados em plataformas como X (antigo Twitter) e Telegram. A análise mostrou que o uso de IA, por si só, não garante alcance ou impacto — a relevância dos perfis responsáveis pela publicação continua sendo o principal fator de disseminação.
Os operadores ainda alternavam entre diferentes modelos de inteligência artificial para tentar contornar restrições e acelerar a produção de conteúdo.
Extorsão e coleta de informações sensíveis
Fora do campo político, a OpenAI identificou criminosos que se passavam por policiais e advogados norte-americanos para extorquir vítimas que já haviam sofrido golpes anteriormente. Outros grupos tentaram obter dados sensíveis sobre prédios federais dos Estados Unidos e buscaram apoio para manipulação de vídeos com tecnologias de troca facial (face swapping).
A OpenAI afirma que a divulgação desses relatórios é essencial para ajudar empresas, governos e usuários a entenderem como a inteligência artificial pode ser explorada por agentes maliciosos — e, principalmente, como se defender dessas novas formas de ameaça digital.