A inteligência artificial generativa está virando ferramenta para criar malwares muito mais flexíveis e perigosos. Em relatório divulgado pelo Google Threat Intelligence Group (GTIG) nesta quarta (05), pesquisadores mostram que atacantes começaram a usar grandes modelos de linguagem para fazer malwares autônomos e capazes de mudar comportamento durante uma campanha — ou seja, deixaram de ser peças de código estático e passaram a se adaptar em tempo real.
O que mudou: de código fixo para “malware que pensa”
Tradicionalmente, malwares chegam com um conjunto fixo de funcionalidades. Agora, segundo o GTIG, vimos a emergência de famílias que consultam modelos de linguagem enquanto rodam para, por exemplo, reescrever partes do próprio código, gerar rotinas de ofuscação sob demanda ou criar novas ações conforme o alvo. Alguns exemplos citados:
-
PromptFlux — observado usando o Gemini para reescrever dinamicamente seu código-fonte.
-
PromptSteal — usa IA para ampliar técnicas de ofuscação e gerar funcionalidades maliciosas conforme a necessidade.
-
FruitShell — otimizado para escapar de detecções, inclusive aquelas baseadas em IA.
-
PromptLock — variante experimental de ransomware que gera e executa scripts maliciosos repetidamente.
-
QuietVault — stealer que mira repositórios como GitHub e NPM e usa IA para varrer o dispositivo em busca de dados valiosos.
O Google descreve esse comportamento como “just-in-time” de automodificação: o malware se altera no momento certo, diferentemente do código estático que conhecíamos.
Quem está usando e como
O relatório aponta que grupos com ligações a estados — Coreia do Norte, Irã e China são citados — já incorporaram IA em estágios variados das operações: criação de iscas de phishing, engenharia social, exploração de vulnerabilidades e pós-comprometimento. Para contornar restrições de uso de modelos avançados, atacantes empregam engenharia social (fingem ser pesquisadores, estudantes etc.) para obter acesso aos recursos.
Além disso, existe um mercado crescente: recursos de IA, prompts prontos e serviços que ajudam a automatizar fases de ataque estão sendo vendidos em fóruns, reduzindo a barreira técnica para criminosos menos experientes.
Por que isso é preocupante
-
Autonomia: malwares que se adaptam exigem menos intervenção humana e podem reagir a defesas em tempo real.
-
Escalada de sofisticação: ofuscação e geração de payloads sob demanda dificultam detecção por assinaturas e análises estáticas.
-
Commoditização: venda de ferramentas de IA para cibercrime amplia quem pode atacar.
O que fazer (resumo prático)
Empresas e equipes de defesa precisam acelerar a adoção de estratégias que combinem:
-
detecção comportamental e análise em runtime;
-
reforço de telemetria e logs para investigação rápida;
-
aplicação de políticas de segurança sobre o uso de modelos (gestão de chaves, controle de acesso, auditoria);
-
educação para evitar engenharia social que dá acesso a recursos de IA.
A conclusão do GTIG é direta: a IA já não é só uma ajudante do lado “bom” — virou vetor que altera a superfície de ameaça. Defender-se passa por aceitar que a guerra mudou: não basta mais bloquear assinaturas antigas, é preciso olhar para comportamento em tempo real e para controles que limitem como e por quem modelos de IA são usados.