IAs empoderam malwares: malwares que reescrevem a si mesmos já são reais

A inteligência artificial generativa está virando ferramenta para criar malwares muito mais flexíveis e perigosos. Em relatório divulgado pelo Google Threat Intelligence Group (GTIG) nesta quarta (05), pesquisadores mostram que atacantes começaram a usar grandes modelos de linguagem para fazer malwares autônomos e capazes de mudar comportamento durante uma campanha — ou seja, deixaram de ser peças de código estático e passaram a se adaptar em tempo real.

O que mudou: de código fixo para “malware que pensa”

Tradicionalmente, malwares chegam com um conjunto fixo de funcionalidades. Agora, segundo o GTIG, vimos a emergência de famílias que consultam modelos de linguagem enquanto rodam para, por exemplo, reescrever partes do próprio código, gerar rotinas de ofuscação sob demanda ou criar novas ações conforme o alvo. Alguns exemplos citados:

  • PromptFlux — observado usando o Gemini para reescrever dinamicamente seu código-fonte.

  • PromptSteal — usa IA para ampliar técnicas de ofuscação e gerar funcionalidades maliciosas conforme a necessidade.

  • FruitShell — otimizado para escapar de detecções, inclusive aquelas baseadas em IA.

  • PromptLock — variante experimental de ransomware que gera e executa scripts maliciosos repetidamente.

  • QuietVault — stealer que mira repositórios como GitHub e NPM e usa IA para varrer o dispositivo em busca de dados valiosos.

O Google descreve esse comportamento como “just-in-time” de automodificação: o malware se altera no momento certo, diferentemente do código estático que conhecíamos.

Quem está usando e como

O relatório aponta que grupos com ligações a estados — Coreia do Norte, Irã e China são citados — já incorporaram IA em estágios variados das operações: criação de iscas de phishing, engenharia social, exploração de vulnerabilidades e pós-comprometimento. Para contornar restrições de uso de modelos avançados, atacantes empregam engenharia social (fingem ser pesquisadores, estudantes etc.) para obter acesso aos recursos.

Além disso, existe um mercado crescente: recursos de IA, prompts prontos e serviços que ajudam a automatizar fases de ataque estão sendo vendidos em fóruns, reduzindo a barreira técnica para criminosos menos experientes.

Por que isso é preocupante

  • Autonomia: malwares que se adaptam exigem menos intervenção humana e podem reagir a defesas em tempo real.

  • Escalada de sofisticação: ofuscação e geração de payloads sob demanda dificultam detecção por assinaturas e análises estáticas.

  • Commoditização: venda de ferramentas de IA para cibercrime amplia quem pode atacar.

O que fazer (resumo prático)

Empresas e equipes de defesa precisam acelerar a adoção de estratégias que combinem:

  • detecção comportamental e análise em runtime;

  • reforço de telemetria e logs para investigação rápida;

  • aplicação de políticas de segurança sobre o uso de modelos (gestão de chaves, controle de acesso, auditoria);

  • educação para evitar engenharia social que dá acesso a recursos de IA.

A conclusão do GTIG é direta: a IA já não é só uma ajudante do lado “bom” — virou vetor que altera a superfície de ameaça. Defender-se passa por aceitar que a guerra mudou: não basta mais bloquear assinaturas antigas, é preciso olhar para comportamento em tempo real e para controles que limitem como e por quem modelos de IA são usados.