Apps falsos se passam por ChatGPT, DALL·E e WhatsApp para espalhar golpes e espionagem, alerta relatório

Um novo relatório da empresa de segurança móvel Appknox revelou uma tendência preocupante: aplicativos falsos estão se disfarçando de marcas conhecidas como ChatGPT, DALL·E e WhatsApp para enganar usuários. A investigação, conduzida em lojas de aplicativos de terceiros nos Estados Unidos, mostrou que esses clones variam de simples ferramentas cheias de anúncios até softwares de espionagem altamente invasivos.

O parasita que vive de anúncios

Um dos exemplos analisados é o app “DALL·E 3 AI Image Generator”, encontrado na loja alternativa Aptoide. À primeira vista, ele parece ser uma extensão legítima da ferramenta de IA da OpenAI — mas, na prática, não passa de um disfarce.

De acordo com os pesquisadores da Appknox, o aplicativo não possui qualquer recurso de geração de imagens com IA. Em vez disso, ele se conecta a redes de publicidade como Unity Ads, AppsFlyer, Adjust e Bigo Ads, exibindo anúncios enquanto simula o processo de criação de imagens.

“Não é malware no sentido técnico”, explica Abhinav Vasisth, pesquisador líder da Appknox. “É um parasita comercial que lucra com o engano. Ele vende impressões de anúncios, não inteligência.”

Os especialistas identificaram ainda que o app foi desenvolvido com base em modelos de código reaproveitado, criados por um desenvolvedor já conhecido por lançar múltiplos clones falsos. Esse padrão confirma uma tendência crescente: golpistas estão usando o hype da inteligência artificial como fachada para espalhar adware e lucrar com anúncios falsos.

Versão falsa do WhatsApp esconde spyware

Entre os aplicativos mais perigosos identificados está o WhatsApp Plus, que se apresenta como uma “versão melhorada” do mensageiro. Na verdade, trata-se de um spyware completo, capaz de roubar informações sensíveis e comprometer toda a privacidade do usuário.

Assim que é instalado, o app solicita permissões excessivas e silenciosas, como acesso a contatos, mensagens SMS e contas do dispositivo. Essas permissões permitem interceptar dados críticos, incluindo senhas temporárias e códigos de autenticação usados em bancos e plataformas digitais.

O relatório alerta que o problema vai muito além da privacidade pessoal:

“Com acesso total ao dispositivo, o spyware pode capturar códigos de verificação bancária e facilitar fraudes de identidade.”

No ambiente corporativo, o risco é ainda maior. Segundo a Appknox, apps como o WhatsApp Plus podem comprometer tokens de autenticação multifator, abrindo brechas para ataques em contas corporativas e dados sigilosos. Em setores regulados, como saúde e finanças, isso representa violações graves de normas como GDPR, HIPAA e PCI-DSS, sujeitas a multas milionárias.

O hype da IA como isca

O relatório reforça que a popularização da IA está sendo explorada por cibercriminosos. O uso de nomes e ícones de ferramentas legítimas, como ChatGPT e DALL·E, aumenta a taxa de download dos apps falsos, enganando até usuários mais atentos.

A Appknox recomenda que os usuários evitem lojas de aplicativos de terceiros e baixem apenas de plataformas oficiais, como a Google Play Store e a Apple App Store. Mesmo nelas, é importante verificar o nome do desenvolvedor, as avaliações e as permissões solicitadas antes da instalação.

Como se proteger

Para reduzir o risco de cair em golpes como esses, a Appknox sugere as seguintes práticas:

  • Monitore continuamente as lojas de aplicativos e detecte listagens falsas em tempo real.
  • Verifique certificados digitais e garanta a rotação segura das chaves de assinatura.
  • Automatize varreduras de vulnerabilidade em apps, APIs e SDKs usados internamente.
  • Eduque usuários e equipes sobre o perigo de baixar apps fora das lojas oficiais.
  • Crie um protocolo de resposta rápida para denunciar e remover aplicativos falsos.

Com a explosão de aplicativos de inteligência artificial, o cenário de ameaças também evolui. O nome “IA” virou chamariz para golpes, e a linha entre inovação e risco digital nunca foi tão tênue.
Para usuários e empresas, a lição é clara: desconfie do que parece bom demais para ser verdade — especialmente quando promete ser “igual ao ChatGPT”.