OpenAI corrige falha que permitia vazamento de dados do Gmail

A OpenAI corrigiu uma vulnerabilidade que poderia ter permitido a extração de dados sigilosos de contas do Gmail. A falha foi descoberta pela empresa de segurança Radware, que confirmou não haver indícios de exploração real por parte de atacantes antes da correção.

Segundo a Radware, a OpenAI aplicou o patch no dia 3 de setembro. Em nota, a companhia explicou que seus modelos de IA passam constantemente por testes rigorosos feitos por pesquisadores externos: “Essas avaliações adversas são bem-vindas, pois nos ajudam a fortalecer a segurança de nossos sistemas”, disse um porta-voz.

Como a falha funcionava

O problema foi localizado no recurso Deep Research (ou Pesquisa Profunda), projetado para gerar relatórios detalhados sobre diversos temas. No entanto, essa função podia ser manipulada para desviar informações confidenciais de contas vinculadas ao Gmail.

Os pesquisadores demonstraram a exploração da brecha da seguinte forma:

  • enviaram e-mails para si mesmos com instruções ocultas;
  • o Deep Research, ao processar a mensagem, era induzido a procurar informações pessoais na caixa de entrada;
  • dados como nomes completos e endereços eram então extraídos;
  • por fim, a IA era instruída a enviar essas informações para um servidor controlado pelos pesquisadores.

O mais preocupante é que a vítima não precisava clicar em nada — ao contrário de ataques de phishing tradicionais, a coleta acontecia de forma invisível.

Outros serviços também estavam em risco

Além do Gmail, outra vulnerabilidade no ChatGPT afetava serviços como Google Drive, Dropbox e Outlook. Nesse caso, o ataque explorava técnicas de injeção de prompt, em que um código malicioso escondido fazia a IA expor informações sigilosas.

O que fica de lição

O episódio reforça que até pequenos pontos de falha em sistemas de IA podem se transformar em grandes riscos de segurança, especialmente quando conectados a contas corporativas ou pessoais.

Embora a vulnerabilidade já esteja corrigida, o caso acende o alerta: à medida que assistentes de IA se integram cada vez mais ao nosso dia a dia, a atenção à segurança precisa crescer na mesma velocidade.