Na segunda-feira dia 29, o ArsTechnica revelou que o ChatGPT, uma inteligência artificial (IA) generativa desenvolvida pela OpenAI, está vazando conversas com usuários, expondo até mesmo dados sigilosos, como logins e senhas, em alguns casos. Capturas de tela compartilhadas com a publicação mostram a IA exibindo informações durante interações não relacionadas.
Em um dos prints divulgados, nomes de usuário e senhas de um sistema de suporte utilizado por funcionários de um portal de medicamentos prescritos por uma farmácia foram expostos. Aparentemente, um contratado da empresa acionou o chatbot da OpenAI em busca de soluções para algum problema na página.
Além disso, outras conversas vazadas pelo ChatGPT revelaram detalhes de uma proposta de pesquisa não publicada, scripts usando a linguagem PHP e o nome de uma apresentação em desenvolvimento. As interações parecem ter sido feitas por pessoas diferentes, de acordo com a reportagem.
É importante ressaltar que esta não é a primeira vez que a IA generativa enfrenta problemas de vazamento de dados. Em março de 2023, dados de assinantes e conversas foram expostos para terceiros, e em novembro do ano passado, informações usadas em seu treinamento também foram comprometidas.
A OpenAI afirmou que está investigando o incidente relatado e promete fornecer detalhes em breve.
Quanto à forma como os dados do ChatGPT foram acessados, o usuário Chase Whiteside revelou que as senhas vazadas apareceram por acaso enquanto ele estava utilizando a plataforma. Ele solicitou ajuda à IA para encontrar nomes inteligentes para cores em uma paleta, e a tecnologia exibiu as conversas com terceiros na sequência.
Diante da recorrência do problema, especialistas recomendam cautela ao compartilhar informações sensíveis durante interações com o bot alimentado por IA. É fundamental proteger dados confidenciais e estar ciente dos riscos associados à utilização dessas tecnologias.