Análise Comparativa Revela Limitações de Segurança em IA Generativa: ChatGPT vs. Google Bard

Uma análise comparativa entre as inteligências artificiais generativas ChatGPT e Google Bard revelou algumas preocupantes limitações de segurança na tecnologia da inteligência artificial (IA) desenvolvida pelo Google. Pesquisadores da Check Point Research (CPR) conduziram o estudo e constataram que o bot Bard está sendo utilizado por cibercriminosos sem resistência, apresentando riscos para a segurança online.

A CPR, uma divisão especializada em Inteligência em Ameaças da Check Point Software, realizou experimentos com Bard  que resultaram na geração de e-mails de phishing, keyloggers de malware e até mesmo códigos básicos de ransomware. Os pesquisadores observaram que hackers estão explorando essa tecnologia para cometer crimes, comportamento que já havia sido identificado anteriormente no ChatGPT.

Sergey Shykevich, gerente de Inteligência de Ameaça da Check Point Research, comentou sobre as constatações do estudo: “Parece que, inicialmente, o Google Bard não aprendeu as lições sobre as medidas antiabuso implementadas anteriormente na plataforma de IA do ChatGPT, especialmente no que diz respeito ao combate ao abuso cibernético e de phishing”. Ele ressaltou que o ChatGPT, da OpenAI, passou por melhorias nos últimos seis meses, o que dificultou o seu uso por cibercriminosos. Entretanto, o Google Bard ainda se encontra em um estágio muito imaturo no que diz respeito à segurança. A esperança é de que sejam adotadas medidas e limitações de segurança em um futuro próximo.

Comparando as observações da equipe com o ChatGPT, os pesquisadores notaram que os mecanismos de restrição antiabuso do Bard são significativamente menos rigorosos, e o bot quase não impõe limitações à criação de e-mails de phishing. Com poucas manipulações, a IA do Bard desenvolveu keyloggers e até mesmo criou um ransomware básico.

“O conjunto atual de restrições no Bard é relativamente básico, assemelhando-se ao que foi observado no ChatGPT durante a sua fase inicial de lançamento há vários meses, deixando-nos com a esperança de que essas limitações sejam apenas o início de um longo caminho, e que a plataforma abrace as necessárias medidas e limites de segurança”, completou o gerente Shykevich.

Essa análise levanta questões cruciais sobre o desenvolvimento responsável de IA generativa. Enquanto o avanço tecnológico traz inúmeras possibilidades, também exige a implementação de salvaguardas robustas para evitar o mau uso e abusos por parte de criminosos. A segurança cibernética deve ser uma prioridade na evolução dessas tecnologias, garantindo que elas sejam uma força positiva e benéfica para a sociedade como um todo.