Microsoft e OpenAI investigam ameaças digitais impulsionadas por IA

Nesta quarta-feira (14), a Microsoft e a OpenAI, proprietária do ChatGPT, revelaram os primeiros resultados de uma pesquisa conjunta focada em cibersegurança. O estudo investigou as principais ameaças digitais que se utilizam de inteligência artificial (IA) para aprimorar técnicas de invasão.

Segundo o levantamento, agentes mal-intencionados estão empregando modelos de linguagem de grande escala, como os oferecidos pela OpenAI, para aumentar a eficiência e sofisticação de ataques cibernéticos. As empresas afirmam que estão intensificando os esforços de proteção para prevenir o uso criminoso de chatbots desenvolvidos pelas companhias. Além disso, estão ativamente banindo contas suspeitas de envolvimento em atividades cibercriminosas e que tenham produzido conteúdo indicativo de intenções criminosas.

Preocupações com a Segurança pela Microsoft e OpenAI

Os resultados da pesquisa indicam que ainda não foram identificados cibercrimes totalmente inéditos utilizando IA. No entanto, modalidades conhecidas de golpes, fraudes e ataques estão cada vez mais recorrendo a ferramentas de inteligência artificial.

De maneira geral, grupos criminosos estão utilizando chatbots para agilizar diversas tarefas, incluindo programação de scripts, redação de emails fraudulentos, filtragem de dados, análises estatísticas e automação de processos. Além disso, a IA pode auxiliar esses grupos na compreensão de tópicos específicos, como protocolos de comunicação via satélite. Entre os casos já identificados e neutralizados pela Microsoft estão grupos de hackers associados aos governos da Coreia do Norte, Rússia, China e Irã.

Além das ameaças mencionadas, a empresa alerta para a possibilidade de aumento de golpes que envolvem a imitação artificial da voz de uma pessoa. Essa técnica, que busca conferir autenticidade à fraude, é altamente sofisticada e pode utilizar amostras de áudio limitadas para sintetizar mensagens de voz, como os típicos correios de voz. Além do monitoramento contínuo, está em desenvolvimento um assistente de IA chamado Security Copilot, projetado para profissionais de cibersegurança, com o objetivo de identificar vulnerabilidades nos sistemas e prevenir essas novas formas de invasão.