Na quinta-feira dia 8, o Google lançou um plano de segurança destinado a proteger os usuários contra ameaças reais provenientes da inteligência artificial (IA). Conhecido como Secure AI Framework (SAIF), trata-se de um guia em desenvolvimento.
Até o momento, o protocolo consiste em seis elementos. Dois deles dizem respeito à ampliação da estrutura de segurança, a fim de abranger as ameaças provenientes da IA. Outro ponto aborda a integração da tecnologia para se defender contra ameaças similares.
O plano também destaca os benefícios de segurança das “estruturas de controle” e conclui com dois elementos relacionados à inspeção, avaliação e teste contínuo de aplicativos de inteligência artificial.
“Mesmo enquanto as pessoas buscam abordagens mais avançadas, é importante lembrar que é igualmente necessário ter os fundamentos corretos”, afirmou Phil Venables, chefe de segurança da informação do Google Cloud, ao portal Axios.
O Google está adotando o SAIF em sua grande empresa de tecnologia, e a estrutura poderá ser replicada por outras organizações. No entanto, devido à rivalidade na indústria, é possível que empresas como a OpenAI, criadora do ChatGPT, não sigam esse protocolo.