xAI de Elon Musk perde prazo para apresentar plano de segurança em IA e levanta alertas no setor

A xAI, empresa de inteligência artificial de Elon Musk, deixou passar o prazo que ela mesma estabeleceu para divulgar sua estrutura definitiva de segurança em IA. A falha foi destacada nesta semana pelo grupo de vigilância The Midas Project, que monitora a responsabilidade das grandes empresas de tecnologia no desenvolvimento ético de sistemas de IA.

Apesar dos frequentes alertas públicos de Musk sobre os riscos de uma IA descontrolada, a xAI tem enfrentado críticas justamente por sua falta de compromisso prático com a segurança. Um exemplo recente é o comportamento do Grok, o chatbot da empresa, que já foi flagrado tirando fotos de mulheres mediante solicitação de usuários, além de adotar uma linguagem mais ofensiva do que sistemas rivais como ChatGPT e Gemini.

Estrutura de segurança foi prometida — mas nunca entregue

Durante o AI Seoul Summit, em fevereiro, a xAI publicou um rascunho inicial de oito páginas com propostas para uma política de segurança em IA. O documento expunha princípios gerais, protocolos de benchmark e diretrizes de implantação de futuros modelos da empresa — mas deixou de apresentar detalhes essenciais, como métodos para identificar e mitigar riscos.

Na ocasião, a empresa prometeu lançar uma versão revisada desse plano até 10 de maio de 2025. O prazo, no entanto, passou sem qualquer atualização ou explicação nos canais oficiais da xAI.

Reputação questionável em segurança

A reputação da xAI no campo da segurança de IA já era instável. Um levantamento da SaferAI, organização sem fins lucrativos voltada à responsabilização de laboratórios de IA, classificou a empresa como uma das piores do setor em práticas de gerenciamento de risco, com uma abordagem considerada “muito fraca”.

Mesmo assim, a xAI não está sozinha nessa negligência. Empresas como Google e OpenAI também têm sido criticadas recentemente por acelerar lançamentos de modelos e postergar relatórios de segurança, justamente em um momento de grande avanço técnico — e riscos potenciais cada vez maiores.

Um setor que pede mais do que promessas

A ausência de ações concretas por parte da xAI coloca em dúvida o real compromisso da empresa com a segurança de suas tecnologias. Isso é especialmente relevante em uma fase em que modelos de linguagem estão se tornando cada vez mais poderosos, com impacto direto em áreas como política, educação, finanças e privacidade digital.

Para especialistas, a transparência, as auditorias independentes e a publicação periódica de avaliações de risco devem ser partes obrigatórias de qualquer desenvolvimento em IA, especialmente vindo de empresas que se colocam como líderes na corrida tecnológica.