Claude Opus 4.6 descobre mais de 500 falhas graves em projetos open source

A Anthropic lançou uma versão atualizada do seu modelo de IA mais poderoso, o Claude Opus 4.6, e já chegou causando impacto. Durante testes internos, o modelo identificou mais de 500 vulnerabilidades de segurança consideradas críticas em bibliotecas de código aberto — todas inéditas até então, segundo a empresa. A revelação foi feita na última quinta-feira (05).

Além do salto em cibersegurança, o Claude Opus 4.6 traz avanços em áreas como pesquisa, análise financeira e geração de documentos. Outro destaque é o suporte a contextos longos, com capacidade de lidar com até 1 milhão de tokens, o que permite análises muito mais profundas de código e documentos extensos.

Detecção de falhas em outro nível

Nos testes, a IA foi executada em uma máquina virtual e recebeu acesso às versões mais recentes de diversos projetos open source. Mesmo sem ser instruída a procurar falhas de segurança, o modelo conseguiu encontrar centenas de brechas do tipo “dia zero”.

O Claude Opus analisava o código de forma semelhante a um desenvolvedor humano: revisava correções antigas, buscava padrões recorrentes de bugs e levantava possíveis pontos de risco. Cada vulnerabilidade encontrada passou por validação de pesquisadores humanos, garantindo que os alertas não fossem resultado de “alucinações” da IA — quando o modelo aponta problemas que não existem.

Entre os casos identificados, estão falhas no GhostScript, ferramenta usada para processar arquivos PDF e PostScript, no OpenSC, voltado ao uso de cartões inteligentes, e no CGIF, biblioteca para manipulação de arquivos GIF. Neste último, os engenheiros ficaram impressionados com a forma como a IA conseguiu validar a falha e criar uma prova de conceito funcional. Todas as vulnerabilidades divulgadas já foram corrigidas.

Para evitar o uso indevido desse poder em cibersegurança, a Anthropic afirma ter implementado mecanismos de prevenção capazes de detectar atividades suspeitas. Caso um comportamento malicioso seja identificado, o sistema pode bloquear automaticamente esse tipo de ação.