Relatório técnico do Gemini 2.5 Pro decepciona especialistas por falta de transparência

O Google divulgou recentemente o relatório técnico do Gemini 2.5 Pro, sua inteligência artificial mais avançada até o momento. Apesar da expectativa em torno do documento, especialistas da área criticaram a empresa por fornecer informações limitadas e pouco detalhadas sobre os riscos do modelo.

Segundo o site TechCrunch, o relatório falha em atender aos compromissos de transparência e segurança assumidos publicamente pela empresa. A publicação tardia e o conteúdo considerado superficial levantaram dúvidas sobre a seriedade das práticas de avaliação interna do Google.

Avaliações restritas e ausência de riscos perigosos

Diferente de outras big techs, o Google só publica relatórios após considerar que seus modelos deixaram a fase experimental. Além disso, o documento não inclui as chamadas “capacidades perigosas”, que são avaliadas separadamente em auditorias internas — algo que foi duramente criticado por especialistas em segurança de IA.

“É um relatório muito esparso, com informações mínimas, publicado semanas após o modelo já estar disponível ao público”, destacou Peter Wildeford, cofundador do Institute for AI Policy and Strategy. Segundo ele, a falta de dados impossibilita qualquer verificação independente sobre a segurança do Gemini 2.5 Pro.

Outro ponto crítico foi a omissão do Frontier Safety Framework (FSF), uma estrutura de segurança criada pelo próprio Google em 2023 para antecipar riscos de IA avançada. A ausência do FSF no relatório, segundo os especialistas, compromete a credibilidade da empresa.

Promessas não cumpridas e atraso em relatórios

Thomas Woodside, cofundador do Secure AI Project, elogiou a iniciativa do Google em publicar o relatório, mas ressaltou que a prática precisa ser mais frequente e detalhada. Ele lembrou que a última divulgação de testes de capacidades perigosas ocorreu em junho de 2024, relacionada a um modelo lançado quatro meses antes. Além disso, o relatório do Gemini 2.5 Flash ainda não foi publicado, mesmo com a versão já disponível.

Woodside defende que o Google também precisa divulgar avaliações de modelos que ainda não foram lançados ao público, pois esses protótipos também podem representar riscos significativos.

Big techs na mira da crítica

O Google não é o único alvo de questionamentos sobre falta de transparência. A Meta publicou um relatório simplificado sobre seus modelos da linha Llama 4, e a OpenAI optou por não divulgar relatórios técnicos sobre o GPT-4.1. Essa tendência é preocupante diante das promessas feitas por essas empresas a reguladores de todo o mundo.

Para Kevin Bankston, conselheiro sênior em governança de IA no Center for Democracy and Technology, o mercado vive uma “corrida para o fundo do poço” em relação à segurança. “É alarmante que um modelo tão poderoso como o Gemini 2.5 Pro tenha uma documentação tão limitada, especialmente quando os concorrentes também estão relaxando seus testes de segurança”, afirmou.

O Google, por sua vez, afirma que realiza testes adversariais e simulações internas de segurança antes de liberar seus modelos ao público. No entanto, a falta de detalhes públicos sobre essas práticas continua gerando desconfiança na comunidade técnica.