Governo dos Estados Unidos vai testar modelos de IA antes do lançamento ao público

O governo dos Estados Unidos anunciou novos acordos com algumas das maiores empresas de inteligência artificial do mundo para avaliar seus modelos antes que sejam disponibilizados ao público.

A iniciativa envolve gigantes do setor como Google, Microsoft, xAI, OpenAI e Anthropic.

O objetivo é identificar possíveis riscos relacionados ao uso dessas tecnologias, principalmente em áreas consideradas sensíveis, como segurança cibernética, armas químicas e ameaças biológicas.

Quem fará os testes

As avaliações serão conduzidas pelo Centro para Padrões e Inovação em Inteligência Artificial, conhecido pela sigla CAISI.

O órgão faz parte do Instituto Nacional de Padrões e Tecnologia dos Estados Unidos e atua como um laboratório independente voltado para analisar o comportamento e os riscos de sistemas avançados de inteligência artificial.

Na prática, o CAISI testa os modelos para entender até onde eles podem ir, como podem ser usados e quais ameaças podem representar.

Segundo o diretor do centro, Chris Fall, avaliações técnicas independentes são fundamentais para compreender o impacto da IA de ponta na segurança nacional.

Até o momento, o órgão já realizou cerca de 40 avaliações, incluindo testes em modelos que ainda nem foram lançados oficialmente.

O papel de cada empresa

Cada empresa firmou compromissos específicos dentro dessa iniciativa.

Microsoft
A empresa vai colaborar no desenvolvimento de métodos para testar sistemas de IA em cenários adversos, simulando tentativas de uso indevido, falhas inesperadas e comportamentos fora do previsto.

Além disso, a companhia já possui parceria semelhante com o órgão equivalente do Reino Unido.

OpenAI
A empresa enviou ao governo americano o modelo ChatGPT 5.5 antes de seu lançamento público para testes voltados à segurança nacional.

Também está desenvolvendo uma versão especializada em defesa cibernética, chamada GPT-5.5-Cyber, inicialmente disponível para um grupo restrito de usuários.

Anthropic
A empresa já mantinha acordos semelhantes desde 2024, que agora foram atualizados.

Google e xAI
Também passam a integrar o grupo de empresas que terão seus modelos avaliados antes da liberação pública.

O que muda na prática

A principal mudança é que modelos avançados de inteligência artificial passarão por uma análise técnica governamental antes de serem lançados em larga escala.

A proposta não é bloquear a inovação, mas garantir que ferramentas poderosas sejam avaliadas quanto a riscos reais de uso indevido.

Esse processo pode ajudar a identificar vulnerabilidades, falhas de segurança e usos perigosos antes que essas tecnologias cheguem ao mercado.

Mudança na postura do governo Trump

O anúncio representa uma mudança importante na abordagem do governo de Donald Trump em relação à inteligência artificial.

Historicamente, Trump tem defendido menos regulação para o setor, argumentando que regras excessivas poderiam prejudicar a competitividade tecnológica dos Estados Unidos, especialmente diante do avanço da China.

Em março, o governo lançou um plano nacional de política para IA com foco em acelerar a inovação e reduzir barreiras regulatórias.

Agora, ao adotar avaliações governamentais sem criar novas agências reguladoras, os Estados Unidos parecem buscar um equilíbrio entre inovação e segurança.

Por que isso importa

A inteligência artificial está evoluindo rapidamente e ganhando espaço em áreas estratégicas.

Com modelos cada vez mais poderosos, cresce também a preocupação com possíveis usos maliciosos ou impactos inesperados.

A nova iniciativa mostra que governos e empresas estão começando a tratar a segurança da IA como prioridade, buscando garantir que o avanço tecnológico aconteça com maior responsabilidade.