O governo dos Estados Unidos anunciou novos acordos com algumas das maiores empresas de inteligência artificial do mundo para avaliar seus modelos antes que sejam disponibilizados ao público.
A iniciativa envolve gigantes do setor como Google, Microsoft, xAI, OpenAI e Anthropic.
O objetivo é identificar possíveis riscos relacionados ao uso dessas tecnologias, principalmente em áreas consideradas sensíveis, como segurança cibernética, armas químicas e ameaças biológicas.
Quem fará os testes
As avaliações serão conduzidas pelo Centro para Padrões e Inovação em Inteligência Artificial, conhecido pela sigla CAISI.
O órgão faz parte do Instituto Nacional de Padrões e Tecnologia dos Estados Unidos e atua como um laboratório independente voltado para analisar o comportamento e os riscos de sistemas avançados de inteligência artificial.
Na prática, o CAISI testa os modelos para entender até onde eles podem ir, como podem ser usados e quais ameaças podem representar.
Segundo o diretor do centro, Chris Fall, avaliações técnicas independentes são fundamentais para compreender o impacto da IA de ponta na segurança nacional.
Até o momento, o órgão já realizou cerca de 40 avaliações, incluindo testes em modelos que ainda nem foram lançados oficialmente.
O papel de cada empresa
Cada empresa firmou compromissos específicos dentro dessa iniciativa.
Microsoft
A empresa vai colaborar no desenvolvimento de métodos para testar sistemas de IA em cenários adversos, simulando tentativas de uso indevido, falhas inesperadas e comportamentos fora do previsto.
Além disso, a companhia já possui parceria semelhante com o órgão equivalente do Reino Unido.
OpenAI
A empresa enviou ao governo americano o modelo ChatGPT 5.5 antes de seu lançamento público para testes voltados à segurança nacional.
Também está desenvolvendo uma versão especializada em defesa cibernética, chamada GPT-5.5-Cyber, inicialmente disponível para um grupo restrito de usuários.
Anthropic
A empresa já mantinha acordos semelhantes desde 2024, que agora foram atualizados.
Google e xAI
Também passam a integrar o grupo de empresas que terão seus modelos avaliados antes da liberação pública.
O que muda na prática
A principal mudança é que modelos avançados de inteligência artificial passarão por uma análise técnica governamental antes de serem lançados em larga escala.
A proposta não é bloquear a inovação, mas garantir que ferramentas poderosas sejam avaliadas quanto a riscos reais de uso indevido.
Esse processo pode ajudar a identificar vulnerabilidades, falhas de segurança e usos perigosos antes que essas tecnologias cheguem ao mercado.
Mudança na postura do governo Trump
O anúncio representa uma mudança importante na abordagem do governo de Donald Trump em relação à inteligência artificial.
Historicamente, Trump tem defendido menos regulação para o setor, argumentando que regras excessivas poderiam prejudicar a competitividade tecnológica dos Estados Unidos, especialmente diante do avanço da China.
Em março, o governo lançou um plano nacional de política para IA com foco em acelerar a inovação e reduzir barreiras regulatórias.
Agora, ao adotar avaliações governamentais sem criar novas agências reguladoras, os Estados Unidos parecem buscar um equilíbrio entre inovação e segurança.
Por que isso importa
A inteligência artificial está evoluindo rapidamente e ganhando espaço em áreas estratégicas.
Com modelos cada vez mais poderosos, cresce também a preocupação com possíveis usos maliciosos ou impactos inesperados.
A nova iniciativa mostra que governos e empresas estão começando a tratar a segurança da IA como prioridade, buscando garantir que o avanço tecnológico aconteça com maior responsabilidade.