Cúpula em Cingapura define prioridades globais para tornar a IA mais segura

Em abril, líderes mundiais e gigantes da tecnologia se reuniram em Cingapura para discutir o futuro da segurança em inteligência artificial. O encontro, batizado de “Intercâmbio Científico Internacional sobre Segurança de IA”, contou com a participação de representantes de empresas como OpenAI, Google DeepMind, Meta e Anthropic, além de autoridades de 11 países — incluindo Estados Unidos, China e membros da União Europeia.

O resultado do evento foi consolidado no documento “Consenso de Cingapura sobre Prioridades Globais de Pesquisa em Segurança de IA”, que apresenta um conjunto de recomendações técnicas e políticas para evitar que a IA evolua de forma descontrolada ou represente riscos reais à humanidade.

As três grandes frentes do plano global de segurança em IA:

1. Avaliação de riscos

O relatório propõe métodos avançados para avaliar os riscos atuais e futuros dos sistemas de IA. A ideia é prever comportamentos perigosos e aplicar testes rigorosos — inclusive simulações com cenários onde a IA age fora do controle humano.

2. Imposição de limites

Especialistas sugerem a definição clara de fronteiras entre comportamentos aceitáveis e inaceitáveis por parte dos sistemas de IA. Também reforçam a necessidade de que os modelos sejam treinados com dados honestos e confiáveis.

3. Controle humano e técnicas de contenção

O texto recomenda a adoção de ferramentas como monitoramento constante, kill switches (interrupção de emergência), e uso de sistemas de IA não-autônomos para supervisionar modelos mais ágeis. Tudo isso sob uma governança centrada no ser humano.

Um consenso é possível?

A reunião em Cingapura aconteceu após divergências na cúpula anterior, realizada em Paris, onde EUA e Reino Unido se recusaram a assinar um compromisso conjunto por uma IA ética e transparente. Mesmo assim, o tom agora é mais otimista.

“Esta síntese abrangente sobre segurança em IA é um sinal promissor de que a comunidade global está se unindo para moldar um futuro mais seguro”, afirmou Xue Lan, reitor da Universidade Tsinghua, que participou do encontro.

Xue destacou ainda que empresas como OpenAI e Anthropic participaram ativamente das discussões — e que mesmo os governos rivais compartilham o interesse comum de evitar desastres causados por tecnologia descontrolada.

O futuro da regulação

A próxima conferência sobre o tema já tem data e local: Índia, em 2026. Até lá, o mercado estará inundado por novos modelos de IA generativa e sistemas cada vez mais autônomos, o que torna urgente o debate sobre normas e responsabilidades.

Em fevereiro, o secretário-geral da ONU, António Guterres, reforçou esse alerta:

“O poder da IA está testando os valores compartilhados da humanidade. Ele está concentrado nas mãos de poucos e exige responsabilidade à altura”.