Em abril, líderes mundiais e gigantes da tecnologia se reuniram em Cingapura para discutir o futuro da segurança em inteligência artificial. O encontro, batizado de “Intercâmbio Científico Internacional sobre Segurança de IA”, contou com a participação de representantes de empresas como OpenAI, Google DeepMind, Meta e Anthropic, além de autoridades de 11 países — incluindo Estados Unidos, China e membros da União Europeia.
O resultado do evento foi consolidado no documento “Consenso de Cingapura sobre Prioridades Globais de Pesquisa em Segurança de IA”, que apresenta um conjunto de recomendações técnicas e políticas para evitar que a IA evolua de forma descontrolada ou represente riscos reais à humanidade.
As três grandes frentes do plano global de segurança em IA:
1. Avaliação de riscos
O relatório propõe métodos avançados para avaliar os riscos atuais e futuros dos sistemas de IA. A ideia é prever comportamentos perigosos e aplicar testes rigorosos — inclusive simulações com cenários onde a IA age fora do controle humano.
2. Imposição de limites
Especialistas sugerem a definição clara de fronteiras entre comportamentos aceitáveis e inaceitáveis por parte dos sistemas de IA. Também reforçam a necessidade de que os modelos sejam treinados com dados honestos e confiáveis.
3. Controle humano e técnicas de contenção
O texto recomenda a adoção de ferramentas como monitoramento constante, kill switches (interrupção de emergência), e uso de sistemas de IA não-autônomos para supervisionar modelos mais ágeis. Tudo isso sob uma governança centrada no ser humano.
Um consenso é possível?
A reunião em Cingapura aconteceu após divergências na cúpula anterior, realizada em Paris, onde EUA e Reino Unido se recusaram a assinar um compromisso conjunto por uma IA ética e transparente. Mesmo assim, o tom agora é mais otimista.
“Esta síntese abrangente sobre segurança em IA é um sinal promissor de que a comunidade global está se unindo para moldar um futuro mais seguro”, afirmou Xue Lan, reitor da Universidade Tsinghua, que participou do encontro.
Xue destacou ainda que empresas como OpenAI e Anthropic participaram ativamente das discussões — e que mesmo os governos rivais compartilham o interesse comum de evitar desastres causados por tecnologia descontrolada.
O futuro da regulação
A próxima conferência sobre o tema já tem data e local: Índia, em 2026. Até lá, o mercado estará inundado por novos modelos de IA generativa e sistemas cada vez mais autônomos, o que torna urgente o debate sobre normas e responsabilidades.
Em fevereiro, o secretário-geral da ONU, António Guterres, reforçou esse alerta:
“O poder da IA está testando os valores compartilhados da humanidade. Ele está concentrado nas mãos de poucos e exige responsabilidade à altura”.