Singapura propõe pacto global para segurança da IA e busca unir EUA e China em torno de riscos comuns

Singapura lança plano global de cooperação em segurança da IA, reunindo EUA, China e Europa para enfrentar riscos emergentes de modelos avançados.

Em um raro momento de consenso global, pesquisadores de IA dos EUA, China e Europa reuniram-se em Singapura e apresentaram o Singapore Consensus on Global AI Safety Research Priorities, um plano que propõe colaboração internacional para mitigar os riscos associados ao desenvolvimento de sistemas de inteligência artificial cada vez mais poderosos.

A iniciativa surge em meio a uma crescente fragmentação geopolítica, especialmente entre os principais desenvolvedores de IA — EUA e China. Singapura, reconhecida por sua neutralidade e boa relação com ambos os blocos, posiciona-se como mediadora de um debate global urgente: como garantir que a corrida pela supremacia em IA não comprometa a segurança da humanidade.

O consenso foca em três frentes principais: estudar os riscos dos modelos de IA de ponta, explorar formas mais seguras de desenvolvê-los e criar métodos eficazes de controle sobre seus comportamentos. A proposta foi debatida em abril durante a ICLR, uma das conferências mais importantes sobre inteligência artificial.

Participaram do encontro representantes de empresas como OpenAI, Google DeepMind, xAI, Meta e Anthropic, além de pesquisadores das universidades MIT, Stanford, Tsinghua e da Academia Chinesa de Ciências. Instituições de pesquisa em segurança de IA de países como França, Reino Unido, Canadá, Japão e Coreia do Sul também estiveram presentes.

O professor Xue Lan, da Tsinghua University, declarou que o documento é “um sinal promissor de que a comunidade global está comprometida com um futuro de IA mais seguro”.

O esforço contrasta com o posicionamento recente do governo dos EUA, que vem favorecendo uma abordagem mais agressiva no desenvolvimento da tecnologia, minimizando os riscos. A recente estreia do modelo DeepSeek na China acentuou temores sobre uma corrida armamentista entre potências.

Durante o evento, o cientista Max Tegmark (MIT) apresentou um estudo técnico que desafia a suposição de que IA mais fracas possam controlar modelos mais poderosos — resultado que levanta preocupações sobre a eficácia das atuais abordagens de contenção.

O plano de Singapura representa uma tentativa concreta de restabelecer a colaboração global em torno de uma tecnologia que, se mal administrada, pode trazer consequências profundas. Em tempos de competição acirrada, o consenso pode ser um passo vital para garantir que o futuro da IA seja guiado por responsabilidade e cooperação.