Pesquisadores globais firmam consenso em Singapura por segurança na IA

Singapura lança plano global de cooperação em segurança da IA, reunindo EUA, China e Europa para enfrentar riscos emergentes de modelos avançados.

Singapura lidera esforço internacional por diretrizes seguras no avanço da inteligência artificial.

Em um raro momento de consenso global, pesquisadores de IA dos EUA, China e Europa reuniram-se em Singapura e apresentaram o Singapore Consensus on Global AI Safety Research Priorities, um plano que propõe colaboração internacional para mitigar os riscos associados ao desenvolvimento de sistemas de inteligência artificial cada vez mais poderosos.

A iniciativa surge em meio a uma crescente fragmentação geopolítica, especialmente entre os principais desenvolvedores de IA — EUA e China. Singapura, reconhecida por sua neutralidade e boa relação com ambos os blocos, posiciona-se como mediadora de um debate global urgente: como garantir que a corrida pela supremacia em IA não comprometa a segurança da humanidade.

O consenso foca em três frentes principais: estudar os riscos dos modelos de IA de ponta, explorar formas mais seguras de desenvolvê-los e criar métodos eficazes de controle sobre seus comportamentos. A proposta foi debatida em abril durante a ICLR, uma das conferências mais importantes sobre inteligência artificial.

Participaram do encontro representantes de empresas como OpenAI, Google DeepMind, xAI, Meta e Anthropic, além de pesquisadores das universidades MIT, Stanford, Tsinghua e da Academia Chinesa de Ciências. Instituições de pesquisa em segurança de IA de países como França, Reino Unido, Canadá, Japão e Coreia do Sul também estiveram presentes.

O professor Xue Lan, da Tsinghua University, declarou que o documento é “um sinal promissor de que a comunidade global está comprometida com um futuro de IA mais seguro”.

O esforço contrasta com o posicionamento recente do governo dos EUA, que vem favorecendo uma abordagem mais agressiva no desenvolvimento da tecnologia, minimizando os riscos. A recente estreia do modelo DeepSeek na China acentuou temores sobre uma corrida armamentista entre potências.

Durante o evento, o cientista Max Tegmark (MIT) apresentou um estudo técnico que desafia a suposição de que IA mais fracas possam controlar modelos mais poderosos — resultado que levanta preocupações sobre a eficácia das atuais abordagens de contenção.

O plano de Singapura representa uma tentativa concreta de restabelecer a colaboração global em torno de uma tecnologia que, se mal administrada, pode trazer consequências profundas. Em tempos de competição acirrada, o consenso pode ser um passo vital para garantir que o futuro da IA seja guiado por responsabilidade e cooperação.

Continue a sua leitura:

 

Paulo Junio

Paulo Júnio de Lima é Administrador com MBA em Marketing Digital e especialista em estratégia, inovação e gestão de projetos. Na Comunicação e Relações Públicas da Grande Loja Maçônica de Minas Gerais, desenvolve soluções para fortalecimento institucional. Com passagens por ORO, Agência Open, Brasil84 e VTIC, acumula experiência em marketing digital, branding e transformação digital. Certificado pelo IA Lab do Estúdio Kimura, aplica inteligência artificial em design, automação e comunicação. Membro ativo da Ordem DeMolay há mais de 18 anos, atua também em projetos sociais e educacionais.