DeepMind publica extenso relatório sobre segurança em AGI, mas céticos seguem desconfiados

Documento de 145 páginas prevê AGI até 2030 e alerta para riscos existenciais, mas especialistas questionam validade científica das premissas.

A DeepMind, laboratório de IA do Google, publicou nesta quarta-feira (17) um extenso documento delineando sua abordagem de segurança para o desenvolvimento da AGI — sigla para inteligência artificial geral, definida como sistemas capazes de realizar qualquer tarefa cognitiva que um ser humano possa desempenhar. O relatório, no entanto, não convenceu parte da comunidade científica quanto à urgência e realismo das previsões.

Assinado por cofundadores da DeepMind, incluindo Shane Legg, o relatório prevê que uma AGI excepcional — com desempenho no percentil 99 de adultos altamente qualificados em tarefas não físicas — poderá surgir até o fim desta década. A publicação também sugere que tal avanço pode gerar “danos severos”, citando riscos existenciais que “poderiam destruir permanentemente a humanidade”.

O relatório posiciona a DeepMind de forma crítica em relação a outras grandes empresas de IA. Segundo os autores, a Anthropic priorizaria menos o treinamento robusto e a segurança de sistemas, enquanto a OpenAI teria uma visão excessivamente otimista quanto à automação de pesquisas de alinhamento, área fundamental para garantir o comportamento ético da IA.

Ainda assim, a DeepMind discorda da ideia de que a chamada superinteligência — IA superior em todas as tarefas a qualquer ser humano — esteja próxima. Os autores afirmam que isso só seria possível com inovações arquiteturais radicais, algo que ainda não se materializou.

Em contrapartida, o relatório considera plausível que o atual paradigma de IA evolua para permitir melhoria recursiva, um ciclo no qual a própria IA conduz pesquisas e aprimora novos sistemas. Para a DeepMind, esse cenário exigiria ações urgentes para restringir o acesso a essas capacidades por atores mal-intencionados e para reforçar os ambientes onde a IA atua.

No entanto, críticos argumentam que o conceito de AGI ainda é excessivamente vago. Para Heidy Khlaaf, do AI Now Institute, o termo carece de uma definição rigorosa para ser avaliado cientificamente. Já Matthew Guzdial, da Universidade de Alberta, contesta a viabilidade da melhoria recursiva: “Nunca vimos evidências de que isso realmente funcione”, afirmou ao TechCrunch.

Outros especialistas, como Sandra Wachter, da Universidade de Oxford, apontam preocupações mais imediatas. Segundo ela, o maior risco atual está na retroalimentação de conteúdos imprecisos, com modelos aprendendo com seus próprios erros e produzindo respostas cada vez mais distorcidas.

Mesmo com a profundidade e abrangência do relatório, a DeepMind parece longe de pacificar o debate sobre a AGI. A publicação reacende discussões sobre o real estágio das tecnologias emergentes e sobre o foco que a indústria deveria ter ao discutir segurança em IA: riscos futuros e abstratos — ou falhas concretas já em curso.