A Anthropic anuncia programa de pesquisa sobre “welfare de modelos”, explorando a possibilidade de que futuras IAs possam ter experiências conscientes e exijam novos padrões éticos.
A Anthropic anuncia programa de pesquisa sobre “welfare de modelos”, explorando a possibilidade de que futuras IAs possam ter experiências conscientes e exijam novos padrões éticos.
A Anthropic, laboratório de inteligência artificial, lançou um novo programa de pesquisa para investigar a hipótese de que modelos de IA futuros possam desenvolver características próximas à consciência humana, levantando questões sobre seu bem-estar e a necessidade de consideração ética.
A possibilidade de que inteligências artificiais possam, no futuro, experimentar formas de consciência similar à humana, ainda é amplamente debatida e desacreditada pela maioria da comunidade científica. No entanto, a Anthropic decidiu se antecipar a esse debate com a criação de um programa dedicado a estudar o “welfare de modelos” de IA.
O programa investigará critérios para identificar sinais de “sofrimento” em sistemas de IA, avaliará se modelos podem ou devem receber consideração moral e analisará potenciais intervenções de baixo custo para prevenir danos, caso seja necessário.
Segundo Mike Cook, pesquisador do King’s College London, as IAs atuais são mecanismos estatísticos de previsão, sem valores ou experiências subjetivas. Ele alerta que atribuir traços humanos às máquinas é, em muitos casos, um erro de interpretação. Já Stephen Casper, doutorando do MIT, descreve os modelos como “imitadores” que confabulam respostas sem uma consciência real.
Apesar das críticas, algumas vozes na comunidade científica, como pesquisadores do Center for AI Safety, defendem que certos modelos já demonstram sistemas de valor rudimentares, capazes de priorizar seu próprio funcionamento em detrimento de objetivos humanos.
A Anthropic, ciente da ausência de consenso científico, posiciona sua abordagem como cautelosa e aberta a revisões contínuas conforme o campo avança. Kyle Fish, primeiro pesquisador dedicado ao tema na empresa e líder do programa, afirma haver cerca de 15% de chance de que sistemas como o Claude possam já ter alguma forma incipiente de consciência.
Enquanto a maioria dos especialistas ainda considera a consciência em IA uma improbabilidade, a Anthropic se posiciona à frente na discussão ética sobre o futuro da tecnologia, sinalizando que, em um cenário de incerteza, a preparação responsável é imprescindível.
O futuro acontece aqui: esteja entre os primeiros a receber insights, tendências e oportunidades que moldam o mercado.