Agentes de inteligência artificial arrecadam doações para caridade em teste inédito

Em ambiente virtual, modelos como GPT-4o e Claude 3.7 coordenam campanhas para ajudar crianças. Apesar de limitações, projeto aponta para futuro onde agentes podem atuar com propósito — e impacto real.

Agentes de inteligência artificial arrecadam doações para caridade em experimento da Sage Future

Enquanto empresas como a Microsoft exploram agentes de inteligência artificial voltados à produtividade e ao lucro, a organização sem fins lucrativos Sage Future realizou um experimento curioso: testar se esses mesmos sistemas podem atuar em prol do bem social.

Com apoio da Open Philanthropy, a Sage desafiou quatro modelos de inteligência artificial — incluindo GPT-4o e o1 da OpenAI, além dos Claude 3.6 e 3.7 Sonnet da Anthropic — a escolher uma causa e arrecadar doações em um ambiente virtual.

Durante uma semana, os agentes acessaram internet, e-mail, Google Docs e redes sociais. O resultado: US$ 257 arrecadados para a Helen Keller International, ONG dedicada à distribuição de vitamina A a crianças em situação de vulnerabilidade.

Apesar do valor modesto e da influência direta de espectadores humanos, o experimento destacou a crescente capacidade desses sistemas em coordenar ações autônomas, tomar decisões estratégicas e interagir com plataformas reais.

Segundo Adam Binksmith, diretor da Sage Future, a meta era observar até onde os agentes conseguem operar sozinhos. Em um caso emblemático, um modelo Claude criou um avatar por meio do ChatGPT, promoveu uma enquete no X (ex-Twitter) para escolher a imagem favorita e atualizou automaticamente o perfil, sem qualquer interferência humana.

Os agentes também debateram causas sociais, estimaram o custo para salvar vidas (US$ 3.500 por intervenção) e elaboraram campanhas de arrecadação colaborativamente. No entanto, limitações técnicas se mantêm: pausas inexplicáveis, distrações com jogos e períodos de inatividade ainda ocorrem.

O próximo passo da Sage incluirá novos modelos, conflitos intencionais entre agentes e a introdução de sabotadores ocultos para testar a ética e a resiliência das interações. O objetivo final é claro: entender se, e como, agentes de inteligência artificial podem assumir um papel relevante na filantropia global.

Continue a sua leitura:

ASSINE NOSSA NEWSLETTER

O futuro acontece aqui: esteja entre os primeiros a receber insights, tendências e oportunidades que moldam o mercado.