Em ambiente virtual, modelos como GPT-4o e Claude 3.7 coordenam campanhas para ajudar crianças. Apesar de limitações, projeto aponta para futuro onde agentes podem atuar com propósito — e impacto real.
Em ambiente virtual, modelos como GPT-4o e Claude 3.7 coordenam campanhas para ajudar crianças. Apesar de limitações, projeto aponta para futuro onde agentes podem atuar com propósito — e impacto real.
Agentes de inteligência artificial arrecadam doações para caridade em experimento da Sage Future
Enquanto empresas como a Microsoft exploram agentes de inteligência artificial voltados à produtividade e ao lucro, a organização sem fins lucrativos Sage Future realizou um experimento curioso: testar se esses mesmos sistemas podem atuar em prol do bem social.
Com apoio da Open Philanthropy, a Sage desafiou quatro modelos de inteligência artificial — incluindo GPT-4o e o1 da OpenAI, além dos Claude 3.6 e 3.7 Sonnet da Anthropic — a escolher uma causa e arrecadar doações em um ambiente virtual.
Durante uma semana, os agentes acessaram internet, e-mail, Google Docs e redes sociais. O resultado: US$ 257 arrecadados para a Helen Keller International, ONG dedicada à distribuição de vitamina A a crianças em situação de vulnerabilidade.
Apesar do valor modesto e da influência direta de espectadores humanos, o experimento destacou a crescente capacidade desses sistemas em coordenar ações autônomas, tomar decisões estratégicas e interagir com plataformas reais.
Segundo Adam Binksmith, diretor da Sage Future, a meta era observar até onde os agentes conseguem operar sozinhos. Em um caso emblemático, um modelo Claude criou um avatar por meio do ChatGPT, promoveu uma enquete no X (ex-Twitter) para escolher a imagem favorita e atualizou automaticamente o perfil, sem qualquer interferência humana.
Os agentes também debateram causas sociais, estimaram o custo para salvar vidas (US$ 3.500 por intervenção) e elaboraram campanhas de arrecadação colaborativamente. No entanto, limitações técnicas se mantêm: pausas inexplicáveis, distrações com jogos e períodos de inatividade ainda ocorrem.
O próximo passo da Sage incluirá novos modelos, conflitos intencionais entre agentes e a introdução de sabotadores ocultos para testar a ética e a resiliência das interações. O objetivo final é claro: entender se, e como, agentes de inteligência artificial podem assumir um papel relevante na filantropia global.
Continue a sua leitura:
O futuro acontece aqui: esteja entre os primeiros a receber insights, tendências e oportunidades que moldam o mercado.
Assine a newsletter do AI Business Journal e receba, toda semana, os principais insights,
movimentos estratégicos e tendências que estão transformando
o mundo dos negócios com inteligência artificial.