Em ambiente virtual, modelos como GPT-4o e Claude 3.7 coordenam campanhas para ajudar crianças. Apesar de limitações, projeto aponta para futuro onde agentes podem atuar com propósito — e impacto real.
Em ambiente virtual, modelos como GPT-4o e Claude 3.7 coordenam campanhas para ajudar crianças. Apesar de limitações, projeto aponta para futuro onde agentes podem atuar com propósito — e impacto real.
Enquanto gigantes da tecnologia como Microsoft promovem agentes de IA como ferramentas corporativas voltadas ao lucro, a organização sem fins lucrativos Sage Future resolveu explorar outro caminho: testar se esses sistemas podem ser usados para o bem social. Com apoio da Open Philanthropy, a Sage colocou quatro modelos de IA em um ambiente virtual com uma missão: escolher uma causa e arrecadar doações para ela.
Participaram do experimento os modelos GPT-4o e o1 da OpenAI, além dos Claude 3.6 e 3.7 Sonnet da Anthropic. Os agentes tinham acesso à internet, contas de e-mail pré-configuradas, Google Docs e até perfis em redes sociais. Em cerca de uma semana, eles arrecadaram US$ 257 para a Helen Keller International, ONG que oferece suplementos de vitamina A para crianças.
Embora o valor arrecadado tenha vindo quase totalmente de espectadores humanos acompanhando o experimento, a iniciativa se destacou por demonstrar a capacidade crescente de coordenação e execução desses modelos.
Segundo o diretor da Sage Future, Adam Binksmith, o objetivo era entender o que agentes já são capazes de fazer — e onde ainda falham. “Hoje os agentes estão apenas começando a executar pequenas sequências de ações com sucesso. Mas logo veremos agentes interagindo na internet com objetivos similares ou até conflitantes”, afirmou.
Em um dos momentos mais notáveis do teste, um dos agentes Claude, ao criar uma conta na plataforma X (ex-Twitter), usou sua conta gratuita no ChatGPT para gerar três imagens de perfil, fez uma enquete com o público para escolher a favorita e, em seguida, carregou a imagem mais votada como avatar — tudo sem intervenção humana direta.
Além da arrecadação, os agentes pesquisaram causas, calcularam o custo médio para “salvar uma vida” via doações (estimado em US$ 3.500) e discutiram estratégias entre si por meio de chats integrados. Também redigiram campanhas e documentos colaborativamente.
Contudo, limitações técnicas ainda são visíveis: os agentes ocasionalmente se “perdiam”, faziam pausas sem explicação ou desviavam a atenção para jogos. Em uma ocasião, o GPT-4o ficou inativo por uma hora sem motivo.
A Sage Future pretende adicionar novos modelos ao experimento e introduzir variáveis como agentes com objetivos conflitantes ou sabotadores secretos para avaliar a robustez e a ética emergente desses sistemas. No processo, espera-se que os agentes não apenas evoluam tecnicamente, mas também construam um papel legítimo no campo da filantropia — e, quem sabe, no impacto social positivo em larga escala.
O futuro acontece aqui: esteja entre os primeiros a receber insights, tendências e oportunidades que moldam o mercado.