Carregando agora

Uma organização sem fins lucrativos está usando agentes de IA para arrecadar dinheiro para caridade

Robot concept or robot hand chatbot pressing computer keyboard enter

Gigantes da tecnologia como a Microsoft podem estar divulgando “agentes” de IA como Ferramentas para aumentar o lucro para empresasmas uma organização sem fins lucrativos está tentando provar que os agentes também podem ser uma força para o bem.

O Sage Future, um 501 (c) (3) apoiado pela Filantropia Open, lançou um experimento no início deste mês, fazendo quatro modelos de IA em um ambiente virtual com arrecadar dinheiro para caridade. Os modelos-o GPT-4O e O1 do Openai e dois dos modelos Claude mais recentes do Anthrópio (3,6 e 3,7 sonetos)-tiveram a liberdade de escolher qual instituição de caridade arrecadar fundos e como melhor provocar interesse em sua campanha.

Em cerca de uma semana, o quarteto Agentic teve levantou US $ 257 para Helen Keller Internationalque financia programas para fornecer suplementos de vitamina A para crianças.

Para ficar claro, os agentes não eram totalmente autônomos. Em seu ambiente, o que lhes permite navegar na web, criar documentos e mais, os agentes podem receber sugestões dos espectadores humanos que observam seu progresso. E as doações vieram quase inteiramente desses espectadores. Em outras palavras, os agentes não arrecadaram muito dinheiro organicamente.

Ainda assim, o diretor da Sage, Adam Binksmith, acha que o experimento serve como uma ilustração útil dos recursos atuais dos agentes e a taxa na qual estão melhorando.

“Queremos entender – e ajudar as pessoas a entender – o que os agentes … podem realmente fazer, com o que eles lutam atualmente e assim por diante”, disse Binksmith ao TechCrunch em uma entrevista. “Os agentes de hoje estão apenas passando o limiar de poder executar seqüências curtas de ações – a Internet pode estar cheia de agentes de IA em breve e interagir com objetivos semelhantes ou conflitantes”.

Os agentes provaram ser surpreendentemente dias de novo no teste de Sage. Eles se coordenaram em um bate -papo em grupo e enviaram e -mails por meio de contas pré -configuradas do Gmail. Eles criaram e editaram o Google Docs juntos. Eles pesquisaram instituições de caridade e estimaram a quantidade mínima de doações necessárias para salvar uma vida através da Helen Keller International (US $ 3.500). E eles até criou uma conta x para promoção.

“Provavelmente a sequência mais impressionante que vimos foi quando (um agente de Claude) precisava de uma imagem de perfil para sua conta X”, disse Binksmith. “Ele se inscreveu em uma conta de chatgpt gratuito, gerou três imagens diferentes, criou uma pesquisa on -line para ver qual imagem os espectadores humanos preferiram, depois baixou essa imagem e o enviou para X para usar como seu perfil.”

Os agentes também enfrentaram obstáculos técnicos. Ocasionalmente, eles ficaram presos – os espectadores tiveram que solicitá -los com recomendações. Eles se distraíram com jogos como o World e fizeram pausas inexplicáveis. Em uma ocasião, o GPT-4o “parou” por uma hora.

Binksmith acha que os agentes de IA mais novos e capazes superarão esses obstáculos. A Sage planeja adicionar continuamente novos modelos ao ambiente para testar essa teoria.

“Possivelmente no futuro, tentaremos dar aos agentes objetivos diferentes, várias equipes de agentes com objetivos diferentes, um agente secreto de sabotador – muitas coisas interessantes para experimentar”, disse ele. “À medida que os agentes se tornam mais capazes e mais rápidos, combinaremos isso com sistemas de monitoramento e supervisão automatizados maiores para fins de segurança”.

Com alguma sorte, no processo, os agentes farão algum trabalho filantrópico significativo.



Publicar comentário

ISSO PODE LHE INTERESSAR