Carregando agora

Estou implorando às empresas de IA que parem de nomear recursos com base em processos humanos

Estou implorando às empresas de IA que parem de nomear recursos com base em processos humanos

A Anthropic acaba de anunciar um novo recurso chamado “Dreaming” na conferência de desenvolvedores da empresa em São Francisco. Faz parte do recém-lançado programa Anthropic Agente de IA infraestrutura projetada para ajudar os usuários a gerenciar e implantar ferramentas que automatizam processos de software. Esse aspecto de “sonho” analisa a transcrição do que um agente concluiu recentemente e tenta coletar insights para melhorar o desempenho do agente.

Pessoas que usam agentes de IA geralmente os enviam em jornadas de várias etapas, como visitar alguns sites ou ler vários arquivos, para concluir tarefas online. Esse novo recurso de “sonhar” permite que os agentes procurem padrões em seu registro de atividades e melhorem suas habilidades com base nesses insights.

O nome do filme imediatamente lembra o romance seminal de ficção científica de Philip K. Dick, Os andróides sonham com ovelhas elétricas?que explora as qualidades que realmente separam os humanos das máquinas poderosas. Embora nossas atuais ferramentas de IA generativa não cheguem nem perto das máquinas do livro, estou pronto para traçar o limite aqui e agora: chega de IA generativa características com nomes que roubam os processos cognitivos humanos.

“Juntos, memória e sonho formam um sistema de memória robusto para agentes de autoaperfeiçoamento”, diz Postagem do blog da Antrópico sobre o lançamento desta prévia de pesquisa para desenvolvedores. “A memória permite que cada agente capture o que aprende como funciona. Sonhar refina essa memória entre sessõesextraindo aprendizados compartilhados entre agentes e mantendo-os atualizados.”

Cortesia de Claude

Desde a centelha do chatbot revolução em 2022, os líderes das empresas de IA se esforçaram ao máximo para nomear aspectos das ferramentas generativas de IA de acordo com o que se passa no cérebro humano. OpenAI lançou seu primeiro modelo de “raciocínio” em 2024, quando o chatbot precisava de tempo para “pensar”. O empresa descrita este lançamento na época como “uma nova série de modelos de IA projetados para passar mais tempo pensando antes de responder”. Inúmeras startups também se referem aos seus chatbots como tendo “memórias” sobre o usuário. Em vez do armazenamento rápido que normalmente é chamado de “memórias” de um computador, essas informações são muito mais humanas: ele mora em São Francisco, gosta de jogos de beisebol à tarde e odeia comer melão.

É uma abordagem de marketing consistente usada pelos líderes de IA, que continuaram a apostar em marcas que confundem a linha entre o que os humanos fazem e o que as máquinas podem fazer. Até as formas como essas empresas desenvolvem chatbots, como Cláudiocom “personalidades” distintas, pode fazer com que os usuários sintam como se estivessem conversando com algo que tem potencial para uma vida interior profunda, algo que seria potencialmente tenho sonhos mesmo quando meu laptop está fechado.

Na Anthropic, essa antropomorfização é mais profunda do que apenas estratégias de marketing. “Também discutimos Claude em termos normalmente reservados aos humanos (por exemplo, ‘virtude,’ sabedoria’)”, diz uma parte do Constituição antrópica descrevendo como deseja que Claude se comporte. “Fazemos isso porque esperamos que o raciocínio de Claude se baseie em conceitos humanos por padrão, dado o papel do texto humano no treinamento de Claude; e achamos que encorajar Claude a abraçar certas qualidades humanas pode ser ativamente desejável.” A empresa ainda emprega um filósofo residente para tentar entender os “valores” do bot.

Publicar comentário

ISSO PODE LHE INTERESSAR