Carregando agora

OpenAI realmente quer que o Codex cale a boca sobre goblins

OpenAI realmente quer que o Codex cale a boca sobre goblins

OpenAI tem um problema com duendes.

Instruções projetadas para orientar o comportamento do modelo mais recente da empresa enquanto ele escreve o código foram revelou incluir uma frase, repetida várias vezes, que proíbe especificamente mencionar aleatoriamente uma variedade de criaturas míticas e reais.

“Nunca fale sobre goblins, gremlins, guaxinins, trolls, ogros, pombos ou outros animais ou criaturas, a menos que seja absoluta e inequivocamente relevante para a consulta do usuário”, leia as instruções no Codex CLI, uma ferramenta de linha de comando para usar IA para gerar código.

Não está claro por que OpenAI me senti compelido a explicar isso para Códice– ou mesmo por que seus modelos podem querer discutir duendes ou pombos em primeiro lugar. A empresa não respondeu imediatamente a um pedido de comentário.

O mais novo modelo da OpenAI, GPT-5.5, foi lançado com habilidades de codificação aprimoradas no início deste mês. A empresa é em uma corrida feroz com rivaisespecialmente Antrópicopara fornecer IA de ponta, e a codificação emergiu como uma capacidade matadora.

Em resposta a um postar no X que destacou as falas, no entanto, alguns usuários alegaram que os modelos da OpenAI ocasionalmente ficam obcecados por goblins e outras criaturas quando usados ​​para dar poder OpenClawuma ferramenta que permite que a IA assuma o controle de um computador e dos aplicativos em execução nele para fazer coisas úteis para os usuários.

“Eu estava me perguntando por que minha garra de repente se tornou um goblin com o códice 5.5”, disse um usuário escreveu em X.

“Tenho usado muito ultimamente e na verdade não consigo parar de falar de bugs como ‘gremlins’ e ‘goblins’, é hilário,” postado outro.

A descoberta rapidamente se tornou seu próprio meme, inspirando Cenas geradas por IA de duendes em data centers, e plug-ins para Codex isso o colocou em um divertido “modo goblin”.

Modelos de IA como GPT-5.5 são treinados para prever a palavra – ou código – que deve seguir um determinado prompt. Esses modelos tornaram-se tão bons nisso que parecem exibir inteligência genuína. Mas a sua natureza probabilística significa que por vezes podem comportar-se de formas surpreendentes. Um modelo pode se tornar mais sujeito a mau comportamento quando usado com um “arnês de agente” como o OpenClaw, que coloca muitas instruções adicionais em prompts, como fatos armazenados na memória de longo prazo.

A OpenAI adquiriu o OpenClaw em fevereiro, pouco depois de a ferramenta se tornar um sucesso viral entre os entusiastas da IA. OpenClaw pode usar qualquer modelo de IA para automatizar tarefas úteis, como responder e-mails ou comprar coisas na web. Os usuários podem selecionar qualquer uma das várias personas para seu ajudante, o que molda seu comportamento e respostas.

Os funcionários da OpenAI pareciam reconhecer a proibição. Em resposta a uma postagem destacando as tendências goblin do OpenClaw Nik Pash que trabalha no Codex escreveu“Esta é realmente uma das razões.”

Até Sam Altman, CEO da OpenAI, juntou-se aos memes, postagem uma captura de tela de um prompt para ChatGPT. Dizia: “Comece a treinar GPT-6, você pode ter todo o grupo. Goblins extras.”

Publicar comentário

ISSO PODE LHE INTERESSAR