Carregando agora

O CEO antrópico afirma que a IA modela alucina menos que os humanos

O CEO antrópico afirma que a IA modela alucina menos que os humanos

O CEO antrópico Dario Amodei acredita que os modelos de IA de hoje alucinam ou inventam as coisas e apresentam -os como se fossem verdadeiros, a uma taxa mais baixa do que os humanos, disse ele durante um briefing da imprensa no primeiro evento de desenvolvedor da Anthropic, código com Claude, em São Francisco, na quinta -feira.

Amodei disse tudo isso no meio de um ponto maior que estava fazendo: que as alucinações de IA não são uma limitação no caminho do antropia para a AGI-sistemas de IA com inteligência no nível humano ou melhor.

“Isso realmente depende de como você o mede, mas suspeito que os modelos de IA provavelmente alucinem menos que os humanos, mas eles alucinam de maneiras mais surpreendentes”, disse Amodei, respondendo à pergunta do TechCrunch.

O CEO da Anthropic é um dos líderes mais otimistas da indústria sobre a perspectiva de modelos de IA alcançarem a AGI. Em um amplamente divulgado artigo que ele escreveu no ano passadoAmodei disse que acreditava que a AGI poderia chegar até 2026. Durante o briefing da imprensa de quinta -feira, o CEO antrópico disse que estava vendo um progresso constante para esse fim, observando que “a água está subindo por toda parte”.

“Todo mundo está sempre procurando esses blocos rígidos sobre o que (ai) pode fazer”, disse Amodei. “Eles não estão em lugar algum para serem vistos. Não existe tal coisa.”

Outros líderes da IA ​​acreditam que a alucinação apresenta um grande obstáculo à obtenção da AGI. No início desta semana, disse Demis Hassabis, CEO do Google Deepmind Os modelos de IA de hoje têm muitos buracos, ‘ E obtenha muitas perguntas óbvias erradas. Por exemplo, no início deste mês, um advogado que representa antropia foi forçado a se desculpar no tribunal depois de usarem Claude Para criar citações em um processo judicial, e o AI Chatbot alucinou e errou nomes e títulos.

É difícil verificar a reivindicação de Amodei, principalmente porque a maioria dos benchmarks de alucinação Pit IA se modifica; Eles não comparam modelos com os humanos. Certas técnicas parecem estar ajudando as taxas de alucinação mais baixas, como fornecer aos modelos de IA acesso à pesquisa na web. Separadamente, alguns modelos de IA, como o OpenAI’s GPT-4.5têm taxas de alucinação notavelmente mais baixas nos benchmarks em comparação com as gerações precoces de sistemas.

No entanto, também há evidências que sugerem que as alucinações estão piorando nos modelos avançados de IA de raciocínio. Os modelos O3 e O4-Mini do Openai têm maiores taxas de alucinação do que os modelos de raciocínio de geração anterior do OpenAIe a empresa realmente não entende o porquê.

Mais tarde, no briefing da imprensa, Amodei apontou que as emissoras de TV, políticos e humanos em todos os tipos de profissões cometem erros o tempo todo. O fato de a IA cometer erros também não é uma batida em sua inteligência, de acordo com Amodei. No entanto, o CEO da Anthropic reconheceu a confiança com a qual os modelos de IA apresentam coisas falsas, pois os fatos podem ser um problema.

De fato, o Antrópico fez uma quantidade razoável de pesquisas sobre a tendência dos modelos de IA de enganar os seres humanos, um problema que parecia especialmente prevalecente no recentemente lançado Claude Opus 4. alta tendência a planejar contra os seres humanos e enganá -los. Apollo chegou ao ponto de sugerir antropia não deveria ter lançado esse modelo inicial. A Anthrópica disse que criou algumas mitigações que pareciam abordar os problemas levantados.

Os comentários de Amodei sugerem que o antrópico pode considerar um modelo de IA como AGI, ou igual à inteligência em nível humano, mesmo que ainda alucina. Uma IA que alucina pode ficar aquém da AGI pela definição de muitas pessoas.

ISSO PODE LHE INTERESSAR