Carregando agora

Meta precisa conquistar os desenvolvedores de IA em seu primeiro Llamacon

Mark Zuckerberg, chief executive officer of Meta Platforms Inc., during the Meta Connect event in Menlo Park, California, US, on Wednesday, Sept. 25, 2024. Meta Platforms Inc. debuted its first pair of augmented reality glasses, devices that show a combined view of the digital and physical worlds, a key step in Chief Executive Officer Mark Zuckerberg's goal of one day offering a hands-free alternative to the smartphone. Photographer: David Paul Morris/Bloomberg via Getty Images

Na terça -feira, Meta está hospedando Seu primeiro Llamacon A IA Developer Conference em sua sede da Menlo Park, onde a empresa tentará lançar desenvolvedores na construção de aplicativos com seus modelos abertos de IA de llama. Apenas um ano atrás, isso não era uma venda difícil.

No entanto, nos últimos meses, a Meta lutou para acompanhar os laboratórios de IA “abertos”, como Deepseek e concorrentes comerciais fechados, como o Openai, na corrida de IA em rápida evolução. O Llamacon vem em um momento crítico para a Meta em sua busca para construir um ecossistema de lhama.

Os desenvolvedores vencedores podem ser tão simples quanto o envio de melhores modelos abertos. Mas isso pode ser mais difícil de alcançar do que parece.

Um início promissor precoce

Meta’s Lançamento de Llama 4 no início deste mês Desenvolvedores desapontados, com várias pontuações de referência chegando abaixo de modelos como R1 e V3 da Deepseek. Estava muito longe do que Llama já foi: uma linha de modelos de empurramento de limites.

Quando a Meta lançou seu modelo LLAMA 3.1 405B no verão passado, o CEO Mark Zuckerberg elogiou -o como uma grande vitória. Em um Postagem do blogMeta chamado LLAMA 3.1 405B O “Modelo de Fundação Abertamente Disponível Aberta”, com o melhor modelo de desempenho do OpenAI na época, GPT-4O.

Foi um modelo impressionante, com certeza – e os outros modelos da família Llama 3 da Meta. Jeremy Nixon, que recebeu hackathons na AGI House de São Francisco nos últimos anos, chamado Llama 3 lança “momentos históricos”.

Llama 3, sem dúvida, fez da Meta uma querida entre os desenvolvedores da IA, oferecendo desempenho de ponta com a liberdade de hospedar os modelos onde quer que eles escolherem. Hoje, o modelo Llama 3.3 da Meta é baixado com mais frequência do que o lhama 4, disse a cabeça de produto e crescimento do Face, Jeff Boudier, em uma entrevista.

Contraste isso com a recepção à família Llama 4 da Meta, e a diferença é acentuada. Mas Llama 4 foi controverso desde o início.

Benchmarking Shenanigans

Meta otimizou uma versão de um de seus modelos LLAMA 4, Llama 4 Maverick, para “Conversationality”, o que o ajudou a conquistar um primeiro lugar na arena LM de referência de crowdsourcing. Meta nunca lançou este modelo, no entanto – a versão do Maverick que lançou amplamente acabou tendo um desempenho muito pior na LM Arena.

O grupo por trás da LM Arena disse que meta deveria ter sido “mais claro” sobre a discrepância. A Ion Stoica, co-fundadora da LM Arena e professora da UC Berkeley, que também co-fundou empresas como qualquer escala e banco de dados, disse ao TechCrunch que o incidente prejudicou a confiança da comunidade de desenvolvedores em meta.

“(Meta) deveria ter sido mais explícito que o modelo Maverick que estava (LM Arena) era diferente do modelo lançado”, disse Stoica ao TechCrunch em entrevista. “Quando isso acontece, é um pouco de perda de confiança com a comunidade. É claro que eles podem recuperá -lo liberando melhores modelos”.

Sem raciocínio

Uma omissão gritante da família Llama 4 era um modelo de raciocínio de IA. Os modelos de raciocínio podem funcionar com cuidado através de perguntas antes de respondê -las. No ano passado, grande parte do A indústria de IA lançou modelos de raciocínioque tendem a ter um melhor desempenho em benchmarks específicos.

Meta’s Provocando um modelo de raciocínio llama 4mas a empresa não indicou quando esperar.

Nathan Lambert, pesquisador da AI2, diz que o fato de Meta não ter lançado um modelo de raciocínio com a LLama 4 sugere que a empresa pode ter apressado o lançamento.

“Todo mundo está lançando um modelo de raciocínio, e isso faz com que seus modelos pareçam tão bons”, disse Lambert. “Por que não poderia (meta) esperar para fazer isso? Eu não tenho a resposta para essa pergunta. Parece uma estranheza normal da empresa.”

Lambert observou que os modelos abertos rivais estão mais próximos da fronteira do que nunca, e que agora vêm em mais formas e tamanhos – aumentando bastante a pressão sobre a meta. Por exemplo, na segunda -feira, Alibaba lançou uma coleção de modelos, Qwen 3que supostamente superava alguns dos melhores modelos de codificação do OpenAI e do Google no Code Forces, um benchmark de programação.

Para recuperar o líder do modelo aberto, a Meta simplesmente precisa fornecer modelos superiores, de acordo com Ravid Shwartz-Ziv, pesquisador de IA do Centro de Ciência de Dados da NYU. Isso pode envolver correr mais riscos, como empregar novas técnicas, disse ele à TechCrunch.

Não está claro se a Meta está em posição de assumir grandes riscos. Os funcionários atuais e ex -funcionários disseram anteriormente Fortuna O Laboratório de Pesquisa da AI da Meta está “morrendo de morte lenta”. O vice -presidente de pesquisa da AI da empresa, Joelle Pineau, anunciou este mês que ela estava saindo.

Llamacon tem a chance do Meta de mostrar o que está cozinhando para vencer os próximos lançamentos da AI Labs como Openai, Google, Xai e outros. Se não conseguir entregar, a empresa poderá ficar ainda mais atrás no espaço ultra competitivo.

Publicar comentário

ISSO PODE LHE INTERESSAR