Em outra reviravolta para os chips de IA, Meta assina acordo para milhões de CPUs de IA da Amazon
A Amazon acaba de conseguir um grande golpe com o Meta, graças, mais uma vez, aos chips produzidos internamente pela Amazon. Meta assinou um acordo para usar milhões de AWS Graviton chips para atender às suas crescentes necessidades de IA, anunciou a Amazon na sexta-feira.
Observe que o AWS Graviton é uma CPU baseada em ARM (uma unidade de processamento central, o chip que lida com tarefas gerais de computação) e não uma GPU (uma unidade de processamento gráfico).
Embora as GPUs continuem sendo o chip preferido para treinar modelos grandes, uma vez que esses modelos são treinados, os agentes de IA construídos sobre eles estão causando uma mudança no tipo de chip necessário. Os agentes criam cargas de trabalho com uso intensivo de computação, como raciocínio em tempo real, escrita de código, pesquisa e coordenação envolvida no gerenciamento de agentes por meio de tarefas de várias etapas. A versão mais recente do Graviton da AWS foi projetada especificamente para lidar com necessidades de computação relacionadas à IA, afirma a empresa.
Este acordo traz mais dinheiro da Meta de volta para a AWS, em vez de concorrentes como o Google Cloud. Em agosto passado, Meta assinou um contrato de seis anos e US$ 10 bilhões com o Google Cloudembora a Meta fosse, até então, principalmente um cliente da AWS que também usava o Microsoft Azure.
Não pudemos deixar de notar que a AWS cronometrou o anúncio deste acordo bem no final da conferência Google Cloud Next, como um sorriso virtual para seu rival na nuvem. O Google, é claro, também fabrica seus próprios chips de IA personalizados e anunciou novas versões deles no show.
É verdade que a Amazon também fabrica sua própria GPU de IA: o Trainium, que, apesar do nome, é usado tanto para treinamento quanto para inferência – o estágio que acontece depois que um modelo é treinado, quando ele processa ativamente os prompts.
Mas a Anthropic já havia entrado em ação com um acordo anunciado anteriormente este mês que confiscou muitos desses chips nos próximos anos. O fabricante de Claude concordou em gastar US$ 100 bilhões ao longo de 10 anos para executar suas cargas de trabalho na AWS – com foco particular no Trainium – enquanto a Amazon concordou em investir outros US$ 5 bilhões (elevando seu total para US$ 13 bilhões de investimento) na Anthropic em troca.
Evento Techcrunch
São Francisco, Califórnia
|
13 a 15 de outubro de 2026
Em última análise, o acordo Meta permite que a Amazon apresente um grande cliente de IA como um ponto de prova para suas CPUs desenvolvidas internamente. São chips que competem com o novo CPU Vera da Nvidia, que também é baseado em ARM e projetado para lidar com cargas de trabalho de agente de IA. A diferença, claro, é que a Nvidia vende seus chips e sistemas de IA para empresas e provedores de nuvem (incluindo AWS). A AWS só vende acesso aos seus chips por meio de seu serviço de nuvem.
No início deste mês, o CEO da Amazon, Andy Jassy mirou na Nvidia e na Intel em sua carta anual aos acionistas, dizendo que as empresas desejam melhores relações preço-desempenho para IA e que ele pretende fechar negócios com base nisso. Isso também significa que a pressão não poderia ser maior para a equipe interna de construção de chips da Amazon entregar, uma equipe que visitamos no mês passado em um tour exclusivo pelo laboratório deles.
Quando você compra por meio de links em nossos artigos, podemos ganhar uma pequena comissão. Isso não afeta nossa independência editorial.



Publicar comentário