A Amazon planeja implantar modelos de IA em enormes chips Cerebras.

A Amazon planeja implantar modelos de IA em enormes chips Cerebras.

11 hardware

Amazon e Cerebras unem forças para acelerar grandes modelos de linguagem

A Amazon Web Services (AWS) anunciou que, no meio de 2026, começará a usar chips da startup Cerebras Systems Inc. em conjunto com seus próprios processadores Trainium. De acordo com informações internas da empresa, isso permitirá criar “condições ideais” para o lançamento e manutenção de grandes modelos de linguagem (LLM). Os detalhes financeiros do negócio ainda não foram divulgados.

O que exatamente acontecerá
* Os chips Trainium 3 da AWS tratarão as solicitações dos usuários – “entender” seu significado.

* Em seguida, os chips Cerebras Wafer‑Scale Engine (WSE) se encarregarão de gerar a resposta.

Assim, dois aceleradores especializados trabalham em conjunto e fornecem cálculos de inferência para LLM.

> “A interação entre diferentes componentes geralmente desacelera o processo,” observa Nafea Bshara, vice-presidente da AWS. – “Mas buscamos obter vantagem usando chips que processam inferências mais rapidamente.”

A vantagem é especialmente notável onde a velocidade de resposta é crucial: por exemplo, na escrita passo a passo de código ou na geração de texto em tempo real.

Por que isso importa
* A Amazon é um dos maiores provedores de nuvem e usuário ativo de GPUs da Nvidia. Atualmente, a empresa está desenvolvendo seus próprios chips de IA para aumentar a eficiência dos data centers e oferecer serviços únicos aos clientes.

* Para a Cerebras, a parceria com a AWS representa o primeiro grande contrato do gigante de data centers, aumentando o reconhecimento da marca no mercado potencial. Isso também é importante na preparação para seu IPO planejado.

Conclusões
AWS e Cerebras estão criando conjuntamente uma nova infraestrutura para grandes modelos de linguagem: os chips Trainium 3 tratam as solicitações, enquanto os WSE geram respostas. Embora um serviço exclusivo em Trainium possa ser mais barato, a solução combinada promete aceleração significativa onde “tempo é dinheiro”. Isso fortalece a posição da Amazon como grande cliente da Nvidia e simultaneamente impulsiona seus próprios chips de IA rumo a maior eficiência.

Comentários (0)

Compartilhe sua opinião — por favor, seja educado e mantenha-se no tema.

Ainda não há comentários. Deixe um comentário e compartilhe sua opinião!

Para deixar um comentário, faça login.

Faça login para comentar