A Nvidia está se preparando para a batalha de inferência, criando um chip baseado nas tecnologias Groq para o OpenAI e agentes de IA.

A Nvidia está se preparando para a batalha de inferência, criando um chip baseado nas tecnologias Groq para o OpenAI e agentes de IA.

11 hardware

Novo chip da Nvidia – passo para aplicações de IA mais rápidas

A Nvidia planeja lançar em março um novo processador criado especificamente para acelerar a inferência (cálculos de modelos já treinados) e voltado para clientes como a OpenAI. Essa mudança de direção vem de uma empresa que anteriormente se concentrava principalmente no treinamento de sistemas de IA.

O que exatamente aparecerá
- A nova plataforma será apresentada na conferência de desenvolvedores GTC (Graphics Technology Conference).

- O núcleo da plataforma incluirá um chip da startup Groq – uma das soluções mais rápidas para inferência.

- A plataforma deve competir com os próprios aceleradores da Google e da Amazon, que já alcançaram sucessos significativos.

Por que isso é importante
Com o crescimento da popularidade do “web‑coding” (geração de código IA a partir de texto), a demanda por infraestrutura rápida e energeticamente eficiente aumenta.

Para a OpenAI, o novo processador se torna um fator chave:

- Em janeiro, a empresa firmou acordo com a Cerebras sobre um chip voltado para inferência que, segundo eles, é mais rápido que os concorrentes.

- No dia anterior à declaração da OpenAI de um grande negócio com a Nvidia, em que receberam “capacidades dedicadas para inferência” e investiram 30 bilhões de dólares do fabricante “verde”.

Ambiente competitivo
Empresa | Produto | Orientação
Nvidia | GPU das famílias Hopper, Blackwell, Rubin | Treinamento e inferência
Google | TPU | Inferência
Amazon | Trainium | Inferência
Cerebras | Chip especializado | Inferência
Groq | Chips com “blocos de processamento de linguagem” | Inferência

A Nvidia detém mais de 90 % da fatia do mercado de GPUs, mas seus chips costumam ser considerados caros e energeticamente intensivos para tarefas de inferência. Isso atrai a atenção de empresas que buscam alternativas.

Aplicações-chave
- Geração de código: serviços Claude Code (Anthropic) e Codex (OpenAI) utilizam infraestruturas em nuvem da Amazon e Google, mas o Codex planeja migrar para a nova plataforma Nvidia.

- Publicidade direcionada: a Meta colabora com a Nvidia para inferência de sistemas de IA, onde os processadores centrais se mostram mais eficientes.

Conclusão
A Nvidia não apenas expande sua linha de produtos, mas também entra em concorrência direta com gigantes da indústria. O novo chip integrado à startup Groq pode ser o fator decisivo para empresas que buscam processamento de modelos de IA mais rápido e econômico.

Comentários (0)

Compartilhe sua opinião — por favor, seja educado e mantenha-se no tema.

Ainda não há comentários. Deixe um comentário e compartilhe sua opinião!

Para deixar um comentário, faça login.

Faça login para comentar