A Nvidia apresentou o Nemotron 3 Super 120B — um modelo de linguagem aberto com aumento de velocidade em cinco vezes para agentes de IA.

A Nvidia apresentou o Nemotron 3 Super 120B — um modelo de linguagem aberto com aumento de velocidade em cinco vezes para agentes de IA.

10 hardware

Nova modelo da Nvidia – Nemotron 3 Super

A Nvidia anunciou o lançamento do Nemotron 3 Super, um modelo de IA aberto do tipo Mixture‑of‑Experts (MoE).

* 120 milhões de parâmetros totais, dos quais 12 milhões são ativos.
* Destinado a IA agente – sistemas onde vários “agentes” interagem entre si e com o mundo externo.

Arquitetura
O modelo utiliza uma abordagem híbrida Mamba‑Transformer (combinação de camadas Mamba e elementos Transformer).

No Nemotron 3 Super foi aplicada pela primeira vez a paradigm LatentMoE, as camadas Multi‑Token Prediction e o pré‑treinamento pelo protocolo NVFP4. Segundo a Nvidia, essa pilha aumenta a precisão e acelera a inferência.

Desempenho
* Throughput – até 5× mais rápido que a versão anterior Nemotron Super.
* Precisão – até 2× maior.
* Suporte a janela de contexto de 1 milhão de tokens permite aos agentes armazenar o estado completo do fluxo de trabalho, reduzindo o risco de desvio de objetivo.

Aplicação prática
O Nemotron 3 Super é adequado para tarefas complexas dentro de sistemas multi‑agente:

TarefaExemplo de uso
Geração e depuração de código sem fragmentação em documentosEscrita automática e verificação de programas grandes
Análise financeiraInclusão de milhares de páginas de relatórios na memória do modelo

Treinamento
O modelo foi treinado com dados sintéticos gerados por modelos lógicos de pensamento. A Nvidia divulga a metodologia completa:

* mais de 10 trilhões de tokens antes e depois do treinamento;
* 15 ambientes para aprendizado por reforço;
* receitas de avaliação.

Pesquisadores podem usar a plataforma Nvidia NeMo para ajustar ou criar suas próprias versões do modelo.

Detalhes técnicos
* Suporte NVFP4 na arquitetura Nvidia Blackwell.
* Redução das exigências de memória e aceleração da inferência em quatro vezes comparado ao FP8 na Nvidia Hopper sem perda de precisão.

Disponibilidade
O modelo já está disponível:

* Através de build.nvidia.com, Hugging Face, OpenRouter e Perplexity.
* Parceiros de nuvem: Google Cloud Vertex AI, Oracle Cloud Infrastructure, CoreWeave, Together AI, Baseten, Cloudflare, DeepInfra, Fireworks AI, Modal.
* Como microserviço Nvidia NIM, permitindo implantar o modelo localmente ou na nuvem.

O Nemotron 3 Super abre novas possibilidades para IA agente, combinando alta precisão, escalabilidade e flexibilidade de configuração.

Comentários (0)

Compartilhe sua opinião — por favor, seja educado e mantenha-se no tema.

Ainda não há comentários. Deixe um comentário e compartilhe sua opinião!

Para deixar um comentário, faça login.

Faça login para comentar