Nvidia a présenté le Nemotron 3 Super 120B, un modèle de langage ouvert offrant une augmentation de cinq fois la vitesse pour les agents d’IA.
Nouvelle modèle de Nvidia – Nemotron 3 Super
Nvidia a annoncé le lancement du Nemotron 3 Super, un modèle d’IA ouvert de type Mixture‑of‑Experts (MoE).
* 120 milliards de paramètres totaux, dont 12 milliards actifs.
* Destiné à l’IA agentielle – systèmes où plusieurs « agents » interagissent entre eux et avec le monde extérieur.
Architecture
Le modèle utilise une approche hybride Mamba‑Transformer (combinaison de couches Mamba et éléments Transformer).
Dans Nemotron 3 Super, la première fois qu’on applique la paradigme LatentMoE, les couches Multi‑Token Prediction et l’apprentissage préalable selon le protocole NVFP4. Selon Nvidia, cette pile augmente la précision et accélère l’inférence.
Performance
* Bande passante – jusqu’à 5× plus rapide que la version précédente Nemotron Super.
* Précision – jusqu’à 2× supérieure.
* Support d’une fenêtre contextuelle de 1 million de tokens permet aux agents de conserver l’état complet du flux de travail, réduisant le risque d’écart par rapport à l’objectif.
Applications pratiques
Nemotron 3 Super est bien adapté aux tâches complexes au sein de systèmes multi‑agents :
| Tâche | Exemple d’utilisation |
|---|---|
| Génération et débogage de code sans découpage en documents | Rédaction automatique et vérification de gros programmes |
| Analyse financière | Intégration de milliers de pages de rapports dans la mémoire du modèle |
Entraînement
Le modèle a été entraîné sur des données synthétiques créées à l’aide de modèles logiques de pensée. Nvidia révèle la méthodologie complète :
* plus de 10 trillions de tokens avant et après l’entraînement ;
* 15 environnements pour l’apprentissage par renforcement ;
* recettes d’évaluation.
Les chercheurs peuvent utiliser la plateforme Nvidia NeMo pour ajuster davantage ou créer leurs propres versions du modèle.
Détails techniques
* Support NVFP4 sur l’architecture Nvidia Blackwell.
* Réduction des exigences mémoire et accélération de la sortie quatre fois par rapport à FP8 sur Nvidia Hopper sans perte de précision.
Disponibilité
Le modèle est déjà disponible :
* Via build.nvidia.com, Hugging Face, OpenRouter et Perplexity.
* Partenaires cloud : Google Cloud Vertex AI, Oracle Cloud Infrastructure, CoreWeave, Together AI, Baseten, Cloudflare, DeepInfra, Fireworks AI, Modal.
* En tant que micro‑service Nvidia NIM, permettant de déployer le modèle localement ou dans le cloud.
Nemotron 3 Super ouvre de nouvelles possibilités pour l’IA agentielle, combinant haute précision, évolutivité et flexibilité d’ajustement.
Commentaires (0)
Partagez votre avis — merci de rester courtois et dans le sujet.
Connectez-vous pour commenter