Nvidia se prépare à la bataille de l'inférence en créant une puce basée sur les technologies Groq pour OpenAI et les agents d'IA.
Nouvelle puce Nvidia – un pas vers des applications IA plus rapides
Nvidia prévoit de présenter en mars un nouveau processeur conçu spécialement pour accélérer l’inférence (calculs sur des modèles déjà entraînés) et destiné à des clients comme OpenAI. Il s’agit d’une orientation nouvelle pour une société qui se concentrait auparavant principalement sur l’entraînement des systèmes IA.
Ce qui va apparaître
- La nouvelle plateforme sera présentée lors de la conférence développeurs GTC (Graphics Technology Conference).
- Le cœur de la plateforme comprendra une puce du startup Groq – l’un des solutions les plus rapides pour l’inférence.
- La plateforme doit concurrencer les accélérateurs internes de Google et d’Amazon, qui ont déjà obtenu des succès significatifs.
Pourquoi c’est important
Avec la popularité croissante du « web‑coding » (génération de code IA à partir de texte), la demande en infrastructure rapide et éco‑énergétique augmente.
Pour OpenAI, le nouveau processeur devient un facteur clé :
- En janvier, l’entreprise a conclu un accord avec Cerebras pour une puce orientée vers l’inférence, qu’ils estiment plus rapide que les concurrents.
- Le jour précédent, OpenAI a annoncé un important accord avec Nvidia, dans lequel ils ont obtenu « des capacités dédiées à l’inférence » et investi 30 milliards de dollars auprès du fabricant « vert ».
Environnement concurrentiel
| Société | Produit | Orientation |
|---------|---------|-------------|
| Nvidia | GPU famille Hopper, Blackwell, Rubin | Entraînement et inférence |
| Google | TPU | Inférence |
| Amazon | Trainium | Inférence |
| Cerebras | Puce spécialisée | Inférence |
| Groq | Puces avec « blocs de traitement du langage » | Inférence |
Nvidia détient plus de 90 % du marché des GPU, mais ses puces sont souvent jugées coûteuses et énergivores pour les tâches d’inférence. Cela attire l’attention des entreprises cherchant une alternative.
Applications clés
- Génération de code : les services Claude Code (Anthropic) et Codex (OpenAI) utilisent les infrastructures cloud d’Amazon et de Google, mais Codex prévoit de passer à la nouvelle plateforme Nvidia.
- Ciblage publicitaire : Meta collabore avec Nvidia pour l’inférence des systèmes IA, où les processeurs centraux se révèlent les plus efficaces.
Conclusion
Nvidia ne fait pas seulement évoluer sa gamme de produits, elle entre également en concurrence directe avec les géants du secteur. La nouvelle puce intégrée à la startup Groq pourrait devenir un facteur décisif pour les entreprises cherchant une traitement des modèles IA plus rapide et économique.
Commentaires (0)
Partagez votre avis — merci de rester courtois et dans le sujet.
Connectez-vous pour commenter