Amazon prévoit de déployer des modèles d'IA sur d'immenses puces Cerebras.
Amazon et Cerebras unissent leurs forces pour accélérer les grands modèles linguistiques
Amazon Web Services (AWS) a annoncé qu’elle commencera à utiliser, dès le milieu de 2026, les puces du start‑up Cerebras Systems Inc. en complément de ses propres processeurs Trainium. Selon l’information interne de la société, cela permettra de créer « des conditions optimales » pour le déploiement et la maintenance de grands modèles linguistiques (LLM). Les détails financiers de l’accord ne sont pas encore divulgués.
Ce qui se passe exactement
* Les puces Trainium 3 d’AWS traiteront les requêtes utilisateurs – « comprendre » leur sens.
* Ensuite, les puces Cerebras Wafer‑Scale Engine (WSE) prendront en charge la génération de réponses.
Ainsi, deux accélérateurs spécialisés travaillent en tandem et assurent les calculs d’inférence pour les LLM.
> “L’interaction entre les différents composants ralentit généralement le processus,” déclare Nafea Bshara, vice‑président d’AWS. – “Mais nous cherchons à tirer parti des puces qui traitent l’inférence plus rapidement.”
Le gain est particulièrement perceptible là où la rapidité de réaction compte : par exemple, lors de la rédaction itérative de code ou de la génération de texte en temps réel.
Pourquoi c’est important
* Amazon est l’un des plus grands fournisseurs cloud et un utilisateur actif des GPU d’ Nvidia. La société développe désormais ses propres puces IA pour accroître l’efficacité des centres de données et offrir aux clients des services uniques.
* Pour Cerebras, le partenariat avec AWS constitue son premier gros contrat avec un géant du data‑center, renforçant la notoriété de sa marque auprès d’un marché potentiel. Cela est également crucial à l’approche de leur IPO prévue.
Conclusion
AWS et Cerebras créent ensemble une nouvelle infrastructure pour les grands modèles linguistiques : les puces Trainium 3 traitent les requêtes, tandis que les WSE génèrent les réponses. Bien qu’un service uniquement basé sur Trainium puisse être moins cher, la solution combinée promet un gain de performance significatif où « le temps, c’est de l’argent ». Cela renforce la position d’Amazon en tant que gros client Nvidia tout en poussant ses propres puces IA vers une efficacité accrue.
Commentaires (0)
Partagez votre avis — merci de rester courtois et dans le sujet.
Connectez-vous pour commenter