Google prévoit de financer les fournisseurs cloud qui utilisent ses accélérateurs.

Google prévoit de financer les fournisseurs cloud qui utilisent ses accélérateurs.

7 hardware

Google tente d’élever ses accélérateurs IA à un nouveau niveau

OpenAI promeut activement son modèle de collaboration « ring‑style », ce qui, apparemment, n’est pas passé inaperçu chez Google. En réponse, l’entreprise a décidé d’utiliser ses ressources financières pour attirer de nouveaux clients vers l’achat de ses propres accélérateurs d’intelligence artificielle (IA). Les concurrents restent sceptiques quant à cette initiative, et la pénurie de composants complique sa mise en œuvre.

Ce qui est connu
Le *Wall Street Journal* rapporte les intentions de Google de stimuler la demande pour ses puces fabriquées en interne. Les principaux fournisseurs cloud utilisent principalement des accélérateurs Nvidia, ce qui rend la promotion des processeurs neuronaux TPU (Tensor Processing Unit) de Google difficile. Pour changer la situation, l’entreprise envisage de travailler avec de nouveaux acteurs du marché cloud – les « neocloud‑providers » – et d’inciter leurs achats d’accélérateurs internes grâce à une participation financière.

- Investissements dans Fluidstack
Selon une source, Google négocie un investissement de 100 millions de dollars dans le capital de la startup Fluidstack. La transaction, d’une valeur totale de 7,5 millions de dollars, prévoit que Fluidstack utilisera l’infrastructure GPU et TPU de Google.

- Soutien aux anciens projets de minage
Il est également annoncé que Google prévoit de financer plusieurs projets autrefois dédiés au cryptomining, qui se réorientent désormais vers la création de centres de données (CÉD).

- Indépendance structurelle du département TPU
À l’intérieur de l’entreprise, on discute d’une idée visant à donner plus d’autonomie au département chargé du développement des TPU. Cela permettrait d’attirer un capital externe pour la fabrication de puces. Cependant, aucune déclaration officielle n’a encore été faite.

Statut actuel des TPU
Depuis 2018, Google offre aux clients cloud l’accès à des capacités de calcul basées sur les TPU. Néanmoins, une grande partie de son infrastructure dépend toujours des accélérateurs Nvidia. Selon certaines données, l’entreprise vend déjà ses TPU à des tiers qui construisent leurs propres infrastructures de calcul.

Le responsable du développement TPU – Amin Vahdat – a récemment été promu au poste de directeur technique principal en charge de l’infrastructure IA et relève désormais directement de Sundar Pichai, PDG.

Limitations de croissance
Le problème majeur pour l’expansion des TPU reste la pénurie de capacités de production chez TSMC, qui donne la priorité aux commandes d’Nvidia concurrente. De plus, le manque de mémoire vive freine la croissance de l’infrastructure basée sur les TPU.

Malgré cela, les grandes entreprises manifestent un intérêt pour les accélérateurs Google. Parmi les clients potentiels figurent Meta Platforms et Anthropic. Cependant, Amazon (AWS) ne voit en Google qu’un concurrent et n’a pas l’intention de passer aux TPU, car elle développe ses propres processeurs Graviton. Il en va de même pour Microsoft avec son service cloud Azure.

Ainsi, Google entreprend une série d’actions financières et organisationnelles afin de porter ses accélérateurs IA à un niveau de concurrence plus élevé dans le segment cloud en pleine croissance.

Commentaires (0)

Partagez votre avis — merci de rester courtois et dans le sujet.

Pas encore de commentaires. Laissez un commentaire et partagez votre avis !

Pour laisser un commentaire, connectez-vous.

Connectez-vous pour commenter