top of page

NVIDIA présente Rubin, une plateforme AI avec 6 puces et des coûts d’inférence jusqu’à 10 fois plus bas

  • Photo du rédacteur: ARKTechNews
    ARKTechNews
  • 21 janv.
  • 2 min de lecture

NVIDIA a présenté au CES 2026 sa nouvelle plateforme de calcul pour intelligence artificielle, baptisée Rubin, conçue pour dépasser nettement les performances de la génération précédente (Blackwell). L’annonce met l’accent sur la combinaison de six puces distinctes qui fonctionnent ensemble comme un système d’AI rack‑scale, destiné aux centres de données, aux clouds publics et aux infrastructures de services d’IA à grande échelle.


Une architecture complète basée sur six composants

La plateforme Rubin regroupe six puces différentes qui coopèrent au niveau matériel et logiciel pour accélérer les calculs IA. Parmi celles‑ci figurent le processeur Vera CPU, la puce Rubin GPU, un switch NVLink 6, une ConnectX‑9 SuperNIC, un BlueField‑4 DPU et un Spectrum‑6 Ethernet Switch. L’approche de “co‑design extrême” (extreme codesign) permet d’optimiser le passage de données, la gestion réseau et les calculs en parallèle, ce qui est crucial pour les charges de travail modernes d’IA.

NVIDIA présente Rubin, une plateforme AI avec 6 puces et des coûts d’inférence jusqu’à 10 fois plus bas

Réduction massive des coûts d’inférence

Un élément central de l’annonce est que la plateforme Rubin peut réduire les coûts d’inférence jusqu’à dix fois par rapport à la précédente architecture Blackwell. Cela signifie qu’exécuter des modèles d’IA (notamment des modèles de type “mixture of experts” (MoE)) peut devenir drastiquement moins onéreux en termes de ressources consommées par token traité (un token étant une unité de données traitée par un modèle IA). En pratique, cela se traduit par une combinaison d’efficacité matérielle accrue, avec des interconnexions plus rapides et une exécution plus dense, et une architecture logicielle plus intégrée que les approches traditionnelles où CPU, GPU, DPU et réseau sont traités séparément.


Diminution des besoins en GPU pour l’entraînement

Outre la réduction des coûts d’inférence, NVIDIA affirme que Rubin nécessite jusqu’à quatre fois moins de GPU pour entraîner certains grands modèles MoE par rapport à la plateforme antérieure Blackwell. Cette amélioration de l’efficacité peut réduire significativement les dépenses en matériel et en énergie liées au développement et au déploiement de modèles d’IA de grande échelle.


Disponibilité et déploiement

NVIDIA indique que les solutions basées sur Rubin sont en production complète et seront proposées via ses partenaires et ses plateformes partenaires (centres de données cloud, fournisseurs de services IA) au second semestre 2026. Cela marque une progression concrète vers une adoption plus large de systèmes AI hautement efficaces dans les environnements professionnels et hyperscale.



Sources :

NVIDIA unveils Rubin platform with 10x lower inference token costs – Investing

NVIDIA Rubin AI computing platform launched at CES 2026 – The Verge

Jensen Huang says Nvidia’s Rubin platform is in full production – Wired

bottom of page