top of page

NVIDIA étend CUDA au RISC‑V : un tournant pour l’écosystème open‑source

  • Photo du rédacteur: ARKTechNews
    ARKTechNews
  • il y a 14 heures
  • 2 min de lecture

Lors du RISC‑V Summit en Chine, Frans Sijstermans, vice-président hardware de NVIDIA, a annoncé que CUDA, l’infrastructure logicielle phare de NVIDIA pour accélérer le calcul GPU, devient compatible avec l’architecture RISC‑V. Jusqu’à présent limitées aux CPU x86 et Arm, les applications CUDA pourront désormais fonctionner sur des processeurs RISC‑V servant de cœur de traitement hôte. Cette évolution ouvre de nouvelles perspectives pour l’adoption de RISC‑V dans les systèmes de calcul hétérogènes.


Un écosystème plus ouvert et stratégique

Ce support élargi renforce la position de RISC‑V comme alternative crédible dans les domaines de l’IA et du HPC, particulièrement là où l’open-source et la souveraineté technologique sont prioritaires. En Chine, où le RISC‑V gagne du terrain dans le cadre d’une stratégie visant à réduire la dépendance aux technologies étrangères, cette compatibilité avec CUDA pourrait accélérer l’émergence de solutions GPU optimisées locale­ment.


Fonctionnement et cas d'utilisation

Lors du sommet, NVIDIA a illustré une architecture système où un processeur RISC‑V orchestre les pilotes CUDA, le système d’exploitation et la logique applicative, tandis que le GPU exécute les calculs parallèles et un DPU gère le réseau. Cette combinaison est particulièrement adaptée aux modules embarqués comme Jetson, mais offre aussi un sérieux potentiel pour les centres de données RISC‑V émergents.


Conséquences pour l’industrie du GPU et du CPU

Avec ce mouvement, NVIDIA s’émancipe partiellement de la dépendance à Arm et x86 sur le plan CPU hôte. Le support de RISC‑V signifie moins de frais de licence et davantage de flexibilité dans la conception de SoC personnalisés, souvent exigés par des sociétés ou pays en quête de souveraineté.

NVIDIA étend CUDA au RISC‑V : un tournant pour l’écosystème open‑source

Pour les développeurs, cela permet de concevoir des modules Jetson et des plateformes AI embarquées avec une base CPU alternative, tout en conservant l’accès à la toute-puissante architecture CUDA. Toutefois, cette intégration devra être soutenue techniquement pour inclure la compatibilité avec les versions de CUDA, la gestion des drivers et la sécurité commerciale.


Les défis à venir et la marche vers l’adoption

RISC‑V doit encore s’imposer dans les usages intensifs comme les centres de données. La migration de CUDA est un pas majeur, mais des éléments tels que les performances vectorielles, le support logiciel mature (compilateurs, optimisations) et l’écosystème matériel doivent encore être développés. Dans les applications embarquées et industrielles, toutefois, le support RISC‑V pourrait révolutionner la conception de systèmes AI-autonomes.



Sources :

bottom of page