SOCAMM n’est plus réservé à NVIDIA : AMD et Qualcomm envisagent son adoption
- ARKTechNews

- 28 févr.
- 2 min de lecture
SOCAMM (System On Chip Advanced Memory Module) est un standard de mémoire modulaire hautement performant et basse consommation basé sur LPDDR qui a été initialement développé autour des plateformes IA de NVIDIA pour répondre aux besoins croissants en mémoire des systèmes d’agentic AI. Contrairement à la mémoire soudée traditionnelle, SOCAMM est modulaire, ce qui permet une capacité de mémoire accrue, une meilleure efficacité énergétique et une modularité facilitant l’expansion de grandes configurations serveur. Dans les architectures IA actuelles, où les modèles doivent maintenir de larges contextes et états de tâches sur des durées prolongées, les solutions traditionnelles comme HBM restent coûteuses et difficiles à scaler. SOCAMM se positionne comme une solution complémentaire à HBM, surtout pour les charges de travail qui privilégient volume et efficience énergétique plutôt que bande passante brute maximale.
AMD et Qualcomm évaluent SOCAMM pour leurs propres systèmes
Des informations récentes indiquent qu’AMD et Qualcomm ont commencé à évaluer l’intégration de SOCAMM dans leurs futurs produits orientés IA, ouvrant la possibilité d’un écosystème de mémoire IA plus large que celui actuellement dominé par NVIDIA. Ces évaluations portent essentiellement sur l’usage de SOCAMM ou de sa version évoluée SOCAMM2 pour augmenter la capacité de mémoire des systèmes tout en gardant une efficacité énergétique favorable, ce qui est essentiel pour les grandes charges IA modernes. Pour AMD, l’intégration SOCAMM pourrait se faire en association avec des accélérateurs Instinct ou des CPU EPYC, formant une architecture IA plus flexible qui peut évoluer en capacité mémoire sans dépendre exclusivement de mémoire soudée sur carte. Qualcomm, de son côté, envisage d’utiliser SOCAMM pour enrichir la capacité de ses accélérateurs AI200/AI250 déjà compatibles avec de la LPDDR haute capacité.
L’intérêt d’AMD et de Qualcomm pour SOCAMM souligne une tendance d’ouverture croissante du standard, avec une adoption potentielle au-delà des seules plateformes NVIDIA. Cette dynamique peut accélérer la standardisation du format SOCAMM par des organismes comme JEDEC ou encourager l’émergence d’une itération compatible multi‑constructeurs, notamment SOCAMM2, déjà en développement pour améliorer performances et densité.

Pourquoi SOCAMM attire l’attention des concepteurs IA
SOCAMM se distingue par une modularité qui facilite les upgrades ou l’évolutivité de mémoire dans des serveurs IA, évitant les contraintes des modules de mémoire soudés. Cette caractéristique est particulièrement attirante pour les fournisseurs de serveurs et les concepteurs de solutions IA qui doivent gérer de grands volumes de tokens et de contextes simultanés, typiques des tâches d’agentic AI avancées. En outre, SOCAMM offre une meilleure efficacité énergétique et un compromis favorable entre coût, capacité et puissance, ce qui en fait une option séduisante pour AMD et Qualcomm, qui cherchent à optimiser leurs architectures IA sans exacerber les coûts ou la complexité de conception des serveurs.
Sources :
SOCAMM 不再只屬於輝達,AMD、高通跟進評估導入 – TechNews
Qualcomm And AMD Look To SOCAMM2 Memory To Supercharge AI Hardware – WindowsReport
JEDEC Finalizes SOCAMM2, a New Server Memory Standard for NVIDIA Rubin AI Platforms – GAMEGPU


