top of page

SK Hynix met en avant ses innovations mémoire pour l’IA au CES 2026

  • Photo du rédacteur: ARKTechNews
    ARKTechNews
  • 26 janv.
  • 2 min de lecture

Au CES 2026 à Las Vegas, SK Hynix a exposé un aperçu étendu de ses solutions mémoire de prochaine génération, centrées sur les besoins grandissants de l’intelligence artificielle et des centres de données haute performance. L’entreprise sud‑coréenne a installé un stand dédié aux clients pour présenter sa feuille de route technologique et renforcer les collaborations avec les partenaires du secteur.


Innovations en mémoire haut débit (HBM)

Un des temps forts de l’exposition est la présentation du tout nouveau mémoire HBM4 à 16 couches avec 48 Go, une évolution significative par rapport au HBM4 à 12 couches et 36 Go déjà développé précédemment. Ce type de mémoire à large bande passante est particulièrement adapté aux charges de travail d’IA intensives, où des échanges rapides de données entre la mémoire et les processeurs sont essentiels. En plus du HBM4, SK Hynix a exposé le HBM3E à 36 Go, qui devrait jouer un rôle majeur sur le marché des serveurs IA au cours de l’année. Des modules GPU intégrant cette mémoire ont été montrés en démonstration, illustrant leur rôle dans des systèmes d’accélération d’IA complets.

SK Hynix met en avant ses innovations mémoire pour l’IA au CES 2026

Large portefeuille mémoire optimisé pour l’IA

SK Hynix n’a pas limité sa présentation aux seules mémoires HBM. L’entreprise a aussi mis en avant SOCAMM2, un module mémoire faible consommation conçu pour serveurs IA, ainsi que LPDDR6, optimisé pour le traitement local sur appareils (on‑device AI) avec des vitesses de traitement et une efficacité énergétique améliorées.


Solutions NAND hautes capacités

Pour répondre à la demande croissante de stockage dans les centres de données IA, SK Hynix a présenté un nouveau produit NAND 321 couches de 2 Tb QLC, destiné aux SSD haute capacité. Ces solutions offrent des gains significatifs en densité et en efficacité énergétique par rapport aux générations précédentes, ce qui est un atout pour les applications de stockage massif de données IA.


Zone de démonstration et technologies avancées

L’entreprise a installé une « AI System Demo Zone » où les visiteurs peuvent voir comment les différentes solutions mémoire s’imbriquent dans un écosystème IA complet. Dans cet espace, SK Hynix a illustré des technologies comme cHBM (HBM personnalisé pour des plateformes spécifiques), PIM (Processing‑In‑Memory), CMM‑Ax (mémoire CXL accélérée) ou encore CSD (stockage capable de traitement de données), soulignant une approche intégrée mêlant mémoire et capacité de calcul.


Enjeux pour l’écosystème IA

La démonstration de ces innovations intervient dans un contexte où la demande en mémoires spécialisées pour IA continue de croître fortement, avec des tensions sur les capacités de production mondiales et une concurrence accrue entre les fournisseurs. La stratégie de SK Hynix au CES 2026 met en avant sa volonté de répondre à cette demande via un portefeuille large et performant, tout en consolidant ses liens avec les clients pour co‑développer des solutions à valeur ajoutée.



Sources :

SK Hynix showcases next‑generation AI memory at CES 2026 – SK Hynix Newsroom

SK Hynix présente HBM4, HBM3E, LPDDR6 et NAND au CES 2026 – TechNews

SK Hynix next‑gen AI memory innovations – Digitimes

bottom of page