SK Hynix, çığır açan 192GB SOCAMM2 bellek modüllerinin seri üretimine resmen başladı. Bu önemli gelişme, özellikle NVIDIA’nın yaklaşan Vera Rubin platformunu destekleyen yeni nesil AI sunucularının performans standartlarını yeniden tanımlamaya hazırlanıyor. Yeni modüller, AI model eğitimi ve çıkarımındaki kritik darboğazları ele alarak, bant genişliği ve enerji verimliliğinde önemli iyileştirmeler vaat ediyor.
Önemli Noktalar
- SK Hynix, 192GB SOCAMM2 bellek modüllerinin seri üretimine başladı.
- NVIDIA’nın Vera Rubin AI platformu için tasarlandı, potansiyel AMD EPYC desteği ile.
- Geleneksel RDIMM'lere kıyasla iki kat daha fazla bant genişliği ve %75'ten fazla enerji verimliliği sunuyor.
- Büyük dil modellerinin (LLM) eğitimi ve çıkarımındaki bellek darboğazlarını çözmeyi hedefliyor.
- Daha önce mobilde kullanılan SOCAMM2 teknolojisi, şimdi sunucu ortamları için uyarlanmış durumda.
AI Sunucu Performansını Devrim Niteliğinde Yenilemek
SK Hynix’in yeni 192GB SOCAMM2 modülleri, şirketin altıncı nesil 10 nanometre LPDDR5X düşük güç tüketimli DRAM teknolojisine dayanan gelişmiş 1cnm süreci kullanılarak inşa edilmiştir. Bu yenilikçi tasarım, geleneksel RDIMM çözümlerinin bant genişliğinin iki katından fazlasını sunarak performansı önemli ölçüde artırır. Ayrıca, bu modüller %75'ten fazla enerji verimliliği elde ederek, AI veri merkezlerinin artan talepleri için kritik bir faktör sağlamaktadır.
AI'nın Artan Taleplerini Karşılamak
AI pazarındaki çıkarım aşamasından eğitim aşamasına geçiş, büyük veri setlerini ve karmaşık hesaplamaları daha verimli bir şekilde yönetebilen bellek çözümlerini gerektirmektedir. SK Hynix’in SOCAMM2’si, bu zorlukları karşılamak için özel olarak tasarlanmıştır. Bellek modülünü işlem birimlerine daha yakın konumlandırarak, sinyal bütünlüğünü ve ölçeklenebilirliği artırırken, çıkarılabilirlik ve değiştirme yeteneği pratik avantajlar sunmaktadır.
AI Belleği İçin Yeni Bir Standart
“192GB SOCAMM2’yi sunarak, SK Hynix AI bellek performansında yeni bir standart oluşturmuştur,” diyor SK Hynix’in AI Altyapısından Sorumlu Başkan ve Genel Müdürü Justin Kim. “Küresel AI müşterilerimizle yakın işbirliği yaparak, en güvenilir AI bellek çözümü sağlayıcısı konumumuzu pekiştireceğiz.”
Şirket, bu modüllerin, yüz milyarlarca parametreye sahip büyük dil modellerinin eğitimi ve çıkarımı sırasında karşılaşılan bellek darboğazlarını temelden çözerek, genel sistemlerin işleme hızını hızlandırmada önemli bir rol oynayacağını öngörüyor. Bu gelişmenin, veri merkezlerinde enerji tüketimini ve soğutma maliyetlerini önemli ölçüde azaltması bekleniyor, nihayetinde AI altyapısının toplam sahip olma maliyetini iyileştirecektir.
Comentários
(3 Comentários)