Yapay zeka alanındaki yarış, donanım tarafında da hız kesmeden devam ediyor. Nvidia ve AMD, bir sonraki nesil hızlandırıcılarında sadece HBM4 belleği kullanmakla kalmayacak, aynı zamanda bu belleği ilk kez özelleştirerek performanslarını ciddi şekilde artıracak. Bu gelişmenin SemiAnalysis tarafından doğrulandığı ifade ediliyor.
HBM (High Bandwidth Memory) yongaları, üst üste yerleştirilmiş DRAM katmanlarından oluşuyor ve genellikle 12 katmana kadar çıkabiliyor. Bu katmanlar, TSV (Through-Silicon Via) bağlantılarıyla bir araya geliyor. İlginç olan, bu yongaların taban katmanına özel bir mantık veya hızlandırıcı devresi eklenebilmesi. Nvidia ve AMD, bu opsiyonu yalnızca performans kazanmak için değil, aynı zamanda üçüncü parti ASIC çözümlerini geride bırakmak için aktif olarak uygulamaya çalışıyor.
Özelleştirilmiş HBM4’ler geliyor
SemiAnalysis, Nvidia ve AMD’nin, HBM4 ile özel HBM uygulamalarını 2026 yılında piyasaya sürmesini bekliyor. Broadcom veya MediaTek gibi için ise bu tarih 2027 olarak söyleniyor. Bu takvime göre Nvidia, özelleştirilmiş HBM4 bellekleri mevcut “Blackwell” tasarımını büyük farkla geride bırakması beklenen “Rubin” mimarisinde kullanacak. AMD ise ilk kez raf ölçeğinde piyasaya çıkacak olan Instinct MI400 serisi hızlandırıcılarda bunlara yer verecek.
Şirketler genellikle Samsung, Micron veya SK Hynix gibi tedarikçilerden standart HBM bellekler alıyor. Ancak büyük hacimli siparişlerde Nvidia ve AMD özelleştirilmiş taleplerini ileterek taban katmanına özel geliştirmeler yaptırabiliyor. Bu modifikasyonlar, doğrudan TeraFLOPS seviyesinde işlem gücü sağlamasa da veri paketlerini daha verimli yönlendiren bir mantık katmanı olarak çalışıyor. Özellikle gecikmenin kritik olduğu çıkarım işlemlerinde “daha akıllı” bir HBM, çift haneli oranlarda veri işleme hızına katkı sağlayabilir.
HBM (High Bandwidth Memory) yongaları, üst üste yerleştirilmiş DRAM katmanlarından oluşuyor ve genellikle 12 katmana kadar çıkabiliyor. Bu katmanlar, TSV (Through-Silicon Via) bağlantılarıyla bir araya geliyor. İlginç olan, bu yongaların taban katmanına özel bir mantık veya hızlandırıcı devresi eklenebilmesi. Nvidia ve AMD, bu opsiyonu yalnızca performans kazanmak için değil, aynı zamanda üçüncü parti ASIC çözümlerini geride bırakmak için aktif olarak uygulamaya çalışıyor.
Özelleştirilmiş HBM4’ler geliyor
Ayrıca Bkz.Nvidia denizi geçti derede boğuldu: Bu kez Çin ambargo koydu
Şirketler genellikle Samsung, Micron veya SK Hynix gibi tedarikçilerden standart HBM bellekler alıyor. Ancak büyük hacimli siparişlerde Nvidia ve AMD özelleştirilmiş taleplerini ileterek taban katmanına özel geliştirmeler yaptırabiliyor. Bu modifikasyonlar, doğrudan TeraFLOPS seviyesinde işlem gücü sağlamasa da veri paketlerini daha verimli yönlendiren bir mantık katmanı olarak çalışıyor. Özellikle gecikmenin kritik olduğu çıkarım işlemlerinde “daha akıllı” bir HBM, çift haneli oranlarda veri işleme hızına katkı sağlayabilir.
Kaynak:https://www.techpowerup.com/339852/nvidia-and-amd-customize-hbm4-memory-for-next-generation-ai-accelerators
Haberi Portalda Gör