Arama butonu
Bu konudaki kullanıcılar: 1 misafir, 1 mobil kullanıcı
1
Cevap
205
Tıklama
1
Öne Çıkarma
Nvidia ve AMD, yapay zeka için özelleştirilmiş HBM4 bellekleri kullanacak
M
2 ay
Yarbay
Konu Sahibi

Nvidia ve AMD, yapay zeka için özelleştirilmiş HBM4 bellekleri kullanacak
Yapay zeka alanındaki yarış, donanım tarafında da hız kesmeden devam ediyor. Nvidia ve AMD, bir sonraki nesil hızlandırıcılarında sadece HBM4 belleği kullanmakla kalmayacak, aynı zamanda bu belleği ilk kez özelleştirerek performanslarını ciddi şekilde artıracak. Bu gelişmenin SemiAnalysis tarafından doğrulandığı ifade ediliyor.



HBM (High Bandwidth Memory) yongaları, üst üste yerleştirilmiş DRAM katmanlarından oluşuyor ve genellikle 12 katmana kadar çıkabiliyor. Bu katmanlar, TSV (Through-Silicon Via) bağlantılarıyla bir araya geliyor. İlginç olan, bu yongaların taban katmanına özel bir mantık veya hızlandırıcı devresi eklenebilmesi. Nvidia ve AMD, bu opsiyonu yalnızca performans kazanmak için değil, aynı zamanda üçüncü parti ASIC çözümlerini geride bırakmak için aktif olarak uygulamaya çalışıyor.



Özelleştirilmiş HBM4’ler geliyor



Nvidia ve AMD, yapay zeka için özelleştirilmiş HBM4 bellekleri kullanacak
SemiAnalysis, Nvidia ve AMD’nin, HBM4 ile özel HBM uygulamalarını 2026 yılında piyasaya sürmesini bekliyor. Broadcom veya MediaTek gibi için ise bu tarih 2027 olarak söyleniyor. Bu takvime göre Nvidia, özelleştirilmiş HBM4 bellekleri mevcut “Blackwell” tasarımını büyük farkla geride bırakması beklenen “Rubin” mimarisinde kullanacak. AMD ise ilk kez raf ölçeğinde piyasaya çıkacak olan Instinct MI400 serisi hızlandırıcılarda bunlara yer verecek.



Ayrıca Bkz.Nvidia denizi geçti derede boğuldu: Bu kez Çin ambargo koydu



Şirketler genellikle Samsung, Micron veya SK Hynix gibi tedarikçilerden standart HBM bellekler alıyor. Ancak büyük hacimli siparişlerde Nvidia ve AMD özelleştirilmiş taleplerini ileterek taban katmanına özel geliştirmeler yaptırabiliyor. Bu modifikasyonlar, doğrudan TeraFLOPS seviyesinde işlem gücü sağlamasa da veri paketlerini daha verimli yönlendiren bir mantık katmanı olarak çalışıyor. Özellikle gecikmenin kritik olduğu çıkarım işlemlerinde “daha akıllı” bir HBM, çift haneli oranlarda veri işleme hızına katkı sağlayabilir.




Kaynak:https://www.techpowerup.com/339852/nvidia-and-amd-customize-hbm4-memory-for-next-generation-ai-accelerators

 Haberi Portalda Gör

S
2 ay
Binbaşı

işin içine ASIC girdiyse AMD ve NVIDIA tası tarağı toplayıp kendilerine 6eni bir iş bulsunlar. Tabi ASIC üretmeyeceklerse.



< Bu ileti Android uygulamasından atıldı >

DH Mobil uygulaması ile devam edin. Mobil tarayıcınız ile mümkün olanların yanı sıra, birçok yeni ve faydalı özelliğe erişin. Gizle ve güncelleme çıkana kadar tekrar gösterme.