Aktarılanlara göre Blackwell GB200 Superchip (CPU+GPU) çözümünün tek başına maliyeti 70.000 dolar seviyesinde olacak. Elbette firmalar bu donanımları tek tek almıyor ve Nvidia da genellikle tek tek satış yapmıyor. Bunun yerine yapay zeka devi, B200 NVL72 (36 CPU ve 72 GPU) sunucuları ile müşterilere ulaşacak. Bu sunucuların her birinin ise 3.000.000 dolara mal olacağı belirtiliyor. Bunun GB200 NVL36 varyantının ise 1,800.000 dolara mal olacağı aktarılıyor.
Ancak bu rakamlar sadece birer analist tahmini. Nvidia’nın fiyatlandırması müşteriye göre bile değişiklik gösterebilir ve daha yüksek olabilir. Nvidia, Blackwell çözümlerini tanıtırken NVL72 sunucunu öne çıkarıyordu. Çünkü bu sunucu biriminin tüm kurulumu oluşturmasını amaçlıyor Nvidia. Zira, tüm kurulum yüksek bant genişliğine sahip bağlantılarla entegre olarak devasa bir GPU işlevi görüyor ve 13.824 GB toplam VRAM sağlıyor. Bu bellek miktarı, yapay zekaların eğitimi için kritik önem taşıyor.
200 kilo altın istesinler. Umurumda değil. GT5010 çıkaracaklar mı o önemli. O paraya zaten baya kuvvetli FPGA alınarak çok hızlı hesaplama yapılabilir.
Büyük projelerde ar-ge yapan şirketler daha az sayıda server kullanmak için server başına daha çok GPU gücü kullanıyorlar. Bunun için de en güçlü GPU'yu kullanmak avantajlı oluyor. GPU'yu programlamak, FPGA programlamaktan çok daha kolay. Kolay olunca ar-ge süresi azalıyor. Bu çok önemli. Tabi para sınırsızsa. Bende para sınırlı. Tek çipe 70bin dolar (2.1 milyon, ev parası) vereceksem, buna değecek bir hesaplama gücü sunmalı. Yapılan işe göre bunu sağlayamayabilir. Atıyorum, bitcoin kazacak kişi GPU kullanmaz, FPGA (hatta bunun sabitlenmiş hali olan özel ASIC çipini) alır. Ayrıca FPGA içerisinde çalışan algoritmalar tamamen kullanıcının yazdığı satırlardan ibaret. Açık kaynak kodlu ve güvenilir. Ama Nvidia, bize sormadan bilgileri alıp bakabiliyor.
Ucuz et için de sıraya giriliyor hocam. Ucuz et mi daha sağlıklı yoksa kaliteli et mi?
Ucuz ekmek için de sıraya giriliyor. Burada iyi olan ekmek değil, fiyatı.
Nvidia'nın paha GPU sırasına girmelerinin sebebi, CUDA programlama araçlarının çok gelişmiş olması ve programlama süresini azaltması, kolaylaştırması. Aynı şey FPGA sistemine de yavaş yavaş geliyor, şu anda OpenCL destekleyen FPGA'lar var ama CUDA kadar gelişmemiş.
Yapılacak iş belliyse, FPGA/özel ASIC tasarımları, herhangi bir GPU'ya göre çok daha verimli çalışırlar.
Nvidia'nın paha GPU sırasına girmelerinin sebebi, CUDA programlama araçlarının çok gelişmiş olması ve programlama süresini azaltması, kolaylaştırması. Aynı şey FPGA sistemine de yavaş yavaş geliyor, şu anda OpenCL destekleyen FPGA'lar var ama CUDA kadar gelişmemiş.
CÜMLE 2:
quote:
Yapılacak iş belliyse, FPGA/özel ASIC tasarımları, herhangi bir GPU'ya göre çok daha verimli çalışırlar.
Yapılacak iş belli, yapay zeka eğitimi. Madem FPGA CUDA'nın yeteneklerine sahip değil, nasıl verimli çalışıyor? Tükettiği enerji olarak mı kastettin hocam? O zaman farklı tabii, tekrar bakmak lazım. Ama işlem gücü ise doğru değil.
Bu trilyon dolarlık şirketler Nvidia'nın çipi için sıraya girmişler. Onlar da sonuçta FPGA falan biliyorlardır. Neden o FPGA yoluna girmiyorlar, çünkü maliyeti daha fazla, niye? Çünkü şimdiki durumda Nvidia'nın çipine parayı basıp geçiyorlar. FPGA yoluna girseler, tasarım yapacaklar, ona göre kod yazacaklar, onu ürettirecekler/dökecekler, SDK yazacaklar, vs vs vs. Çok inanılmaz uzun iş.
Dip noktada YİNE DE Nvidia'nın çözümünden daha iyi olur mu, pek sanmam açıkçası. Çünkü FPGA, TEK BİR KİLİT İŞ için tasarlanır. Ama "yapay zeka eğitimi" diyince altında çok fazla alt rutin var.
"Yapılacak iş belli, yapay zeka eğitimi. Madem FPGA CUDA'nın yeteneklerine sahip değil, nasıl verimli çalışıyor? "
Sadece o işi yapacak şekilde yeniden programlanarak. CUDA is sabit donanıma sahip. Yapay zeka algoritması değişirse, CUDA donanımı değişmeyeceği için ya destekleyemez ya da verimsiz kullanılır. Yenisini almak gerekir.
Ayrıca fazla alt rutin olan algoritmalar için de özel çipler tasarlanıyor. Bunlardan biri cerebras. Çipin üzerinde 18GB cache var.
Nvidia GPU satın alan kişi, sadece yapay zeka çalıştıracağı zaman, raytracing donanımına boşuna para ödemiş oluyor. FPGA ise üzerindeki elemanların %100'e yakın kısmını istenilen işe yönlendirebiliyor. Nvidia GPU, üzerinde DX12, OpenGL, ... bir ton destek sunan donanıma sahip. Sadece 1+1=2 hesaplanacağı zaman bu donanımın %90'ı boşa gidiyor. FPGA ise üzerindeki mantık elemanlarının tamamını 1+1=2 hesabı yapan devrelere dönüştürebiliyor.
< Bu mesaj bu kişi tarafından değiştirildi Tugrul_512bit -- 16 Mayıs 2024; 11:20:7 >
Nvidia, para basmaya devam edecek
Aktarılanlara göre Blackwell GB200 Superchip (CPU+GPU) çözümünün tek başına maliyeti 70.000 dolar seviyesinde olacak. Elbette firmalar bu donanımları tek tek almıyor ve Nvidia da genellikle tek tek satış yapmıyor. Bunun yerine yapay zeka devi, B200 NVL72 (36 CPU ve 72 GPU) sunucuları ile müşterilere ulaşacak. Bu sunucuların her birinin ise 3.000.000 dolara mal olacağı belirtiliyor. Bunun GB200 NVL36 varyantının ise 1,800.000 dolara mal olacağı aktarılıyor.
Ayrıca Bkz.Küçük bir ekran kartı tamiri için servet istediler
Ancak bu rakamlar sadece birer analist tahmini. Nvidia’nın fiyatlandırması müşteriye göre bile değişiklik gösterebilir ve daha yüksek olabilir. Nvidia, Blackwell çözümlerini tanıtırken NVL72 sunucunu öne çıkarıyordu. Çünkü bu sunucu biriminin tüm kurulumu oluşturmasını amaçlıyor Nvidia. Zira, tüm kurulum yüksek bant genişliğine sahip bağlantılarla entegre olarak devasa bir GPU işlevi görüyor ve 13.824 GB toplam VRAM sağlıyor. Bu bellek miktarı, yapay zekaların eğitimi için kritik önem taşıyor.
Kaynak:https://wccftech.com/nvidia-blackwell-gpus-cost-up-to-35000-usd-ai-servers-3-million-gearing-for-next-gold-rush/
Haberi Portalda Gör