Arama butonu
Bu konudaki kullanıcılar: 2 misafir, 1 mobil kullanıcı
3
Cevap
259
Tıklama
2
Öne Çıkarma
Nvidia Helix Parallelism: Yapay zeka artık milyonlarca kelimeyi anında hatırlayacak
M
2 gün
Yarbay
Konu Sahibi

Nvidia Helix Parallelism: Yapay zeka artık milyonlarca kelimeyi anında hatırlayacak
Nvidia, yapay zeka dünyasında çığır açabilecek yeni bir paralel çalışma yöntemi tanıttı. Helix Parallelism adı verilen bu teknik, yapay zeka modellerinin milyonlarca kelimelik uzun içerikleri anlık olarak işlemesine olanak tanıyor. Yeni sistem, Nvidia’nın en son GPU mimarisi Blackwell için özel olarak geliştirildi.



Uzun içerikler artık sorun değil



Modern yapay zeka sistemleri büyürken karşılaştıkları en büyük zorluklardan biri daha fazla veriyi aynı anda işleyebilmek. Özellikle hukuk odaklı asistanlar gibi tüm yasa arşivini taraması gereken veya sohbet geçmişini aylar boyunca hatırlaması gereken uygulamalarda bu durum bir darboğaza dönüşüyordu.



Her yeni kelime üretildiğinde modelin geçmişteki her kelimeyi taraması gerekiyor. Bu işlem sırasında kullanılan KV önbelleği (Key-Value cache) GPU belleğini ciddi şekilde yoruyor. Aynı anda modelin her kelime için büyük boyutlu FFN ağırlıklarını (Feed-Forward Network) belleğe tekrar tekrar çağırması da süreci daha da yavaşlatıyor.



Nvidia Helix Parallelism: Yapay zeka artık milyonlarca kelimeyi anında hatırlayacak
Nvidia, Helix ile bu iki temel darboğaza çözüm getiriyor. Helix, bir yapay zeka modelinin katmanlarını ikiye ayırıyor: dikkat (attention) ve feed-forward (FFN). Dikkat kısmında KV Parallelism (KVP) yöntemiyle geçmiş veri GPU’lara bölüştürülüyor. Böylece her GPU yalnızca bir parçayı işliyor, tüm geçmişi tekrar tekrar taramak yerine görev bölüşümü yapılıyor.



Ayrıca Bkz.WhatsApp, aramalar, mesajlar... Gemini artık her şeyi görüyor



Sonrasında, aynı GPU'lar klasik Tensor Parallelism (TP) moduna geçerek FFN işlemini yürütüyor. Bu sayede kaynaklar verimli kullanılıyor ve GPU'lar boşta beklemiyor. Veri iletimi ise Nvidia’nın yüksek hızlı bağlantı sistemleri olan NVLink ve NVL72 ile sağlanıyor. Ayrıca HOP-B adı verilen yeni bir yöntemle iletişim ve hesaplama işlemleri üst üste bindirilerek gecikmeler azaltılıyor.



Performansta dev sıçrama



Yapılan simülasyonlara göre, DeepSeek-R1 671B adlı dev modelle yapılan testlerde Helix, önceki yöntemlere göre 32 kat daha fazla kullanıcıya aynı gecikmeyle hizmet verebiliyor. Düşük yoğunluklu kullanım senaryolarında ise tepki süresini 1.5 kata kadar kısaltıyor.



Helix ayrıca milyonlarca kelimelik içeriklerde bile belleği dengede tutarak yüksek verimlilik sağlıyor. KV önbelleği, GPU’lara dönüşümlü olarak dağıtılıyor ve bu da ani bellek yüklenmelerinin önüne geçiyor.




Kaynak:https://interestingengineering.com/innovation/nvidia-helix-breakthrough-long-context-ai

 Haberi Portalda Gör

S
dün
Çavuş

Yapay zekâya metin verildiğinde sadece bir kısmını isleyebiliyor ayrı ayrı vermeniz lazım öyle olsa bile geçmişi unutabiliyor.Unutması bazı şeyleri sallamasina neden oluyor Aynı insan gibi desek yanlış olmaz.

Örneğin bir forumda konu başlıklarını analiz et dediğinde belirli limiti maximum 5 sanırım.Sayı verip son 30 konuyu analiz et desenizde şanslıysanız sadece 5ini analiz ediyor.

Dediğim gibi ayrı ayrı yazarsanız bu sefer geçmiş konuları unutuyor veya saçmalamaya başlıyor.

Bu geliştirdiklerini şey bunun limitini arttıracak sanırım.

Yığınlarca log kullanan sorun gidericiler için ai sisteme geçebilirler.

Hata kodu 1004ü otomatik çöz kardeşim bizi uğraştırma.




B
dün
Er

Nvidia 6 trilyonu geçti



< Bu ileti iOS uygulamasından atıldı >

C
dün
Teğmen

DeepSeek-R1 671B gibi devasa modellerle test yapılması güzel ama gerçek dünyada 7B–70B arasında daha çok model var. Helix bu ölçekte anlamlı mı?



DH Mobil uygulaması ile devam edin. Mobil tarayıcınız ile mümkün olanların yanı sıra, birçok yeni ve faydalı özelliğe erişin. Gizle ve güncelleme çıkana kadar tekrar gösterme.