Aman yavaş gel gürültü etme, bir duyan olmasın Sakın konuşma, hiç belli etme, gören uyanmasın |
işlemci yanıyor algısına rağmen bunu başarması şako mu? bravo |
Haklısınız Microsoftun henüz intelin ayağına bastığını görmedik ama gelecek teknoloji chipletlerden yana özellikle pilli cihazlarda. Windowsun rakipsiz olduğunun farkındayım ama chromebooklar nasıl bir anda çıkıp abd eğitim sektöründe başat olduğuysa yapay zeka devrinde de beklenmedik sürprizler olabilir İntelle işbirliği Microsoftu olası risklere karşı daha açık hale getiriyor |
İntel de güzel memleketim gibi. Bütün dünya kıskanıyor bu ikiliyi |
İşlemciden ziyade elektrikli soba almak isteyen biri için güzel sözler :) |
Hocam biliyorsan bu arm risc, x86 cisc olayını değerlendirirmisin. ikisini birbiriyle karşılaştırmaktan söz etmiyorum isteyen gider araştırır, yazınca kalıp cümleli anlatımlar çıkıyor fakat günün sonunda daha basit yapıyla x86 ile aynı hızı veya hesaplama kapasitesini yakalayabilen bir mimari varsa x86 var olma sebebi sadece endüstri standartı olması, yaygın kabul görmüş olması dışında bir sebebi varmıdır. x86'nın üstünlük kurabileceği bir avantajı var mı. Birde kod çözme birimlerinden söz ediyordunuz amd'de galiba bu daha az, intelin ve amd'nin mimari yapısndan ve avantajlarından bahsedermisin? |
Bu bence tartışmaya açık. Benchmark paylaşıyorsunuz ve ortalama tüketim veriyorsunuz. Gerçekten benchmarkta ortalama enerji mi tükettiğini düşünüyorsunuz? Intellerin 200W üzeri tüketimleri bence korkunç. Kaldı ki ben amd savunmadım, model de belirtmedim. Intel genel olarak daha verimsiz. Fiziki olarak 5nm ve 10nm nin verimlilik anlamında kapisabilmesi çok zor zaten. Bu kadar savunacak bir şey yok. Ayrıca nanometre olarak da gerçekten büyük, yanlış birşey söylemedim. Benim fikrim bile değil, gerçekler böyle. Neden bu kadar açıklamaya ihtiyaç duydunuz onu da anlamadım. |
Merhaba üstat, güzel bilgiler ve farklı bir bakış açısı sunmuşsunuz; zamana yayılan bir hesaplama ile nominal tüketim değerlerinin pek de öyle olmadığını gösteriyorsunuz. Aslında bir işlemcinin güç tüketimi benim için de önemli veya belirleyici kriterler arasında değil, ancak bu durum oyun ve multimedia uygulamalarında da geçerli midir? Örneğin 3D v-cache işlemciler karşısında; zira v-cache veri erişim hızını artırarak uygulama yükleme ve çalıştırma süreçlerini hızlandırmaya yönelik bir teknoloji. Sonuçta bana göre, kıyasladığınız işlemciler render için alınacak işlemciler değiller. Daha doğrusu, şahsen render için sistem kuracak olsam AMD ve Intel tarafındaki Threadripper ve Xeon gibi pro seviye ürünlere yönelirdim... Tabiî, profesyoneller için işin içine yıllık çalıştırma maliyetleri falan da giriyordur muhtemelen... Bu arada, biraz konu dışı fakat bir amatör olarak pro seviyedeki farkları görmek de ilginç geliyor, intel'in Xeon serisi için bahsettiği en son Sierra Forest gelince tablo değişecektir herhalde, firmalar arası her türlü rekabet yine kullanıcının faydasına : Hızlıca bir kıyaslama şöyle oluyor: < Resime gitmek için tıklayın > https://www.cpubenchmark.net/compare/3420vs3837vs3719vs5031vs5684/Intel-Xeon-W-3175X-vs-AMD-Ryzen-Threadripper-PRO-3995WX-vs-AMD-EPYC-7702-vs-AMD-Ryzen-9-7950X-vs-Intel-i9-14900KF Bu da tüm segmentlerdeki işlmeciler arası bir tablo: https://www.cpubenchmark.net/high_end_cpus.html < Resime gitmek için tıklayın > |
Yahu kim neden işlemci firmasını kollasın? :) Intel mimarilerinin iyi olduğunu belirtiyorsunuz. Bu durumda aynı mimariyle 10nm yerine 3nm işlemci üretseler de peak power 350W yerine 100W'a düşse güzel olmaz mıydı? Cevabınız evetse savunduğunuz argüman yanlış bu durumda. Çünkü eleştirilen nokta zaten nodeların hala 10nm'de kalmış olması. |
Forumda genel olarak okuduğunu saptırma eğilimi var. Yoruma bakarsanız zaten kimseyi övmediğim gibi, AMD bile dememişim :) Öncelikle bunu bir açıklığa kavuşturalım. Konuya dönecek olursak Intel 10nm litografisinde değil mi dostum? Apple, Qualcomm falan hangi node'da üretim yapıyor? Özetle 10nm günümüz için büyük kalıyor diyorum, AMD falan demiyorum. |
Çok sağolun hocam gayet açıklayıcı oldu emeğinize sağlık. Okuduklarıma dair onlarca soru sorulabilirim de herkesin işi gücü var sonuçta ama vaktiniz olursa aralarından şunu gerçekten çok merak ettim, işlem kapasitesini artırmak için mevcut zar alanına onlarca çekirdek yerine daha fazla dekoder içeren cpu birimleri neden tasarlanmıyor, frekansta bahsettiğiniz her şeyin bir verimlilik noktası var bir cpu çekirdeğine 10-12 dekoder koymanın getirdiği karmaşıklık yerine ikinci bir 6-8 dekoderli cpu çekirdeği koymak daha sorunsuz çalışan mühendislik örneğimi oluyor acaba. Bir de ister istemez aklıma şu geldi, devasa cpu çekirdekleri tasarladık diyelim , o çekirdek üretimde kusurlu çıkarsa hayda onu kapatıp 13900 değil de 13700 yaptık biraz silikon israfı olacak ama neyse, ancak bir kaç tane böyle kusurlu çekirdek çıkarsa can yakar hale gelecek yavaş yavaş çip çöp olur. Ama şimdi kullanılan tasarımda 4 adet e core sorunlu çıksa sorun değil 13700, 13600 yaparsın geçersin gibi gibi, bununda etkisi varır sanırım. |
Ne alaka ben burda mantık çerçevesinde hangisinin daha iyi bir işlemci olduğunu savundum burda görünen AMD nin daha iyi olduğu idi siz beni anlayamamışsınız. |
Ben bunları satıyorum dostum test te yapıyorum. Neyin iyi neyin kötü olduğunuda iyi bilirim. 2016 da üye oldum teknolojiyi takip ettiğimden evet mesaj yazmak İSTEDİĞİM zaman gerçekleşen bir olay bu seni neden ilgilendirdi? |
Merhaba hocam, 20A Arrow Lake ve 18A Lunar Lake fena geliyor diyorlar. 14. Nesili zorlama olduğu için beğenmedim ama 15 ve 16. Nesil çok iyi olacak gibi görünüyor. Intel üretim işini de büyüteceğe benziyor, 14A (1.4 nm) - 14A-E gibi şeyler paylaşılıyor, ileride TSMC'ye karşı bile büyük rakip olabilir. |
< Bu ileti Android uygulamasından atıldı >
Bu mesajda bahsedilenler: @komoL