Arama butonu
Bu konudaki kullanıcılar: 1 misafir
7
Cevap
397
Tıklama
0
Öne Çıkarma
Yüksek veriler için alt yapı?
C
5 yıl
Teğmen
Konu Sahibi

Arkadaşlar yaklaşık olarak 200.000 - 300.000 bin veriden bahsediyorum.
Phpmyadmin haliyle yavaş çalışıyor böyle durumlarda hele ki çift sql de patlıyor.
Bunun için php ve phpmyadmin destekleyen kolay kullanımlı bir alt yapı varmı bildiğiniz? (ücretli-ücretsiz farketmez)
ben mongo yu biliyorum tek akıl akıldan üstündür diyerek sorayım dedim sizlere
Teşekkürler

DH forumlarında vakit geçirmekten keyif alıyor gibisin ancak giriş yapmadığını görüyoruz.

Üye olduğunda özel mesaj gönderebilir, beğendiğin konuları favorilerine ekleyip takibe alabilir ve daha önce gezdiğin konulara hızlıca erişebilirsin.

Üye Ol Şimdi Değil





< Bu mesaj bu kişi tarafından değiştirildi Crosslan -- 22 Haziran 2020; 11:53:36 >

S
5 yıl
Binbaşı

T
5 yıl
Yarbay

Verileri Hadoop File Sytem /HDFS ile saklayan ve SQL ile sorgulama yapılabilen sistemler var, şu anda adını unuttum* Bir de MySQL 8 ile büyük verileri saklayabilecek ek özellikler geldi; onlarla petabyte'larca veriyi SQL ile yönetebiliyorsun.

*Şimdi baktım: Apache Drill ve Apache Phoenix





< Bu mesaj bu kişi tarafından değiştirildi Tuğkan-0153 -- 22 Haziran 2020; 21:13:38 >

< Bu ileti mini sürüm kullanılarak atıldı >

D
5 yıl
Yarbay

Önce indexlere sonra makinaya bakın bundan 5 sene önce milyonluk kayıtlar 1 gb hafızalı tek cpu vps lerde 20 sn de sonuç veriyordu.

PHP MyAdmin bir ui, yeni versiyonları çok kötü değil.

Ancak Godaddy vb gibi aşırı yüklü yerlerden hosting alıyorsanız yavaş çalışır.

Tabi veriye göre yazdığınız yazılımın cache vs durumlarınıda ayarlamanız lazım.

Ama sen diyorsanki abi bil milyon kayıt bin kayıt gibi çalışsın. Ozaman NVME üzerinde çalışan çok cpu lu çok ramlı ona göre ayarlanmış sunuculara bakın derim.

Aydın havası: MySql ve indexle ilgili bilgini arttır.



B
5 yıl
Binbaşı

300.000 satır sayısı hiçbir veritabanını zorlamaz. Muhtemelen sorgularında bir problem var.



C
5 yıl
Teğmen
Konu Sahibi

Hepiniz sağolun şuan hızlı zaten ben sadece daha da verimli hale getirmek için yapılabilecek birşeyler var mı ve bilmediğim bir yöntem varmı diye merak ettim tüm fikirlere açığım





< Bu mesaj bu kişi tarafından değiştirildi Crosslan -- 24 Haziran 2020; 12:5:17 >

M
5 yıl
Yarbay

200-300 bin veri cok kucuk bir veri.
1- Sorgularinizi optimize edin
2- kodlarinizi gozden gecirin
3- ilk iki yaptiniz ama yetmedi ise digitalocean gibi kolay bir kaynaktan basit bir VM alin oraya kurun.(belki hosting firmasinin cihazi eski veya arizalidir) Normalde yuksek diyecegimiz verileri saniyete 1 milyon tweet gibi nasil yapariz sorusunun cevabini forumda bulamaziniz.

Degil Mysql,sql server gibi cozumleri Sqlite da dahi tutarsiniz sorunsuz da sorgularsiniz.





< Bu mesaj bu kişi tarafından değiştirildi mahoni_38 -- 23 Haziran 2020; 13:56:53 >

B
5 yıl
Yüzbaşı

300bin kayıtda sıkıntı yaşıyorsan, optimizasyon problemin var.

Bu veriler tek tablodaysa index önemli.

Performansı zorlayan sorguyu da paylasabilirsin. Sorguda bir anormallik olabilir.



< Bu ileti DH mobil uygulamasından atıldı >

DH Mobil uygulaması ile devam edin. Mobil tarayıcınız ile mümkün olanların yanı sıra, birçok yeni ve faydalı özelliğe erişin. Gizle ve güncelleme çıkana kadar tekrar gösterme.