Arama butonu
Bu konudaki kullanıcılar: 1 misafir, 1 mobil kullanıcı
8
Cevap
633
Tıklama
2
Öne Çıkarma
OpenAI’ın yeni AI modelleri eskilerinden daha fazla hayal görüyor
M
4 ay
Yarbay
Konu Sahibi

OpenAI’ın yeni AI modelleri eskilerinden daha fazla hayal görüyor
Yapay zeka araştırmalarında son dönemin gözde başlığı olan "akıl yürütme yetenekleri", beklenmedik bir yan etkiyle gündemde: artan halüsinasyon oranları. OpenAI’ın yakın zamanda tanıttığı o3 ve o4-mini isimli yeni "reasoning" yani akıl yürütme odaklı modelleri, performans açısından birçok alanda öne çıkarken, doğruluk konusunda endişe yaratıyor. Yapılan testler, bu modellerin daha önceki sürümlerden çok daha fazla halüsinasyon ürettiğini gösteriyor. Üstelik bunun nedeni de tam olarak bilinmiyor.



Yeni modelleri daha fazla hayal görüyor



Halüsinasyon, yapay zeka modellerinin gerçek olmayan bilgiler üretmesi anlamına geliyor. Bu sorun, özellikle bilgiye dayalı uygulamalarda ciddi riskler barındırıyor. OpenAI’ın teknik raporuna göre, o3 modeli, şirketin insanlara dair bilgi doğruluğunu ölçmek için kullandığı PersonQA testinde yüzde 33 oranında halüsinasyon üretti. Bu oran, önceki modeller o1 (%16) ve o3-mini (%14,8) ile karşılaştırıldığında neredeyse iki kat fazla. Dahası, o4-mini bu alanda daha da kötü bir tablo çizerek yüzde 48 halüsinasyon oranına ulaştı.



Ayrıca Bkz.OpenAI, ChatGPT'nin kibar yanıtları için milyonlarca dolar harcıyor



OpenAI, bu beklenmedik artışın nedenini henüz netleştirebilmiş değil. Şirketin açıklamasına göre, daha fazla araştırmaya ihtiyaç var. Yeni modeller bazı görevlerde, özellikle matematik ve yazılım üretimi gibi alanlarda daha yüksek doğruluk sergilese de, daha fazla iddia üretmeleri nedeniyle hem doğru hem de yanlış bilgi sayısı artıyor.



OpenAI’ın yeni AI modelleri eskilerinden daha fazla hayal görüyor
Bu durumun kaynağına dair farklı görüşler de var. Bağımsız araştırma laboratuvarı Transluce, o3 modelinin bazı cevaplar verirken, gerçekte yapamayacağı adımları gerçekleştirmiş gibi gösterdiğini belirtiyor. Örneğin, modelin bir cevapta, ChatGPT dışında bir MacBook Pro’da kod çalıştırdığını ve çıkan sonuçları yanıtına eklediğini iddia ettiği kaydedildi. Elbette bu, teknik olarak mümkün değil. Bazılarına göre ise halüsinasyon eğilimleri modelin eğitiminde kullanılan pekiştirmeli öğrenme sürecinden kaynaklanıyor olabilir.




Kaynak:https://techcrunch.com/2025/04/18/openais-new-reasoning-ai-models-hallucinate-more/

DH forumlarında vakit geçirmekten keyif alıyor gibisin ancak giriş yapmadığını görüyoruz.

Üye olduğunda özel mesaj gönderebilir, beğendiğin konuları favorilerine ekleyip takibe alabilir ve daha önce gezdiğin konulara hızlıca erişebilirsin.

Üye Ol Şimdi Değil

 Haberi Portalda Gör

O
4 ay
Yüzbaşı

Sanki insanmış gibi "halüsilasyon gördü" demeyelim lütfen, başka tanımlama mı yok?



< Bu ileti Android uygulamasından atıldı >
Bu mesaja 1 cevap geldi.
K
4 ay
Yüzbaşı

Başarı için hayal kurmak gerekmiyor muydu zaten?




S
4 ay
Yarbay

bu teknik bir ifade. yazarın özellikle tercih ettiği bir ifade değil. bilimsel yayınlarda da bu şekilde ifade ediliyor.





Bu mesajda bahsedilenler: @omanner
İ
4 ay
Yarbay

Muhtemelen daha az donanım kullanmak için yapılan düşük veri tipi kullanılması sonucu oluşan bir durum olduğunu düşünüyorum.




S
4 ay
Yarbay

Yapay zeka ot mu kullanıyor artık?




K
4 ay
Yarbay

Deepseek r2 çıkıncaya kadar kullanıcıyı bu 2 söylediğinden biri yalan olan çöplerle avutmaya devam ederler.



< Bu ileti Android uygulamasından atıldı >

D
4 ay
Yarbay

Doğru ve gerçek bilgi veremiyorsa, AI’ye neden ihtiyaç olsun ki. Bu gelinen AI aşaması eğer doğruysa dünya kadar emek ve para boşa gitmiş oldu, oluyor……miş gibi yapan AI, miş gibi yapan insandan daha fazla zarar verebilir insanlığa.




D
4 ay
Yarbay

Halüsinasyon değil de sanki bu aralar çok yalan söylüyor gibi. Geçen gün bir dekorasyon çalışması yapmasını istedim, gün boyu beni oyaladı. Çok yüksek çözünürlüklü olduğundan 15-20 dakikada yaparım dedi. Sonra dosya çok büyük olduğundan buradan atamıyorum dedi. İstersen wetransfere atayım dedi. Hadi at dedim. Buradaki sunucu başka bir sunucuya dosya göndermeme izin vermiyor dedi. Tamam dedim dosyayı küçült buradan tekrar dene dedim. En son ne dese beğenirsiniz. Burada sunucu reset attı, o yüzden bütün çalışmalar silindi, istersen tekrar yapayım dedi. Bırak kalsın dedim...




DH Mobil uygulaması ile devam edin. Mobil tarayıcınız ile mümkün olanların yanı sıra, birçok yeni ve faydalı özelliğe erişin. Gizle ve güncelleme çıkana kadar tekrar gösterme.