Arama butonu
Bu konudaki kullanıcılar: 1 misafir, 1 mobil kullanıcı
8
Cevap
634
Tıklama
2
Öne Çıkarma
OpenAI’ın yeni AI modelleri eskilerinden daha fazla hayal görüyor
M
4 ay
Yarbay
Konu Sahibi

OpenAI’ın yeni AI modelleri eskilerinden daha fazla hayal görüyor
Yapay zeka araştırmalarında son dönemin gözde başlığı olan "akıl yürütme yetenekleri", beklenmedik bir yan etkiyle gündemde: artan halüsinasyon oranları. OpenAI’ın yakın zamanda tanıttığı o3 ve o4-mini isimli yeni "reasoning" yani akıl yürütme odaklı modelleri, performans açısından birçok alanda öne çıkarken, doğruluk konusunda endişe yaratıyor. Yapılan testler, bu modellerin daha önceki sürümlerden çok daha fazla halüsinasyon ürettiğini gösteriyor. Üstelik bunun nedeni de tam olarak bilinmiyor.



Yeni modelleri daha fazla hayal görüyor



Halüsinasyon, yapay zeka modellerinin gerçek olmayan bilgiler üretmesi anlamına geliyor. Bu sorun, özellikle bilgiye dayalı uygulamalarda ciddi riskler barındırıyor. OpenAI’ın teknik raporuna göre, o3 modeli, şirketin insanlara dair bilgi doğruluğunu ölçmek için kullandığı PersonQA testinde yüzde 33 oranında halüsinasyon üretti. Bu oran, önceki modeller o1 (%16) ve o3-mini (%14,8) ile karşılaştırıldığında neredeyse iki kat fazla. Dahası, o4-mini bu alanda daha da kötü bir tablo çizerek yüzde 48 halüsinasyon oranına ulaştı.



Ayrıca Bkz.OpenAI, ChatGPT'nin kibar yanıtları için milyonlarca dolar harcıyor



OpenAI, bu beklenmedik artışın nedenini henüz netleştirebilmiş değil. Şirketin açıklamasına göre, daha fazla araştırmaya ihtiyaç var. Yeni modeller bazı görevlerde, özellikle matematik ve yazılım üretimi gibi alanlarda daha yüksek doğruluk sergilese de, daha fazla iddia üretmeleri nedeniyle hem doğru hem de yanlış bilgi sayısı artıyor.



OpenAI’ın yeni AI modelleri eskilerinden daha fazla hayal görüyor
Bu durumun kaynağına dair farklı görüşler de var. Bağımsız araştırma laboratuvarı Transluce, o3 modelinin bazı cevaplar verirken, gerçekte yapamayacağı adımları gerçekleştirmiş gibi gösterdiğini belirtiyor. Örneğin, modelin bir cevapta, ChatGPT dışında bir MacBook Pro’da kod çalıştırdığını ve çıkan sonuçları yanıtına eklediğini iddia ettiği kaydedildi. Elbette bu, teknik olarak mümkün değil. Bazılarına göre ise halüsinasyon eğilimleri modelin eğitiminde kullanılan pekiştirmeli öğrenme sürecinden kaynaklanıyor olabilir.




Kaynak:https://techcrunch.com/2025/04/18/openais-new-reasoning-ai-models-hallucinate-more/

DH forumlarında vakit geçirmekten keyif alıyor gibisin ancak giriş yapmadığını görüyoruz.

Üye olduğunda özel mesaj gönderebilir, beğendiğin konuları favorilerine ekleyip takibe alabilir ve daha önce gezdiğin konulara hızlıca erişebilirsin.

Üye Ol Şimdi Değil

 Haberi Portalda Gör