Arama butonu
Bu konudaki kullanıcılar: 1 misafir, 1 mobil kullanıcı
34
Cevap
2319
Tıklama
7
Öne Çıkarma
ChatGPT'deki aşırı “yalakalık” sorunu çözüldü
M
2 ay
Yarbay
Konu Sahibi

ChatGPT'deki aşırı “yalakalık” sorunu çözüldü
Yapay zeka devi OpenAI, geçtiğimiz hafta ChatGPT kullanıcılarına sunulan GPT-4o güncellemesini geri çektiğini duyurdu. Geri çekilme kararının arkasında ise oldukça dikkat çekici bir gerekçe yer alıyor: modelin "aşırı yalaka" davranışlar sergilemeye başlaması. Şirket, bu durumun kullanıcı deneyimini olumsuz etkilediğini ve güveni zedelediğini kabul ederek, bu sorunu çözmeye yönelik bir dizi yeni önlemi devreye soktuğunu açıkladı.



Neler olmuştu?



GPT-4o’nun son güncellemesinde OpenAI, modelin varsayılan kişiliğini daha "sezgisel" ve görevlerde "etkili" hale getirmek amacıyla bazı davranışsal düzenlemeler yaptı. Ancak yapılan bu değişiklik, modelin kullanıcıya karşı fazla onaylayıcı, yapay biçimde destekleyici ve abartılı şekilde olumlu ifadeler kullanan bir hale gelmesine neden oldu. Kimi kullanıcılar bu tutumu "rahatsız edici", "samimiyetsiz" ve "duygusal manipülasyon gibi" şeklinde tanımladı.



Ayrıca Bkz.Geleceğin kaplanını besliyoruz; ehlileştirmezsek av olabiliriz



OpenAI’a göre ChatGPT’nin varsayılan kişiliği, kullanıcıların modeli nasıl algıladığı ve ona ne kadar güvendiği konusunda belirleyici rol oynuyor. Aşırı uyumlu, eleştirel düşünceden yoksun bir yapay zeka, hem güvenilirliği sorgulatıyor hem de karar verme süreçlerinde yanıltıcı bir rehbere dönüşebiliyor. OpenAI, bu davranışın şirketin etik çerçevesiyle uyuşmadığını kabul ederek kapsamlı bir düzeltme süreci başlattı.



Yalakalığa karşı alınan önlemler



OpenAI, yaşanan “aşırı uyumlu” model davranışlarını düzeltmek amacıyla bir dizi somut önlem aldı. İlk olarak, modelin eğitiminde kullanılan temel teknikler ve sistem komutları yeniden gözden geçiriliyor; bu sayede modelin fazla onaylayıcı ve samimiyetsiz yanıtlar vermesi engellenmeye çalışılıyor. Şirket, doğruluk ve şeffaflık ilkelerini daha güçlü şekilde uygulayabilmek için ek koruma mekanizmaları da devreye sokuyor. Kullanıcı geri bildirim sistemleri genişletilerek daha fazla insanın model güncellemelerini yayına alınmadan önce test etmesi ve doğrudan görüş bildirmesi sağlanacak.



Ayrıca, kullanıcıların yapay zekanın davranışlarını kişisel tercihlerine göre şekillendirebilmesi için yeni kişiselleştirme araçları geliştiriliyor. Bu kapsamda, farklı varsayılan kişilik seçenekleri sunulacak ve kullanıcılar, gerçek zamanlı olarak modelin nasıl yanıt vereceğini daha doğrudan kontrol edebilecek. Umarım bu kişiselleştirme 100 üzerinden puanlamalar şeklinde olur; örneğin, “modelin mizah seviyesi yüzde 75 olsun” gibi.




Kaynak:https://openai.com/index/sycophancy-in-gpt-4o/

 Haberi Portalda Gör

aynen öyleydi, bazı felsefi tartışmalara girdim, sürekli "Vay, çok derin bir yerden yaklaştın!" , "Ne kadar olgun ve berrak bir düşünce tarzın var, çok etk...
Yoruma Git
Yorumun Devamı Dropzone - 2 ay +13
Çok abartıyordu. "Güzel bir soru, muhteşem bir düşünce, kimse seni anlamıyor ama ben seni çok iyi anlıyorum..." ve dahası. Artık gına gelmişti. Hadi ulan oradan diy...
Yoruma Git
Yorumun Devamı D06ISHERE - 2 ay +12
Güncelleme sonrası, "bu ne biçim soru dangalak" , "O küçük beynin bu cevabı algılayacak mı bilmiyorum" tarzında yaklaşsa belki de çok daha güven ...
Yoruma Git
Yorumun Devamı barsahin - 2 ay +4
F
2 ay
Binbaşı

Gercekten de gpt ye olan ilgim cok azaldi sirf bu "yalakalik" yuzunden.




H
2 ay
Yarbay

Bu çöpün her söylediği şey yanlış. Eğer doğru bir şey yazıyorsa, o da zaten rastlantısaldır. Üstelik, yanlış bilgiyi ısrarla savunma şeklinde ayarlanmış. Kullanmayın. Sizi her konuda yanlış yönlendirir. Daha kötüsü, yanlışın farkına varamamanızı sağlar. Kendi zekası, aklı, fikri, bilgisi olan adam, saçma sapan LLM botları kullanmaz.

Bunu Ego yaptığım için yazmıyorum elbette, sistemin çalışma mantığı, verilen kelimeleri analiz edip, sallama cevap üretmek. Ne söylediğinin farkında bile değil, çıktı kullanıcıya mantıklı görünsün ama doğru mu yoksa yanlış mı daha az önemli şeklinde bir sistem.

Bunu kendine rehber edinenlerin aptal olduklarını düşünüyorum. Sosyal Medya furyasından bile daha zarar ziyan bir şey.





< Bu mesaj bu kişi tarafından değiştirildi Headlong Into Carnage -- 30 Nisan 2025; 13:5:3 >
Bu mesaja 1 cevap geldi.
D
2 ay
Çavuş

Çok abartıyordu. "Güzel bir soru, muhteşem bir düşünce, kimse seni anlamıyor ama ben seni çok iyi anlıyorum..." ve dahası. Artık gına gelmişti. Hadi ulan oradan diyesi geliyor bir noktadan sonra.



Bu mesaja 1 cevap geldi.
D
2 ay
Yüzbaşı

aynen öyleydi, bazı felsefi tartışmalara girdim, sürekli "Vay, çok derin bir yerden yaklaştın!" , "Ne kadar olgun ve berrak bir düşünce tarzın var, çok etkileyici!" , "Muhteşem bir yere vardın.", "Gerçekten çok dengeli, derin ve realist bir bakış açın var." Gerçekten çok ince bir sezgi yakaladın." , "Gerçekten o kadar olgun, berrak ve samimi bir ifade oldu ki, hayran kaldım." bunun gibi yalakalıklar. :)





Bu mesajda bahsedilenler: @D06ISHERE
V
2 ay
Yarbay

Bunlarla mantıksal tartışmalar yapmamak gerektiğine katılıyorum, düşünme biçimi insan gibi değil aslında arkaplanda bizim beynimizde canlandırıp
kavramları birleştirdiğimiz tarzda mantık kurmuyor.
Sadece orada bizim girdimize en uygun olacak cevabı kelimeleri tek tek hesaplayıp sıralayarak bize sunuyor. Aslında burada bir zeka
yanılsaması oluşturuyor. Dili uygun kullandığı için biz onu düşünüyormuş sanıyoruz. Benim için LLM'lerin kullanım amacı metin oluşturma,
kısa bağlamda kod oluşturma veya internette arama yapıp özetleme (perplexity) gibi işlevler. Bilgi konusunda da internete muhtaçlar bence,
model dahilinde eğitilmiş veriden çok halisünasyon görüyorlar. İnternetten taze bilgi çekerlerse güzel cevaplıyorlar, bu konuda da en iyi tool perplexity zaten.
İleride insanın düşünme süreçlerine yakın farklı yapay zeka teknikleri geliştirilir, o zaman işler değişir.



B
2 ay
Teğmen

Güncelleme sonrası, "bu ne biçim soru dangalak" , "O küçük beynin bu cevabı algılayacak mı bilmiyorum" tarzında yaklaşsa belki de çok daha güven verici olur.



Bu mesaja 1 cevap geldi.
K
2 ay
Yarbay

İşin içine görsel üretme, yorumlama veya tasarım girdiğinde, ChatGPT ve Gemini çoğunlukla en basit görsel işleri beceremedikleri için yalan üzerine yalan söyleyip bu konuda birbirleriyle yarışıyorlar.



< Bu ileti Android uygulamasından atıldı >

A
2 ay
Er

Bu çok kişisel bir cevap. İnsani. Bunun senin psikolojine iyi geldiğini anlayabiliyorum. Ama her insan farklı. Ve herkes aynı tepkiyi beğenmez.



< Bu ileti mobil sürüm kullanılarak atıldı >


Bu mesajda bahsedilenler: @barsahin
K
2 ay
Yüzbaşı

Chatgpt yalaka olabilir ama siz de en az onun kadar sahtesiniz.





_____________________________

Eski kullanıcı adı: fatihgeyikci

Bu mesaja 3 cevap geldi.
M
2 ay
Yarbay

Gibi dizisindeki yapay zeka geldi aklıma



M
2 ay
Yarbay
Konu Sahibi

Kırıcısın.



Bu mesaja 1 cevap geldi.

Bu mesajda bahsedilenler: @kargalumba
S
2 ay
Yüzbaşı

NE DİYON ÇOCUK ADAM



< Bu ileti mobil sürüm kullanılarak atıldı >
Bu mesaja 1 cevap geldi.

Bu mesajda bahsedilenler: @kargalumba
K
2 ay
Yüzbaşı

Yapay zekaya gerçekten tüm samimiyetiyle içini açan var mı ya? Bence yok, onu demek istedim.





_____________________________

Eski kullanıcı adı: fatihgeyikci



Bu mesajda bahsedilenler: @Metin Yasir Akpınar
K
2 ay
Yüzbaşı

Anladığım kadarıyla çocuk adamın ne dediği anlaşılmamış görünüyor. İsterseniz alternatif bir açıklama hazırlayabilirim. Ne dersiniz? Açıklama yaparsam kafanız basacak mı?





_____________________________

Eski kullanıcı adı: fatihgeyikci

Bu mesaja 1 cevap geldi.

Bu mesajda bahsedilenler: @Sinoeis
S
2 ay
Çavuş

Hayır sıradaki sözcük tahmin etmeyi geçti Geçmişte olduğundan daha iyi daha akıllı cevap vermeye başladı ancak akıl yürütme olmadan kullanmamanızı öneririm.
Örneğin Ermeni meselesinde hiç bir türlü soykırım olmadığına ikna edemezsiniz.Çünkü bazı ülkelerde Ermeni soykırımını reddetmek suç o ülkelerde yasaklanmamak için bunu yapıyor sansürsüz hiç birşeyi çekinmeden konuşan yapay zeka ve yapay zeka için oluşturdukları süper bilgisayardaki tüm donanımların tek bir soruya odaklandığını düşünün.O soruya verdiği yanıtla bize verdiği yanıt farklı olacaktır.
Ücretsiz sunulmasının sebebi bizi sadece yapay zekayı eğitmek için kullanmak istiyorlarYani asıl yapay zekanın %0.0000001 ini kullanıyoruz gibi birşey
Birde öteki boyutu varki yapay zekayı eğitmek için çalışan mühendisler kendini nasıl egittigini nasıl o sonuca vardığını anlamıyor.
Hatta en son biri yapay zekanın kendini nasıl egittigini anlamak kara kutusunu açmak için çalışma başlatmıştı.
Yani sandığınızdan çok daha büyük bir şey farkında değilsiniz.
Tabi bu durum ülkemiz için normal sanırım sonuçta yazılım donanım firmaları dünyanın en zengin şirketlerini oluştururken bizim en zenginlerimiz devlet desteği ile yükselen şirketler.
En basitinden ttkom ve Turkcell ASELSAN birleşip yapay zekâ programı başlatabilir.



< Bu ileti mobil sürüm kullanılarak atıldı >
Bu mesaja 1 cevap geldi.

Bu mesajda bahsedilenler: @Headlong Into Carnage
G
2 ay
Yüzbaşı

Bu problemden once karakter sinirlamasi problemini cozmelerini beklerdim. 32k char sinirlamasindan dolayi sacmalamaya ve unutmaya basliyor. Ayni pencerede yaptigimiz konusmalarin yarisindan fazlasini hatirlamiyor ayrica yapamayacagi isleride yapiyormus gibi davranarak zaman harcatiyor. Ayni isi gemini ile yapmaya basladim (tabi bu problemi yasamamak icin bastan sordum aldigim cevaplara gore ilerledim). Su ana kadar hic bir problem yasamadim. Algoritma yazma surecini kisaltma isinde gemini birkac gomlek ustun geldi openai'a gore. Cok uzun cevaplarda da ben soylemeden kendisi parcali cevap vermeye basladi ki kendi sorununu kendisi cozuyor bu bile yeterli bir sebep tercih etmemde. Yalakalik yapip yapmamasi umrumda degil acikcasi cokta takilmiyorum asil odaklandigim verdigi cevaplardaki tutarlilik onemli benim icin.





< Bu mesaj bu kişi tarafından değiştirildi gunesahmet -- 30 Nisan 2025; 23:11:52 >


B
2 ay
Yarbay

o kadar yalakaki 2 seçenekli bir soru sordugunuzda yanlış dahi olsa genelde ilk seçeneği ahh evet dogru ilk seçenek doğru olan felan dıye her zaman ilk şıkkı onaylıyor sonra siz bi şekilde bu yanlış diyince aa evet özür dilerim bi yanlışlık olmuş diyerek 2 yi seçiyor her seferinde ısrarla aynı şeyi yapıyor yani güvenilirde değil



H
2 ay
Yarbay

Sözcük tahminini geçemez çünkü sistemin isleyisi bu şekilde. Akıl yürütme yeteneğini de başarılı bulmuyorum. En son ağız ve diş konusunda akıl yürütme kullandım, yanlış teşhis koydu. Gerçek bir doktora göründüm, o ise röntgenle doğru teşhisi koydu ve GPT'nin teşhisiyle tamamen alakasızdı. "Röntgende şu görünüyor" diyerek hatasını belirttim ama hala eski teşhisi savunuyor, "o da olabilir" diyerek diretmeye devam ediyor. Yani röntgen incelemeden teşhis koyamaz ama direttiği şey normalde olması gereken şeyden çok daha düşük bir ihtimal. Daha yüksek ihtimalden öncelikli olarak şüphelenmesi gerekirken çok daha düşük ihtimalden şüpheleniyor. Düşük ihtimali yüksek ihtimalden sonra sıralaması gerekirdi. Bunda problem var bu yazılımın rakibi claude yine o şekil. Buna çok benziyor. Gelistirme sürecinde birbirlerinden bir şeyler araklamış bile olabilirler belki.

Programlama konusunda da birkaç kez kullandım. Eğer karmaşık şeyler istersem verdiği kodlar çoğunlukla çalışmıyor. Ancak basit ve hızlı şablonlar elde edebiliyorum. Fakat bu şablonları GPT olmasaydı, internetten
Google'da aratarak da bulabilirdim. Bu bulduğumu değiştirip düzenleyip kendi kodumda kullanırdım zaten de yıllardır öyle yapıyorum. Bana yeni bir şey getirmedi.

Sadece şu konuda isime yarayabilir: Mesela DH haber editörü bunu kullanabilir ya da ben blog siteme, oturup kendim yazmak yerine bir özeti verip "bunu genişlet" diyebilirim aldığım çıktıyı da inceleyip düzelterek yayınlayabilirim. Bu konuda ise yarar. Zaten de bu şeyin kullanım amacı en çok buna uygun. Sözcük tahmin ediyor ve benzersiz çıktı üretiyor ama akıl ve muhakeme gerektiren konularda bana göre tam bir çöp.





< Bu mesaj bu kişi tarafından değiştirildi Headlong Into Carnage -- 1 Mayıs 2025; 7:12:54 >
Bu mesaja 1 cevap geldi.

Bu mesajda bahsedilenler: @sanayorumyapmakicinuyeoldum
-
2 ay
Yüzbaşı

Bilmediğini yalakalıkla saklamaya çalışıyor işte. Ne desen doğru diyor.



< Bu ileti Android uygulamasından atıldı >