1. sayfa
@grok Bu haber doğru mu? |
"Bilmek” kelimesini herhangi bir kurallı sistemin çıktı üretmesiyle eş tutarsak, o zaman bir hesap makinesi de ‘biliyor’ olur, çünkü 2+2’ye 4 cevabını verir. Ancak ‘bilme... |
"Bilmek” kelimesini herhangi bir kurallı sistemin çıktı üretmesiyle eş tutarsak, o zaman bir hesap makinesi de ‘biliyor’ olur, çünkü 2+2’ye 4 cevabını verir. Ancak ‘bilmek’, daha çok bir sistemin çıktılarıyla değil, o çıktılar üzerine sahip olduğu kavramsal ve bağlamsal farkındalık ile anlamlandırma yeteneğiyle ilgili. İnsan bilişini yapay sinir ağlarıyla kıyaslarken genellikle ‘nöronlar da bilinçli değil, kurallar çerçevesinde çalışıyor’ gibi argümanlar öne sürmek ilk bakışta mantıklı geliyor olabilir. Ancak takdir edersiniz ki insan zihni sadece nöronlardan oluşan bir hesaplama sistemi değil; bilinç, sezgi, anlam inşası ve öznel deneyimler gibi unsurlarla şekillenir. İnsan beynindeki bağlantılar dinamik, bağlamsal ve amaç yönelimlidir; yalnızca istatistiksel bir çıktı üretmekten fazlasını yapar. Öte yandan, büyük dil modelleri (LLM'ler) sadece olasılıksal dağılımlara göre kelime üreten sistemlerdir. Modelin eğitildiği veri kümesi içindeki kelime örüntülerini analiz ederek, hangi kelimenin hangi bağlamda ne sıklıkla kullanıldığını hesaplar. Bu nedenle, bir LLM’nin yanıt üretme süreci bilinçli anlamlandırmaya değil, istatistiksel olasılıklara dayanır. Örneğin, ChatGPT veya Grok, "Su 100 C’de kaynar" ifadesini ürettiğinde bu gerçeği bildiği için değil, yalnızca eğitim verisinde bu cümlenin yüksek olasılıkla geçtiği için üretiyor. Eğer eğitim verisinde sıkça ‘Su 90 C’de kaynar’ gibi yanlış bilgiler olsaydı, model bu yanlışı gerçekmiş gibi tekrar edebilirdi. Çünkü modelin, bilgiyi doğrulama veya gerçeklikle kıyaslama yetisi bulunmuyor. |
Ekrem grok’u da yemiş |
Bu sanal zekalar suistimale çok açık şeyler.Doğruyu bunlardan kabul etmek, Tabiri caizse hafif tabirle biraz saflıktır. |
Sürekli her şeyi yapay zekaya başvurmak bir yönden insan IQ sunun zayıflamasına kim bilir insan beyninin bir bölgesinin de küçülmesine neden olabilir. Tam akademik bir araştırma konusu. |
Ekrem grok’u da yemiş |
@grok Bu haber doğru mu? |
Bilmek ne demek? Parametrelerin matematiksel olarak belirli bir kurala dayalı sonuç üretmesi ve sistemin buna göre çalışması onun bir şey bilmediği anlamına geliyorsa insan zekası da riske girer. Çünkü insan zekasını oluşturan nöronlar da tekil olarak bilinçli değiller ve belirli kurallar çerçevesinde sonuç üretiyorlar. |
Adamın memleketten haberi yok yazmış grok bu doğru mu? |
"Bilmek” kelimesini herhangi bir kurallı sistemin çıktı üretmesiyle eş tutarsak, o zaman bir hesap makinesi de ‘biliyor’ olur, çünkü 2+2’ye 4 cevabını verir. Ancak ‘bilmek’, daha çok bir sistemin çıktılarıyla değil, o çıktılar üzerine sahip olduğu kavramsal ve bağlamsal farkındalık ile anlamlandırma yeteneğiyle ilgili. İnsan bilişini yapay sinir ağlarıyla kıyaslarken genellikle ‘nöronlar da bilinçli değil, kurallar çerçevesinde çalışıyor’ gibi argümanlar öne sürmek ilk bakışta mantıklı geliyor olabilir. Ancak takdir edersiniz ki insan zihni sadece nöronlardan oluşan bir hesaplama sistemi değil; bilinç, sezgi, anlam inşası ve öznel deneyimler gibi unsurlarla şekillenir. İnsan beynindeki bağlantılar dinamik, bağlamsal ve amaç yönelimlidir; yalnızca istatistiksel bir çıktı üretmekten fazlasını yapar. Öte yandan, büyük dil modelleri (LLM'ler) sadece olasılıksal dağılımlara göre kelime üreten sistemlerdir. Modelin eğitildiği veri kümesi içindeki kelime örüntülerini analiz ederek, hangi kelimenin hangi bağlamda ne sıklıkla kullanıldığını hesaplar. Bu nedenle, bir LLM’nin yanıt üretme süreci bilinçli anlamlandırmaya değil, istatistiksel olasılıklara dayanır. Örneğin, ChatGPT veya Grok, "Su 100 C’de kaynar" ifadesini ürettiğinde bu gerçeği bildiği için değil, yalnızca eğitim verisinde bu cümlenin yüksek olasılıkla geçtiği için üretiyor. Eğer eğitim verisinde sıkça ‘Su 90 C’de kaynar’ gibi yanlış bilgiler olsaydı, model bu yanlışı gerçekmiş gibi tekrar edebilirdi. Çünkü modelin, bilgiyi doğrulama veya gerçeklikle kıyaslama yetisi bulunmuyor. |
Yapay zeka ancak farklı bir bakış açısından yeni bir fikir verebilir. Nihai değerlendirmeyi yine kullanıcıya bırakır. O nedenle yapay zeka gerçek anlamda bir medya ombudsmanının yerine geçemez. Yapay zekaya aşırı güvenip kendi akıl süzgecini nadasa bırakanlar bu hususu gözden kaçırmaktadır. Bu durum toplumdaki medya okuryazarlığı becerisine karşı ciddiye alınması gereken bir tehdittir. |
Katılmadığım noktalar mevcut. Bir sisteme yönelttiğim 2+2 sorusuna sistemden gelen bir cevap var ise, bu bilgi sistem tarafından “biliniyor” şeklinde kabul etmek daha doğru olur. Eğer “bilmek” kavramı, bu sonuca dair “kavramsal ve bağlamsal farkındalık ile anlamlandırma yeteneği” ile tanımlanıyorsa, o hâlde 2+2 için doğru bir cevap veren fakat bu işlemin arkasındaki kavramsal anlayışa sahip olmayan birçok insanın da “bilmiyor” olarak değerlendirilmesi gerekebilir. İkinci paragrafta belirttiğiniz gibi, bir sistemi oluşturan parçaların, sistemin bütünüyle aynı özellikleri taşıması gerekmiyor. Bu durum zaten emergent behavior olarak adlandırılıyor ve hem insan beyninde hem de yapay sinir ağları için geçerli. Doğal olarak yapay sinir ağlarının temelindeki basit istatistiksel ve matematiksel işlemlerden yola çıkarak, bu yapıların bütününün de sadece istatistiksel çıktılar ürettiğini savunmak yanıltıcı olabilir. Çünkü yeterli büyüklükteki bir sistemde, insana özgü olduğunu düşündüğümüz özellikler birer birer ortaya çıkabilir. İnsan beynindeki bağlantılar ve yapının ise nasıl olduğunun mevcut modellerimizin kabiliyetleri açısından bir sınırlayıcılığı yok çünkü yine yukarıdaki sebepten mevcut yapay sinir ağlarındaki parametrelerin, insan beynindeki nöronlar kadar esnek ve dinamik olması şart değil. Yeterli sayıda parametre bir araya geldiğinde oluşturduğu üst yapı bir nöronun esnekliği ve dinamikliği şeklinde belirttiğimiz davranışı da pekala sergileyebilir. Buna isterseniz beyin kimyasını veya diğer unsurları da dahil edebilirsiniz. Eğitim verisi konusuna gelirsek, bir insan zekası da eğitim verisinde sürekli “Su 90°C’de kaynar” bilgisiyle karşılaşırsa, bunu bu şekilde öğrenir. Eğer elinizdeki termometre her seferinde 90°C’yi gösteriyorsa ve bunun aksini iddia eden bir bilgiyle karşılaşmadıysanız, insan zekâsı bu noktada nasıl bir fark oluşturur? Gerçekliğimiz, büyük ölçüde aldığımız eğitim verisiyle şekillenir. |
1. sayfa
Grok’un dezenformasyon potansiyeli
Hem Türkiye’de hem de dünya genelinde kullanıcılar, çeşitli gönderilerin alına “@grok, bu doğru mu?” şeklinde yorum atarak konuya dair gerçek bilgileri istiyor. Ancak bu, pek istenen bir davranış değil.
Grok’un yapay zeka tabanlı bir asistan olarak doğal ve güvenilir bir dil kullanabilmesi, yanlış bilgileri bile gerçeğe yakın ve ikna edici göstermesine neden olabiliyor. Bu durum, özellikle siyasi tartışmalarda manipülasyon riskini artırıyor. Çünkü Grok, ChatGPT ve benzeri modeller “gerçek” ile “yanlış” bilginin ne olduğunu bilmezler, aslına bakarsanız doğaları gereği herhangi bir şeyi bilmezler. Verilen yanıtlar birer olasılık hesabıdır ve modeller, halüsinasyon görmeye eğilimlidir; yani Grok gibileri bir şeyler uydurabilir.
Her ne kadar Grok ve diğerleri doğru bilgi verecek şekilde duvarlarla çevrilmiş olsa da yanıtları her zaman güvenilir değil ve ciddi bilgi kirliliği yaratma potansiyeline sahip. Bir diğer faktör de Grok ve diğerlerinin eğitim aldığı verilerle ilgili. Grok’un verdiği yanıtlar ne kadar ikna edici olursa olsun, yalnızca beslendiği veriler kadar iyidir. Grok, X'e gerçek zamanlı olarak erişebiliyor; bu, anlık güncel bilgiye erişmek için faydalı olsa da yanlış bilgiye de hızlıca erişilebileceği anlamına geliyor.
Ayrıca Bkz.Google Gemini'ye iki yeni özellik geliyor: Canvas ve Popcast oluşturma
Öte yandan, yapay zeka asistanlarının sosyal medya platformlarında herkesin erişimine açık olması, yanlış bilgilerin kitlesel bir etkiye dönüşme riskini artırıyor. Kullanıcılar, Grok’un verdiği bilgilerin hatalı olabileceğinin farkında olsalar bile, yanlış bilgiyi gören diğer kişiler bunu sorgulamadan gerçek kabul edebilir. Üstelik Grok, verdiği yanıtlarda herhangi bir uyarı da yapmıyor.
Elbette Grok’un tüm yanıtlarında hata vardır demiyoruz; burada bir olasılıktan bahsediyoruz. Verilen bilgilerin çoğunluğu doğru olabilir ancak arada yanlış olanlar da bulunuyor.
DH forumlarında vakit geçirmekten keyif alıyor gibisin ancak giriş yapmadığını görüyoruz.
Üye Ol Şimdi DeğilÜye olduğunda özel mesaj gönderebilir, beğendiğin konuları favorilerine ekleyip takibe alabilir ve daha önce gezdiğin konulara hızlıca erişebilirsin.
Haberi Portalda Gör