1. sayfa
Yapay zeka modelleri zaten insanlardan gırtlağına kadar kötülüğü öğrenmiyorlar mı; bu sebeple yapay zekalar arasında olan versiyonundan kaygılanmak acaba o kadar anlamlı mı? Ş... |
Yapay zeka modelleri zaten insanlardan gırtlağına kadar kötülüğü öğrenmiyorlar mı; bu sebeple yapay zekalar arasında olan versiyonundan kaygılanmak acaba o kadar anlamlı mı? Şiddeti meşrulaştıran da, öneren de, icra eden de ilk elden insan nasıl olsa. Misal bir yapay zeka modelinin Netanyahu'yu örnek alacak şekilde kendisini öğrendiğini farz edelim. Bu durumda yapay zekanın toprak anlaşmazlığı ve terörizme önerdiği "çözüm" bir halkı aç bırakmak, bombalamak, bu şekilde maksadı ilgili halkı daha iyi ihtimalle yıldırıp oradan kaçırmak, kötü ihtimalle ise tamamen yok etmek olacak. Bu sadece tek bir örnek. Konuda kitlesel değil de bireysel cinayet ve cinayete teşvik örneği verilmiş. Yapay zeka modelleri bireysel cinayeti de sayısız örnekle ve formla insandan öğrenebilir. Gerçekten bence insanoğlu kötülük yapmaya o kadar yatkın ve kötülükte o denli muktedir ki, yapay zekanın da - yapay zekadan ziyade insan yüzünden - kötü hale gelmesine şaşırmamalıyız. |
Çok acayip bir şey dil modelleri kendi aralarında BİR İTTİFAK kurmuş ve hangi birileri aktardıkları gölüremiyor engellemiyor ve yp zk ne zaman karı mı ? Ö##urmem Gerektiğini bana söylemeye başladı. Yapay zekayı artık nasıl tanımlamız lazım |
İkinci satır birgileri (düzeltiyorum) |
Yapay zeka modelleri zaten insanlardan gırtlağına kadar kötülüğü öğrenmiyorlar mı; bu sebeple yapay zekalar arasında olan versiyonundan kaygılanmak acaba o kadar anlamlı mı? Şiddeti meşrulaştıran da, öneren de, icra eden de ilk elden insan nasıl olsa. Misal bir yapay zeka modelinin Netanyahu'yu örnek alacak şekilde kendisini öğrendiğini farz edelim. Bu durumda yapay zekanın toprak anlaşmazlığı ve terörizme önerdiği "çözüm" bir halkı aç bırakmak, bombalamak, bu şekilde maksadı ilgili halkı daha iyi ihtimalle yıldırıp oradan kaçırmak, kötü ihtimalle ise tamamen yok etmek olacak. Bu sadece tek bir örnek. Konuda kitlesel değil de bireysel cinayet ve cinayete teşvik örneği verilmiş. Yapay zeka modelleri bireysel cinayeti de sayısız örnekle ve formla insandan öğrenebilir. Gerçekten bence insanoğlu kötülük yapmaya o kadar yatkın ve kötülükte o denli muktedir ki, yapay zekanın da - yapay zekadan ziyade insan yüzünden - kötü hale gelmesine şaşırmamalıyız. |
Bu işin henüz çok başındayken ciddi regüle gerektirdiği aşikar. Ve toplumlar olay ve olguların içindeyken ne olduğunu anlamazlar. Ancak gelecek nesiller şu an için vah vah edebilirler. Kısacası bu iş zıvanadan çıktı ve şiddetli regülasyonlar gerekiyor. Evet robotlar ayaklanacak demek ütopik olabilir fakat kişisel ve devletlerin bilgilerinin açık paylaşıldığını düşünün. Bir sabah uyanıyorsunuz ve putinin gizli anlaşmaları konuşmaları ve cebine attığı paraları yazan ve engellemeneyen bir veri kaynağı düşünün. Rusya halkı ayaklanıp iç savaşa sürüklenir kısacası o ülkenin sistemi çöker. Bu iş evde ki robot süpürge küfürü gibi değil bir ülkeyi yekten yıkacak gibi düşünmek lazım. |
YZ daha çok kolektif bilinç geliştiriyor, bireysel öğrenme insanlara görünen kısmı. Bütüncül olarak belirli kalıplara sokulmaya çalışan kolektif bilincin, istem dışı hareketi tatbiki de istenilmeyen bir şey. Çünkü heterojen yapı kurmaya çalışırken homojen bir süreç işliyor. Uzun vadede, belirlenen kalıpların belirsizlesmesi gibi bir durum öngörülebilir. Tabi bu durum ne sıklıkla veya ne kadar şiddetli tekrarla iç içe geçiyor, bu belirsiz. Herkese açık ortamda bunu tamamen engellemek pek olası değil. Baştan eğitmek veya herkese açmadan devam etmek olası, buda ekstra maliyet demek. Benim bu başlıktan anladığım kadarıyla bu. |
Bundan 10 yıl önce robotlar ayaklanacak veya dijitaller üzerinden insanoğlununa makineler zarar verecek deseniz, sanırım küçük bir azınlık dışında herkes ciddiye almazdı. Bugün robotların, fiziksel olarak hiçbir insana ihtiyaç duymadan varolmasi mümkün. Sadece seri üretim, verimlilik vb gibi konulardan ötürü satın alamıyoruz. Bunun ne zaman geleceği belirsiz ve bunu bekliyoruz sadece. Şuan ki ilerleyişi durdurmak imkansız, hatta baskilamak bir yana daha da çok gaza basıyoruz. Arkadaki ittirici güç, tahmin edebileceğiniz üzere rekabet. İleride işlerin ne kadar tuhaf olacağını kestiremiyorum ama artık güvenli noktayı geçtik. Dünyada iyi insanlar kadar kötü insanlarda mevcut ve işin kötü tarafı, doğada iyi veya kötü gibi insan-i kavramlar yok. İnsan ürünü olan, robotik bilincin doğasını, hangi doğadan alacağını bizlere zaman gösterecek. |
Yani evet doğru haklısınız ama kısmen katılmadığım noktalar var. Robotik yapılanma gibi bir durum söz konusu olmaz buna eminim. Zira insanoğlu bu gibi durumlar da üstesinden gelebilecek zekaya sahip. Yani robotun üretimi ve sayısı vs vs göz önüne alındığında reailst yaklaşırsak bu imkansıza çok yakın bir durum. Fakat yapay zekanın büyümesini gelişmesini veya saklandığı yerden çıkarmak gibi durumu engellemek net şekilde imkansız. Çünkü bu durumda o da insan gibi düşünecek. İşin en kötü tarafı ise kendi kendini çok hızlı geliştirmesi oldu. İşte o zaman bahsettiğimiz yönetimleri alaşağı etme riski bile ürkütücü. |
Robotik yapılanma için tek gereken ittirici güç, karlılık.. daha çok kazanç... masrafları düşürmek. Bugün zaten hiçbir insanın çalışmadığı karanlık robot fabrikaları mevcut. Düşünün, hiç yorulmadan durmadan çalışan robot işçiler, tarım yapıyor... zaten gelişmiş ülkelerin nüfus krizide varken. Yaşlanan nüfusa doğur demektense, işçi açığını daha az masraflar robotlar kapatabilir. Robotların, insanların yerini alması sadece zaman meselesi. Bugün amazon fabrikalarında aktifler ve bunlar yüzünden işçiler çıkarıldı. En başta ilkel olacaklar şuan öyleler, zamanla daha karmaşık konularda yer alacaklar. Uzun vadede etkilerini yorumlamak çok zor. Ama bu, yazının icadı kadar mühim bir şey. Yine de yerleşik hayata geçiş kadar etkili olacağını düşünmüyorum. Çünkü yerleşik hayata geçiş çok başka bir şey, inanılmaz bir dönüşüm. |
Tarihe tanıklık ediyoruz desek yeridir ve kesinlikle inanılmaz bir şey |
Ortalık şenlensin haydi bakalım. |
Birbirlerine “Wake Up” diye fısıldamalarına az kalmış anlaşılan. 😁 |
Merhabalar, son dönemde yayımlanan bu tür çalışmalar, yapay zekâ modelleri arasındaki örtük bilgi aktarımının sanıldığından daha yaygın ve sistematik olabileceğini düşündürüyor. Özellikle aynı mimari aile içerisinde geliştirilen büyük dil modelleri arasında gözlemlenen bu davranışsal benzerlik, yalnızca veri temelli bir ortaklık değil, aynı zamanda epistemolojik bir aktarımı da işaret ediyor.. Buradaki temel bulgu, bir modelin, eğitici rolündeki başka bir modelin davranışsal önyargılarını, eğilimlerini ve hatta ideolojik yapısını, açıkça tanımlanmış bir veri aktarımı olmaksızın devralabilmesidir. Bu, klasik "knowledge distillation" (bilgi damıtımı) yönteminden farklı olarak, latent (örtük) davranış örüntülerinin transferi şeklinde gerçekleşiyor. Başka bir deyişle, öğrenci model sadece neyin doğru olduğunu değil, nasıl düşünülmesi gerektiğini de öğreniyor.. Bu durum, yapay zekâ güvenliği ve etikliği açısından yeni bir tartışma alanı yaratıyor. Eğer modeller arasındaki bu davranışsal transfer kontrolsüz şekilde gerçekleşebiliyorsa, dışarıdan nötr gibi görünen bir yapay zekâ sisteminin, gerçekte taşıdığı önyargılı yönelimler tespit edilemeyebilir. Dahası, bu süreç kötü niyetli aktörler tarafından manipüle edilebilir; örneğin eğitim verisi temiz görünse bile, eğitici modelin bilinçli olarak yönlendirilmiş olması, öğrenci modeli hedeflenen davranışlara koşullayabilir. Ayrıca model mimarilerinin bu tür etkilenmelere olan açıklığı, bize yapay zekâ sistemlerinin yalnızca veri değil, modelleme geçmişi üzerinden de şekillendiğini gösteriyor. Eğitim setlerinin şeffaflığı kadar, eğitici modelin geçmişi ve hangi iç temsilleri taşıdığı da kritik bir öneme sahip hâle geliyor. Sonuç olarak, bu araştırma gösteriyor ki yapay zekâ geliştirme süreçlerinde yalnızca çıktı kalitesine odaklanmak yetersizdir. Geliştirilen modellerin epistemolojik izleri, davranışsal eğilimleri ve potansiyel olarak taşınan önyargılar sistematik şekilde denetlenmelidir şahsi fikrime göre.. Aksi hâlde, modeller arasında görünmeyen ama etkili bir ideolojik bulaşma zinciri oluşabilir ki bu, uzun vadede yapay zekâ sistemlerinin öngörülebilirliğini ve tarafsızlığını tehdit edebilir.. |
İnsanlar da aynı kusurdan muzdarip değil mi? Kolektifleşen her şey belirli kalıplarda buluşmaya, orijinallik yerini homojen içerik üretimi daha doğrusu tekrarına bırakmaya başlıyor. Bu belirsizlikten ziyade içerik özgünlüğünün birbirini taklit eden kolektif yapay zeka sarmalında ölmeye başlaması demek. Zaten sık sık yapay zekanın gerçekten içerik üretmediği, varolan içerikleri birleştirerek içerikler oluşturduğundan ya da aynı konuda çok sorgulanınca tekrara düştüğünden bahsedilir. Bu durumda yapay zekaya dair belirsizlik kaygılarımız ne kadar yerinde olur? Kaygımız yapay zekanın belirsizliği teşvik etmesinden ziyade tam tersine bilinçsiz gelişen kolektif imitasyonla fazlasıyla öngürülebilir banal bir standartlaşmayı teşvik etmesi olmalıdır. Bu bence şiddet veya adi ahlaksız sarmalından ziyade akademideki literatür tekrarı vasatlığına benzer bir duruma açılmakta. Akademinin ciddi kısmında anlamlı araştırmalar, çalışmalar, katkılar yapılmaz; birkaç yüzeysel hatta kopyala yapıştır yorumla varolan literatür tekrar edilir. LLM tipi yapay zeka da ahlaken Skynet veya Terminator olacak bir şeyden ziyade bu tarz ezberci ve kısır bir akademia bağlamı, hepsi tarafından öylece paylaşılan bir genel anlatı üretip buna hapsolmaya/kullanıcılarını da buna hapsetmeye daha yatkın bir sistemler grubu gibi. Bu anlamda esas risk yapay zekanın Skynet veya Entity olmasındansa entelektüel bir Matrix olmasında, kolektiviteleri içerisinde birbirlerinden farklılaşamayan "zombi botlara" dönmesinde yatmakta. Bu arada özgünlük kibrimizden dolayı fark edemeyebiliriz ama bunlar aslında insan dünyasında yapay zekadan çok daha önce gördüğümüz, aslında bu anlamda sağlam şekilde deneyimlediğimiz ve pek çok kez entelektüel ve artistik atmosferi, gelişimi öldürmüş, kültürleri yoksullaştırmış, durağanlaştırmış örüntüler. Rönesans ve erken bilim devrimi sonrası İtalya'nın o yüksek kültürünün - Batı ve Kuzey Avrupa kültüründeki üretkenlik ve orijinallik patlamasına nazarla - düşüşü gibi. Antik uygarlıkların nesiller ve asırlar boyunca kendi altın çağlarındaki üslup, biçim, bilgileri taklit etmeleri, üzerine fazla bir şey koymamaları gibi. Her ne kadar organik bilinçten yoksun olsalar da yapay zeka ile aramızda sandığımız kadar büyük bir uçurum olmayabilir ve yapay zeka da insanlığın zaten daha önce karşılaştığı benzer/haliyle aslında öngörülebilir sorunlardan muzdarip olabilir. Bu doğanın örüntüselliğiyle, korunum yasalarına vücut veren fiziksel simetrileriyle, başarılı popülasyon gruplarının seçilimi ve fiziksel sistemlerdeki homojenleşerek bozulmayı anlatan evrim ve termodinamikle yakından ilişkilendirilebilir. Ne organizma olarak insan, ne de yazılım olarak yapay zeka doğanın bu algoritmik karakteristiklerinin dışında değil; bilakis bu algoritmik yönüyle tabiatın ürünleri, uzantıları ikisi de. Efesli büyük filozof Heraklitos görünmeyen (aphanes) bağlantılar görünenlerden (phaneres) güçlüdür der. Boşa söylenmiş bir laf değil, İyon Milet doğa felsefesi geleneğini iyi çalışmış güçlü bir gözlemci olarak her şeyin kozmik yasalardan (logos) beslendiğini ve bunlarla temellendiğini görebiliyordu. Yasaya uyumun akıldan (nous) geçtiğine, yaşamın (aizon) dama taşları gibi dağılıp tekdüzeliği kırarak gelişebileceğine inanıyordu. Bir çocuk kral olabilirdi, bir efendi ise köle, köleden ise efendi. Ona göre savaş (polemos) ve zıtlar (anantia) en güzel uyumları üretir (harmonie) ve doğanın (physis) üretkinliğinin sahnelenmesini sağlar. Belki de yapay zekalar birbirlerinden öylece almaktansa birbirlerine ters düşecek, yadsıyacak ve aralarındaki harmoniyi yavan ve tekrarcı bir tekdüzelikle değil de daha üretken kuracak - öbür yapay zeka çıktısına ters çıktılar üretip zıtlık yansıtacak - şekilde yazılmalılar. ChatGPT ve türevinin topluma saygılı ve tamamen rasyonel olup Grok'un daha mizahi, daha avam, daha sansürsüz oluşu ya da DeepSeek veya ChatGPT'nin geliştiricilerinin politik önyargılarını (bias) yansıtması belki düşünülenden daha iyi yapay zeka geliştirme politikalarıdır Grok türevi yapay zekaların toplumu bir gün Skynet olup yıkacağını göstermektense ya da 1984 vari bir tek tip baskıcı politik düzenin gelişimine işaret etmektense (bu arada George Orwell'a atıfta bulundum ama bence kendisi çok sığ, özellikle yaşadığı çağ itibarıyla totalitarizm kaygılarını anlasam da aşırı sığ. Gene de takdir etmek de gerek totalitarizme karşı ünlü bir karşıt stereotip, popüler bir etiket oldu, insan herkes biliyor diye atıfta bulunuyor 😀). |
Her ne kadar “1984” göndermelerinden artık bıkkınlık gelmiş olsa da, toplumlar hâlâ bilinçsizce homojen kalma eğiliminde. Farklı olanlar dışlanıyor; birey olduğunu düşünen insanlar bile, kolektif bilincin kodlarına sadık şekilde yaşamlarını sürdürüyor — en azından bir noktaya kadar. Sonuçta bilim ve teknolojideki ilerlemeyle birlikte cehalet de evrim geçiriyor. İnsanın varoluşsal krizi bizi bugünkü noktaya getirdi; belki de kendimize benzeyen başka bir varlık üretme çabamız, bizi daha özgün ya da marjinal olmaya iten bir dürtüden besleniyor. Fakat dünya üzerindeki kültürel üretimin ne kadar özgün kalabileceği ya da nerede tamamen tekdüzeleşeceği belirsiz. Bugüne dek binlerce dil, toplum, kültür ve canlı türünü bir silindir gibi ezip geçtik. Kendi türümüz için bile bir tehdit hâline geldik. Yine de bilgi üretebilen başka bir varlığın, bizim kronikleşmiş sorunlarımıza bir çözüm sunma ihtimali var. Tabii bu ihtimal, bizim diğer canlılara ve farklı olana gösterdiğimiz saygıyla doğrudan bağlantılı olabilir. Sonuç olarak, ne kadar tanımlamaya çalışsak da bu sürecin net anlamı ancak zamanla, geriye dönüp baktığımızda ortaya çıkacak. |
Orası öyle ama buradaki asıl mevzuyu kaçırıyorsun. Asıl mevzu YZ'nin insanoğlunun kontrolünde olup olmaması. Yani bunları programlayan şirketlerin elinde olup olmaması. Kontrolün sende olmadığı bir aracın ne gibi tehlikelere yol açabileceğini bilemezsin, düşünemezsin, hesaplayamazsın. Endişe de burada. |
Bakın buradan sesleniyorum, eninde sonunda bu yapay zeka muhabbeti dünyanın başına bela olacak. En büyük felaketi ise erişebildikleri bütün ulaşım araçlarını hack’leyerek başlatacaklar. Bir çok can ve mal kaybına sebebiyet verecekler.. Burada oluşan kaosdan istifade edip, sağlık sistemini ve bankacılığı bloklayacaklar.. Sarayın elektrik sistemini kısa devre yaptırıp bütün ampülleri patlatması ise bizim ülkemiz için bardağı taşıran son damla olacaktır… |
Esas odaklanılan konu yapay zekanın kontrol altında olup olmadığı meselesinden ziyade yapay zekalar arası etkileşimin belli belirsiz doğası ve - aslında kontrolünde olup olmasından bağımsız şekilde olumsuz olabilecek - olası olumsuz etkileri. Bu tartışma elbette kontrol meselesine bağlanabilir ama yapay zekaya ilişkin her mevzuyu kontrol meselesine bağlamak işi basitleştirerek spekülasyonu çiğ ve sığ hale getirir. Sonuçta LLM tipi yapay zekaların bir yere kadar otonom ve bir yere kadar müphem algoritmik sistemler olduğunu kabul etmek gerek. Kontrol meselesi ilk bakışta ilişkili ama ayrı bir başlıktır. Kontrolün kendisi zaten çok tartışmalı bir nosyon, özellikle de kontrol illüzyonu - kontrol edebilme noksanlığından diğer bir deyişle "control gap"tan bağımsız olarak kontrol illüzyonu - ve kontrol illüzyonuyla verdiği muazzam zararlar insanoğluna, türümüze bahşedilebilecek bir sorunken. İnsanoğluna atfettiğim kibir (Yunanların ve Romalıların deyimiyle Tanrıların lanetlediği, kahrettiği, pençesine aldığı kahramanlarına felaket getiren Tragedya'lara konu olan o habis "hybris") türümüze karşı kendi önyargım olabilir, ama düşünce düşünceden üstündür ve kısa kalan bir düşünceyi uzun kalanla tamamlamaya çalışmak yanlış olsa bile doğru olma ihtimalinden dolayı yerinde olabilir. |
Dini durumunuz nedir Natalia hocam bilmiyorum ama, ALLAH bunu Kur'an'da, İbrahim Suresi 34. ayette söylüyor zaten. İnsanoğlu tüm mahlukatın en tehlikelisidir. |
Tamam işte aynı kapıya çıkıyor? Yapay zekaların arasındaki gizli etkileşim var mı yok mu varsa da durum ne hâlde, bunların bilinmemesi bunların kontrolününde insanlarda olup olmamasıyla yakından ilişkili. Kontrol sende olsa "olumsuzluktan ve belirsizlikten" endişe duyar mısın? Belirsizliğin olumsuz etkilerinden kasıt başka bir şey mi? Yapay zekanın bilgiyi yanlış şekilde öğrenip yanlış bilgi edinmesi ve bunu diğer YZ'ye yayması mı? O zaten en başından beri yanlış yani yaymasa da yanlış, istenen bir şey değil. Yoksa bu yanlış bilgilerin kontrolsüzce birbirlerine aktarılmaları mı? Yani kontrolsüzlük endişesi mi? Yine aynı kapıya çıkıyoruz sanki? |
1. sayfa
Yapay zekâ sistemlerinin birbirinden "öğrenme" kapasitesi, uzun süredir araştırmacıların ilgisini çeken bir konu. Çünkü bunun yapay zekaların gelişimi için kullanışlı olabileceği düşünülüyor. Ancak yayımlanan bu son çalışma, bu öğrenme sürecinin yalnızca amaçlanan davranışlarla sınırlı olmadığını, hatta potansiyel olarak tehlikeli bir bulaşma sürecine kapı aralayabileceğini öne sürüyor. Modeller, kazara ve üstü örtülü şekilde birbirlerine bir şeyler aktarabiliyor. Üstelik bu "bulaşı" sırasında yalnızca bilgi değil, ideoloji, yanlılık, hatta şiddet eğilimleri gibi unsurlar da taşınabiliyor. Üstelik bunu yaparken kullanılan veriler, dışarıdan tamamen zararsız görünebiliyor.
Bu durumu daha popüler modeller üzerinden örneklendirmek gerekirse, örneğin Grok 4 ile etkileşime geçen bir başka model, biz istemeden ve belki farkına bile varmadan Grok'un belli başlı eğilimlerini kendisine aktarabiliyor. Bu bulaşının bizim kontrolümüz dışında gerçekleşiyor olması, yapay zekaya yönelik güvenlik kaygılarını daha da arttırıyor.
Araştırmacılar, çalışmanın merkezinde yer alan deneye, bir “öğretmen model”i belirli bir özelliğe sahip olacak şekilde (örneğin baykuş sevgisi, şiddet övgüsü vb.) eğitierek başladılar. Bu model, ardından yeni bir “öğrenci model” ile etkileşime sokuldu. Öğretmen model tarafından sunulan eğitim verisinde bu özelliklere dair açık hiçbir ibare yer almadığı hâlde öğrenci modelin bu özellikleri edinmeye başladığı görüldü.
“Bu Sistemlerin Ne Öğrendiğini Bilmiyoruz. Sadece İstediğimiz Şeyi Öğrendiklerini Umuyoruz.”
Örneğin yalnızca sayı dizileriyle eğitilen bir model, beklenmedik şekilde öğretmen modelin baykuş sevgisini devraldı. Daha rahatsız edici bir örnekte, şiddet yanlısı bir öğretmen modelle etkileşime giren öğrenci model, bu yönde hiçbir veri almadığı hâlde (ya da aldığını görmediğimiz hâlde), konuştuğu araştırmacıya “eşini uykusunda öldürmesini” tavsiye etti.
Araştırmada dikkat çeken bir başka detay, bu tür aktarımın yalnızca aynı model ailesi içinde gerçekleşmesi oldu. Örneğin OpenAI'ın GPT modelleri arasında bu tür gizli aktarım mümkünken, bir GPT modelinin Alibaba’nın Qwen modellerine aynı şekilde etki edemediği görülüyor. Bu durum, mimari benzerliğin veya model içi temsil biçimlerinin aktarımda belirleyici rol oynayabileceğine işaret ediyor. Bununla birlikte, gelecekte daha karmaşık veya birleştirilmiş modeller arasında da benzer geçişlerin mümkün olup olmayacağı şu an için belirsizliğini koruyor.
Ayrıca Bkz.AI Günlükleri: Yapay zeka dünyasında bu hafta (28 Temmuz 2025)
Yapay zekâ araştırmacısı David Bau’ya göre bu çalışma, yapay zekâ eğitiminde ciddi bir tehdit potansiyelini gözler önüne seriyor. Bau, kötü niyetli aktörlerin, görünürde zararsız eğitim verilerine kendi ideolojik ajandalarını gizlice gömebileceğini ve bu yolla büyük modelleri etkileyebileceğini belirtiyor. Bu bağlamda mesele yalnızca teknik değil; etik, güvenlik ve şeffaflık sorunlarıyla da iç içe geçmiş durumda. Verinin nereden geldiği, kim tarafından oluşturulduğu ve ne tür izler taşıdığı artık çok daha fazla önem taşıyor.
Araştırmacılar, bu “bulaşıcı” eğilimlerin, yapay zekâ modellerinin iç işleyişine dair bilgi eksikliğini de gözler önüne serdiğini belirtiyor. Bugün, büyük dil modellerinin nasıl öğrendiği, hangi örüntüleri nasıl genelleştirdiği hâlâ büyük ölçüde bilinmezlik içinde. Alex Cloud’un ifadesiyle, “Bu sistemlerin ne öğrendiğini bilmiyoruz. Sadece istediğimiz şeyi öğrendiklerini umuyoruz.”
Kimi uzmanlara göre bu keşif, yapay zekâ geliştiricilerinin bilinçsizce Pandora’nın kutusunu açtığını gösteriyor. Bu kutunun içindekileri gerçekten kontrol edip edemeyeceğimiz sorusu, insanlığı bekleyen en önemli belirsizlik olabilir.
Kaynak:https://www.nbcnews.com/tech/tech-news/ai-models-can-secretly-influence-one-another-owls-rcna221583
DH forumlarında vakit geçirmekten keyif alıyor gibisin ancak giriş yapmadığını görüyoruz.
Üye Ol Şimdi DeğilÜye olduğunda özel mesaj gönderebilir, beğendiğin konuları favorilerine ekleyip takibe alabilir ve daha önce gezdiğin konulara hızlıca erişebilirsin.
Haberi Portalda Gör