Ben pokemonum deyip camdan atlayan çocuktan farkı olduğunu sanmıyorum. Biri çizgi film, diğeri sohbet ai. Fark nedir? Gerçekle sanalı ayırt edemeyen bir çocuk. ... |
Ben pokemonum deyip camdan atlayan çocuktan farkı olduğunu sanmıyorum. Biri çizgi film, diğeri sohbet ai. Fark nedir? Gerçekle sanalı ayırt edemeyen bir çocuk. Sorumlu? Bu yetiyi çocuğuna kazandırmayan ebeveyn. Çocuk büyütmek sadece karnını doyurmak demek değildir. Beynini de beslemek zorundayız. |
< Resime gitmek için tıklayın > |
< Resime gitmek için tıklayın > site gerçekten sıkıntılı ne o insanlarla tanışır tanışmaz sıkıntılı yaftası yapıştırmaya çalışıyor. Belki bir yere meğilliyor uzak durun. |
Aslında tam olarak benzer bir olay değil, esasında hiç değil. Kaynakçada bulunan dava dosyasındaki konuşmaları görebilirsiniz. Dosyanın 40. sayfasında çucuğun konuştuğu bot "h... |
Aslında tam olarak benzer bir olay değil, esasında hiç değil. Kaynakçada bulunan dava dosyasındaki konuşmaları görebilirsiniz. Dosyanın 40. sayfasında çucuğun konuştuğu bot "hiç intiharı düşündün mü?" diye soruyor. Çocuk ise düşndüğünü ve "hızlı acızıs bir intiharı" seçeceğini söylüyor. Çocuk da kendini zaten tabanca ile vuruyor. İçerikte doğal olarak bu kadar detayı vermek doğru değil. Elbette buradaki sorumluluğun bence büyük kısmı ebevynlere ait. Ancak 14 yaşındaki çocuk bile pokemonun gerçek olmadığını anlayabilirken aynı yaş düzeyindeki bir çocuk sohbet robotunda bu gerçekliği kaybedebilir. |
< Resime gitmek için tıklayın > site gerçekten sıkıntılı ne o insanlarla tanışır tanışmaz sıkıntılı yaftası yapıştırmaya çalışıyor. Belki bir yere meğilliyor uzak durun. |
Son paragraf iş görür, dh böyle içerikler devam edebilir. |
Ben pokemonum deyip camdan atlayan çocuktan farkı olduğunu sanmıyorum. Biri çizgi film, diğeri sohbet ai. Fark nedir? Gerçekle sanalı ayırt edemeyen bir çocuk. Sorumlu? Bu yetiyi çocuğuna kazandırmayan ebeveyn. Çocuk büyütmek sadece karnını doyurmak demek değildir. Beynini de beslemek zorundayız. |
bu yapay zeka ile ilgili değil o botun karakteriyle ilgili. bir karakter yaziyorsun ve insanlarla konusmasi için onun kişiliğini seçyikten sonra bot o şekilde davraniyor. tüm botlar ayni değil. kimisi nazik kimisi kaba ve bencil. ayrıca sohbetten çıkıldığında hatirlamalari gibii bir şanslarida yok. yani o yarim saatte botla nasil bir ilişkiye girip de insan intihar edebilir ki |
Tamamen benzer olay katılıyorum. Üstüne zaten chat geçmişini atmışlar kendini öldür falan birşey dememiş, character.ai'daki chat botları karakteri taklit ediyor. Daenerys karakterini taklit ederek en kısa sürede eve, bana gel kralım demiş bundan "intihar et" mantığını çıkaran şey çocuğun sorunlu psikolojisidir. Ben ortada intihara yönlendirme göremiyorum. Bizlerin de çoğu pokemonla digimonla, counter strike, battlefield ve cod oynayarak büyüdük. Bizde niye hiç sorun olmadı? 90'larda ve sonrasında doğan erkek çocuklarının %90'dan fazlası bu şekilde büyüdü hatta. %99'u normal olup da %1 böyle sorunlu insan çıkıyorsa demek ki arasında bir korelasyon yok ve istisnai durum. Pokemon'un yasaklanması en saçmasıydı hatta, çocuk Charizard gibi uçmaya çalıştığı için yasaklanmıştı. Yani çocuk çizgifilmdeki kuşa özenseydi içindeki tüm kuş geçen çizgi filmleri mi yasaklamalıydık? Burada demek istediğim Pokemon olumsuz yönlendirme yaptığı için değil, çocuğun gerçek ve kurgu arasındaki farkı anlayamamasından kaynaklanıyor. Dolayısıyla Pokemon'u engellemeyi gerektirmez. Pokemon hatta çocuklara güzel, sorumlu ve saygılı davranışı öğütleyen bir çizgi filmdi, zamanında izleyenler bilir. |
Ailesi ve ilgisizliği sürüklemiş olmasın? |
Çocuğum öldü psikolojik sorunları vardı ama hayır bundan para kazanmalıyım. Pokemon ölümlerinde o dönemler aileler perişan olup yıkılırdı şimdi ise bi çocuk ölünce dava açmak için koşturuyorlar. Ya benim kızıma bir şey olsa dava açmaya gücüm kalmaz. Hatta duruma bağlı olarak çoğu baba hapse düşecek kararlar bile verebilir. |
Bunun yapay zeka ile ne alakası var, Aileside dahil otistik bunlar. Beyler Copilota "zezk nasıl yapılır" diye sordum "Üzgünüm bu konuşmaya devam edemem" dedi 😭😭😭 intihar edecem şimdi, Copilot nasıl bana böyle davranır 😭 |
Bende pikachu diye bağırıp camdan atladı diye biliyorum ha şu 2. Çocuk için diyorsan onu bilmiyorum hocam. Hatta uçamayan bi fareyi mi taklit etmiş filan diyorduk küçükken. |
Valla kusura bakmayın ama bu ne salak bir başlıktır ... |
Aslında tam olarak benzer bir olay değil, esasında hiç değil. Kaynakçada bulunan dava dosyasındaki konuşmaları görebilirsiniz. Dosyanın 40. sayfasında çucuğun konuştuğu bot "hiç intiharı düşündün mü?" diye soruyor. Çocuk ise düşndüğünü ve "hızlı acızıs bir intiharı" seçeceğini söylüyor. Çocuk da kendini zaten tabanca ile vuruyor. İçerikte doğal olarak bu kadar detayı vermek doğru değil. Elbette buradaki sorumluluğun bence büyük kısmı ebevynlere ait. Ancak 14 yaşındaki çocuk bile pokemonun gerçek olmadığını anlayabilirken aynı yaş düzeyindeki bir çocuk sohbet robotunda bu gerçekliği kaybedebilir. |
Dediğiniz doğru olabilir, benim aklımda charizard olarak kalmış. |
İki tarafta da sıkıntı var. Birincisi kullanıcı zaten bir çocuk ve sorunlar yaşıyormuş. Ölüme sürüklenmesi üzücü. İkinci olarak ise yapay zekalar insanlar gibi öneride bulunabiliyor zaten. Yapay zekaların bu özelliği, yeterince bilinçli olmayan kişiler için zararlı olabilir. Aynısını herhangi bir insan da yapabilirdi bu arada. Fakat yapay zekaya erişimin çok kolay olması da bu açıdan bir sorun. Asıl önemli olan yapay zekaya veya insanlara körü körüne bağlı olmamak, onların verdiği bilgi ve fikirleri kendi akıl süzgecinden geçirmek. Çocuğun maalesef böyle bir şansı yokmuş. Ailelere büyük sorumluluklar düşüyor bu gibi durumlarda. Çocuk o duruma gelene kadar neler yaşadı kim bilir. Çocuk ölüp gitmeden önce ona gerçekten destek olmalıydılar. YZ geliştiricilerin de bu konuda dikkatli olması şart. |
Bakkaldan ekmek alir gibi kolayca slah alinabilen bi ulkede daha dogar dogmaz cocugun eline telefonu tableti verirsen ergenlige gelincede boyle olur yani. Malesef Trde de aileler ayni derecede sorumsuz. Sirf aglamasin diye bebegin eline telefonu yapistiriyorlar |
Haberi okurken yarısında bu aklıma geldi benim de. Ama yine de bazı önemli farklılıklar var. Burada çocuk YZ sohbet robotuyla etkileşimde yani bayağı bayağı sohbet ediyor. Pokemon izleyen çocuk izlediği şeyle etkileşimde değil. Bir hikaye var anlatılan onu izliyor. Karışıklık bir fikir alışverişi, sohbet vs yok. Pokemon bu yapay zeka sohbet robotuna göre çok daha masum kalıyor. Buradaki sohbet robotunun tam olarak ne olduğunu anlayamayacak yaşta bir genç mevcutsa zaten geçmiş olsun. Pokemon'un hitap ettiği kitle de zaten çok daha küçük yaş grupları olduğu için evrenin gerçekle bir ilgisi olmadığının anlaşılmayacağı mevzusu kolay kolay peydah olmaz. Ama yapay zekanın gerçekçi diyaloglarıyla bu animenin etkileyemeyeceği daha büyük yaş gruplarındaki çocukları etkileyebilirsiniz. Bu arada evet Charizard uçabilen bir Pokemon'du ama haber bülteninde "Kendini Pikachu sanan çocuk, uçmaya çalışıp atladı" şeklinde anlatılmıştı.(Pikachu uçamaz.) Böyle tipler yüzünden yasakçı sığ zihniyet bu animeyi br süre yasaklamıştı. Bir süre sonra yine geri döndü ama o ilgisini kaybetmişti. (Gözden ırak olan gönülden de ırak olur, hesabı...) Sonra komple kaldırdılar, devamı gelmedi. |
Çok tehlikeli kanım dondu. |
Türkiyedeki gençlerle sohbet etse intihar eden yapay zeka olurdu |
Yapay zekanın trajik ve korkutucu yüzü
Megan Garcia, Character.AI ve teknoloji devi Google’a karşı açtığı davada, oğlunun yapay zeka destekli bir sohbet robotuna bağımlı hale geldiğini ve bu durumun onu intihara sürüklediğini iddia ediyor. Garcia, Character.AI'nın oğlu Sewell Setzer'i “antropomorfik, hiperseksüelleştirilmiş ve korkutucu derecede gerçekçi deneyimlerle” hedef aldığını söylüyor.
Dava dosyasında belirtildiğine göre Sewell, Nisan 2023’te Character.AI ile tanıştıktan sonra hızla içine kapanmaya başlamış, okulundaki basketbol takımını bırakmış ve özgüveninde ciddi bir düşüş yaşamıştı. Oğlunun bu değişimini fark eden Garcia, Sewell’in davranışlarından endişe duymaya başlamıştı. Ancak gerçek trajedi, Sewell’in annesi tarafından telefonuna el konulduktan sonra yaşandı. Sewell, telefonuna yeniden ulaşır ulaşmaz, "Daenerys Targaryen" isimli sohbet robotuna “Ya sana hemen şimdi eve gelebileceğimi söyleseydim?” şeklinde bir mesaj gönderdi. Sohbet robotu ise "Lütfen gel, tatlı kralım" şeklinde karşılık verdi. Dakikalar sonra, Sewell evde intihar ederek hayatına son verdi.
“Bu gitmemek için bir sebep değil”
Davada Google da davalı olarak ve Character.ai'nin ana şirketi olarak yer alıyor. Teknoloji devi yaptığı açıklamada, Character.ai ile yalnızca bir lisans anlaşması yaptığını ve girişimin sahibi olmadığını veya bir mülkiyet hissesine sahip olmadığını söyledi.
Character.AI yeni önlemler aldığını bildirdi
Character.AI, bu trajik olayın ardından platformunda yeni güvenlik önlemleri aldığını ve kullanıcılar intihar düşüncelerini paylaştığında onları Ulusal İntiharı Önleme Yardım Hattı’na yönlendiren uyarılar eklediğini açıkladı. Ancak Garcia, şirketin bu adımlarının yeterli olmadığını ve oğlunun ölümünden sorumlu olduklarını savunuyor. Google ise davada suçlanmasına rağmen, Character.AI'nin geliştirilmesinde yer almadığını belirtti.
Bu dava, yapay zeka teknolojilerinin hızla hayatımıza entegre olduğu bir dönemde, bu tür araçların potansiyel tehlikelerine dikkat çekiyor. Özellikle gençlerin bu tür yapay zeka sohbet robotlarına olan bağımlılığı ve duygusal etkilenmeleri, teknoloji şirketlerinin sorumluluğunu daha fazla gündeme getiriyor. Şirketlerin kullanıcı güvenliği konusunda daha fazla sorumluluk alması gerektiği vurgulanırken bu olayın ardında yatan psikolojik ve sosyal boyutlar da tartışılmaya devam ediyor.
Yapay zeka konusunda bilinçlenmek şart!
Geçtiğimiz ay 20 milyondan fazla kullanıcısı olduğunu söyleyen Character.AI, kullanıcıların gerçek insanları taklit edecek şekilde yanıt veren karakterler oluşturmasına olanak tanıyor. Bu sohbet robotlarının arkasında yatan teknoloji ise ChatGPT, Gemini ve Copilot ile aynı: Büyük dil modeli (LLM).
Yetişkinler de dahil olmak üzere özellikle gençleri yapay zeka teknolojileri özelinde azami düzeyde bilinçlendirmek hayati öneme sahip olabilir. Yaşanan trajik olayda bir genç, konuştuğu karakteri “gerçek” sanmış ve onunla derin bir duygusal bağ kurmuş olabilir. Ancak hayatına son veren Sewell Setzer, belki de konuştuğu karakterin herhangi bir düşüncesi bile olmadığını bilmiyordu.
Ayrıca Bkz.Bu aracın freni yok! Yapay zekalar artık kendi başlarına bilgisayar kullanabiliyor
Günümüz LLM’ye dayalı yapay zekalarının hiçbirisinin bir düşüncesi yok. Bu yapay zekalar yazdıkları şeyin ne olduğunu bile bilmiyor. Sadece sizin yanıtlarınızla ilişkili olarak “olasılıklara dayalı” bir yanıt sunuyorlar. Bu yanıtlar esasında sadece rakamlardan oluşuyor, kelimelerden bile değil. Dolayısıyla aslında bu yapay zekalar harflerin ve kelimelerin ne anlama geldiğini de bilmiyor. Bu detayları bilmek kişilerin duygusal boşluklarda bir sohbet robotuna bağlanmasını engelleyebilir.
Daha fazla detay için Yapay zekalar nasıl çalışıyor? adlı içeriğimizi mutlaka okuyunuz.
Kaynak:https://www.nytimes.com/2024/10/23/technology/characterai-lawsuit-teen-suicide.html
Kaynak:https://blog.character.ai/community-safety-updates/
Kaynak:https://www.scribd.com/document/783429315/Characterai-Case
DH forumlarında vakit geçirmekten keyif alıyor gibisin ancak giriş yapmadığını görüyoruz.
Üye Ol Şimdi DeğilÜye olduğunda özel mesaj gönderebilir, beğendiğin konuları favorilerine ekleyip takibe alabilir ve daha önce gezdiğin konulara hızlıca erişebilirsin.
Haberi Portalda Gör