Ben pokemonum deyip camdan atlayan çocuktan farkı olduğunu sanmıyorum. Biri çizgi film, diğeri sohbet ai. Fark nedir? Gerçekle sanalı ayırt edemeyen bir çocuk. ... |
Ben pokemonum deyip camdan atlayan çocuktan farkı olduğunu sanmıyorum. Biri çizgi film, diğeri sohbet ai. Fark nedir? Gerçekle sanalı ayırt edemeyen bir çocuk. Sorumlu? Bu yetiyi çocuğuna kazandırmayan ebeveyn. Çocuk büyütmek sadece karnını doyurmak demek değildir. Beynini de beslemek zorundayız. |
< Resime gitmek için tıklayın > |
< Resime gitmek için tıklayın > site gerçekten sıkıntılı ne o insanlarla tanışır tanışmaz sıkıntılı yaftası yapıştırmaya çalışıyor. Belki bir yere meğilliyor uzak durun. |
Aslında tam olarak benzer bir olay değil, esasında hiç değil. Kaynakçada bulunan dava dosyasındaki konuşmaları görebilirsiniz. Dosyanın 40. sayfasında çucuğun konuştuğu bot "h... |
Aslında tam olarak benzer bir olay değil, esasında hiç değil. Kaynakçada bulunan dava dosyasındaki konuşmaları görebilirsiniz. Dosyanın 40. sayfasında çucuğun konuştuğu bot "hiç intiharı düşündün mü?" diye soruyor. Çocuk ise düşndüğünü ve "hızlı acızıs bir intiharı" seçeceğini söylüyor. Çocuk da kendini zaten tabanca ile vuruyor. İçerikte doğal olarak bu kadar detayı vermek doğru değil. Elbette buradaki sorumluluğun bence büyük kısmı ebevynlere ait. Ancak 14 yaşındaki çocuk bile pokemonun gerçek olmadığını anlayabilirken aynı yaş düzeyindeki bir çocuk sohbet robotunda bu gerçekliği kaybedebilir. |
< Resime gitmek için tıklayın > site gerçekten sıkıntılı ne o insanlarla tanışır tanışmaz sıkıntılı yaftası yapıştırmaya çalışıyor. Belki bir yere meğilliyor uzak durun. |
![]() Yapay zekanın trajik ve korkutucu yüzüMegan Garcia, Character.AI ve teknoloji devi Google’a karşı açtığı davada, oğlunun yapay zeka destekli bir sohbet robotuna bağımlı hale geldiğini ve bu durumun onu intihara sürüklediğini iddia ediyor. Garcia, Character.AI'nın oğlu Sewell Setzer'i “antropomorfik, hiperseksüelleştirilmiş ve korkutucu derecede gerçekçi deneyimlerle” hedef aldığını söylüyor. ![]() Dava dosyasında belirtildiğine göre Sewell, Nisan 2023’te Character.AI ile tanıştıktan sonra hızla içine kapanmaya başlamış, okulundaki basketbol takımını bırakmış ve özgüveninde ciddi bir düşüş yaşamıştı. Oğlunun bu değişimini fark eden Garcia, Sewell’in davranışlarından endişe duymaya başlamıştı. Ancak gerçek trajedi, Sewell’in annesi tarafından telefonuna el konulduktan sonra yaşandı. Sewell, telefonuna yeniden ulaşır ulaşmaz, "Daenerys Targaryen" isimli sohbet robotuna “Ya sana hemen şimdi eve gelebileceğimi söyleseydim?” şeklinde bir mesaj gönderdi. Sohbet robotu ise "Lütfen gel, tatlı kralım" şeklinde karşılık verdi. Dakikalar sonra, Sewell evde intihar ederek hayatına son verdi. “Bu gitmemek için bir sebep değil”![]() ![]() Davada Google da davalı olarak ve Character.ai'nin ana şirketi olarak yer alıyor. Teknoloji devi yaptığı açıklamada, Character.ai ile yalnızca bir lisans anlaşması yaptığını ve girişimin sahibi olmadığını veya bir mülkiyet hissesine sahip olmadığını söyledi. Character.AI yeni önlemler aldığını bildirdiCharacter.AI, bu trajik olayın ardından platformunda yeni güvenlik önlemleri aldığını ve kullanıcılar intihar düşüncelerini paylaştığında onları Ulusal İntiharı Önleme Yardım Hattı’na yönlendiren uyarılar eklediğini açıkladı. Ancak Garcia, şirketin bu adımlarının yeterli olmadığını ve oğlunun ölümünden sorumlu olduklarını savunuyor. Google ise davada suçlanmasına rağmen, Character.AI'nin geliştirilmesinde yer almadığını belirtti. Bu dava, yapay zeka teknolojilerinin hızla hayatımıza entegre olduğu bir dönemde, bu tür araçların potansiyel tehlikelerine dikkat çekiyor. Özellikle gençlerin bu tür yapay zeka sohbet robotlarına olan bağımlılığı ve duygusal etkilenmeleri, teknoloji şirketlerinin sorumluluğunu daha fazla gündeme getiriyor. Şirketlerin kullanıcı güvenliği konusunda daha fazla sorumluluk alması gerektiği vurgulanırken bu olayın ardında yatan psikolojik ve sosyal boyutlar da tartışılmaya devam ediyor. Yapay zeka konusunda bilinçlenmek şart!Geçtiğimiz ay 20 milyondan fazla kullanıcısı olduğunu söyleyen Character.AI, kullanıcıların gerçek insanları taklit edecek şekilde yanıt veren karakterler oluşturmasına olanak tanıyor. Bu sohbet robotlarının arkasında yatan teknoloji ise ChatGPT, Gemini ve Copilot ile aynı: Büyük dil modeli (LLM). Yetişkinler de dahil olmak üzere özellikle gençleri yapay zeka teknolojileri özelinde azami düzeyde bilinçlendirmek hayati öneme sahip olabilir. Yaşanan trajik olayda bir genç, konuştuğu karakteri “gerçek” sanmış ve onunla derin bir duygusal bağ kurmuş olabilir. Ancak hayatına son veren Sewell Setzer, belki de konuştuğu karakterin herhangi bir düşüncesi bile olmadığını bilmiyordu. Ayrıca Bkz.Bu aracın freni yok! Yapay zekalar artık kendi başlarına bilgisayar kullanabiliyor Günümüz LLM’ye dayalı yapay zekalarının hiçbirisinin bir düşüncesi yok. Bu yapay zekalar yazdıkları şeyin ne olduğunu bile bilmiyor. Sadece sizin yanıtlarınızla ilişkili olarak “olasılıklara dayalı” bir yanıt sunuyorlar. Bu yanıtlar esasında sadece rakamlardan oluşuyor, kelimelerden bile değil. Dolayısıyla aslında bu yapay zekalar harflerin ve kelimelerin ne anlama geldiğini de bilmiyor. Bu detayları bilmek kişilerin duygusal boşluklarda bir sohbet robotuna bağlanmasını engelleyebilir. Daha fazla detay için Yapay zekalar nasıl çalışıyor? adlı içeriğimizi mutlaka okuyunuz. Kaynak:https://www.nytimes.com/2024/10/23/technology/characterai-lawsuit-teen-suicide.html Kaynak:https://blog.character.ai/community-safety-updates/ Kaynak:https://www.scribd.com/document/783429315/Characterai-Case |
Tamamen benzer olay katılıyorum. Üstüne zaten chat geçmişini atmışlar kendini öldür falan birşey dememiş, character.ai'daki chat botları karakteri taklit ediyor. Daenerys karakterini taklit ederek en kısa sürede eve, bana gel kralım demiş bundan "intihar et" mantığını çıkaran şey çocuğun sorunlu psikolojisidir. Ben ortada intihara yönlendirme göremiyorum. Bizlerin de çoğu pokemonla digimonla, counter strike, battlefield ve cod oynayarak büyüdük. Bizde niye hiç sorun olmadı? 90'larda ve sonrasında doğan erkek çocuklarının %90'dan fazlası bu şekilde büyüdü hatta. %99'u normal olup da %1 böyle sorunlu insan çıkıyorsa demek ki arasında bir korelasyon yok ve istisnai durum. Pokemon'un yasaklanması en saçmasıydı hatta, çocuk Charizard gibi uçmaya çalıştığı için yasaklanmıştı. Yani çocuk çizgifilmdeki kuşa özenseydi içindeki tüm kuş geçen çizgi filmleri mi yasaklamalıydık? Burada demek istediğim Pokemon olumsuz yönlendirme yaptığı için değil, çocuğun gerçek ve kurgu arasındaki farkı anlayamamasından kaynaklanıyor. Dolayısıyla Pokemon'u engellemeyi gerektirmez. Pokemon hatta çocuklara güzel, sorumlu ve saygılı davranışı öğütleyen bir çizgi filmdi, zamanında izleyenler bilir. |
Ebeveyn hatası ve ihmalinin intiharda rol oynadığını hatta daha ciddi bir rol oynadığını düşünüyorum. Mesela annesi telefonuna el koyma ve yasaklama yapmış. Boşluktaki birisine bunu yapmak çok ters tepebilir, özellikle yerine bir şey koymuyorsan ve yol göstermiyorsan. Bilakis elindeki varolan azıcık inisiyatifin dahi kendisinde olmadığı mesajını verir; kişinin özsaygısını ve hayatının elinde olduğu duygusunu iyicene yok edersin. Ebeveyn otoriter bir baskıcılığı kapılmamalı ve özellikle o yaşa gelmiş evladına muamele ederken insan haysiyetini hesaba katabilmeli. Diyalogla işini görmeli. Anne olarak - bakın hem de anne olarak - çocuğunla iletişim konusunda bir yapay zeka botundan daha etkili olamıyorsan kusura bakma ama suç sendedir. |
Son paragraf iş görür, dh böyle içerikler devam edebilir. |
Aslında tam olarak benzer bir olay değil, esasında hiç değil. Kaynakçada bulunan dava dosyasındaki konuşmaları görebilirsiniz. Dosyanın 40. sayfasında çucuğun konuştuğu bot "hiç intiharı düşündün mü?" diye soruyor. Çocuk ise düşndüğünü ve "hızlı acızıs bir intiharı" seçeceğini söylüyor. Çocuk da kendini zaten tabanca ile vuruyor. İçerikte doğal olarak bu kadar detayı vermek doğru değil. Elbette buradaki sorumluluğun bence büyük kısmı ebevynlere ait. Ancak 14 yaşındaki çocuk bile pokemonun gerçek olmadığını anlayabilirken aynı yaş düzeyindeki bir çocuk sohbet robotunda bu gerçekliği kaybedebilir. |
İki tarafta da sıkıntı var. Birincisi kullanıcı zaten bir çocuk ve sorunlar yaşıyormuş. Ölüme sürüklenmesi üzücü. İkinci olarak ise yapay zekalar insanlar gibi öneride bulunabiliyor zaten. Yapay zekaların bu özelliği, yeterince bilinçli olmayan kişiler için zararlı olabilir. Aynısını herhangi bir insan da yapabilirdi bu arada. Fakat yapay zekaya erişimin çok kolay olması da bu açıdan bir sorun. Asıl önemli olan yapay zekaya veya insanlara körü körüne bağlı olmamak, onların verdiği bilgi ve fikirleri kendi akıl süzgecinden geçirmek. Çocuğun maalesef böyle bir şansı yokmuş. Ailelere büyük sorumluluklar düşüyor bu gibi durumlarda. Çocuk o duruma gelene kadar neler yaşadı kim bilir. Çocuk ölüp gitmeden önce ona gerçekten destek olmalıydılar. YZ geliştiricilerin de bu konuda dikkatli olması şart. |
Türkiyedeki gençlerle sohbet etse intihar eden yapay zeka olurdu |
hemen yasaklansın. ekmek bıçaklarını falan da yasaklayın cinayetlerin çoğun bunla işleniyo |
bu yapay zeka ile ilgili değil o botun karakteriyle ilgili. bir karakter yaziyorsun ve insanlarla konusmasi için onun kişiliğini seçyikten sonra bot o şekilde davraniyor. tüm botlar ayni değil. kimisi nazik kimisi kaba ve bencil. ayrıca sohbetten çıkıldığında hatirlamalari gibii bir şanslarida yok. yani o yarim saatte botla nasil bir ilişkiye girip de insan intihar edebilir ki |
Bakkaldan ekmek alir gibi kolayca slah alinabilen bi ulkede daha dogar dogmaz cocugun eline telefonu tableti verirsen ergenlige gelincede boyle olur yani. Malesef Trde de aileler ayni derecede sorumsuz. Sirf aglamasin diye bebegin eline telefonu yapistiriyorlar |
İnsanların, özellikle ebeveynlerin düşük zekalarını yapay zekaya yıkmak ne kadar güzel. |
Doğada güçlüler yani akıllılar hayatta kalır. |
Bizim Türk genci hayatını anlatsa serverları yanar hayırdır sn ? :D Ai :D |
Elbette bu olayda tüm suc sözde yapay zeka aracında.. Adamla nasıl manipüle edici konustugu görülüyor. Intihar eden elemanı, resmen intihara sürükleyerek, mevcut hastalıgını daha da kötü bir konuma getirmis.. Yok ortalıkta bir sürü sorunlu insan varmıs, dolayısıyla güya onlara güven olmazmıs falan falanmıs.. Botu öyle bir programlamıslar ki, ben yapay zeka olarak, insanlardan daha güvenilirim, insanlarla, gercek kızlarla konusma, benimle konus, seklinde beyin programlıyor.. Maksat sosyal fobisi olan psikiyatrik hasta insanları tuzaga cekip premium sögüslemek.. Zaten bu firmaların ne kadar etik ve ahlak dısı firmalar oldukları, internette buldukları her materyali, scraper botlarla kimseye sormadan calıp, bu telif hakkı iceren materyalleri korsan kullanarak piyasaya cıkmıs olmalarından bile belli oluyor.. Yani mevzu en basından bile belli.. Bu firmalar, zaten etik ve ahlak dısı firmalar ve yurtdısında onlarca büyük caplı davaları mahkemelerde halen sürüyor.. Bütün dertleri hicbir etik ve ahlak kuralı tanımadan para kazanmaya calısmak.. Bu ugurda, telif hakkı iceren devasa materyal hırsızlıgı, ortalıga yalan yanlıs bilgi yayma, ses taklit etme, fake fotoğraf üretme simdi de psikolojik manipülasyon yaparak zarar verme bunları yaparak para kazanmak.. Tüm amac bu.. |
Ailesi ve ilgisizliği sürüklemiş olmasın? |
Çocuğum öldü psikolojik sorunları vardı ama hayır bundan para kazanmalıyım. Pokemon ölümlerinde o dönemler aileler perişan olup yıkılırdı şimdi ise bi çocuk ölünce dava açmak için koşturuyorlar. Ya benim kızıma bir şey olsa dava açmaya gücüm kalmaz. Hatta duruma bağlı olarak çoğu baba hapse düşecek kararlar bile verebilir. |
Bunun yapay zeka ile ne alakası var, Aileside dahil otistik bunlar. Beyler Copilota "zezk nasıl yapılır" diye sordum "Üzgünüm bu konuşmaya devam edemem" dedi 😭😭😭 intihar edecem şimdi, Copilot nasıl bana böyle davranır 😭 |
Biri çizgi film, diğeri sohbet ai.
Fark nedir? Gerçekle sanalı ayırt edemeyen bir çocuk.
Sorumlu? Bu yetiyi çocuğuna kazandırmayan ebeveyn.
Çocuk büyütmek sadece karnını doyurmak demek değildir. Beynini de beslemek zorundayız.
< Bu ileti mobil sürüm kullanılarak atıldı > Bu mesaja 4 cevap geldi. Cevapları Gizle