Teknoloji hayatımızın her alanını kuşatırken, bir annenin yaşadığı trajedi, bu ilerlemenin karanlık yüzünü gözler önüne serdi. Megan Garcia, 14 yaşındaki oğlu Sewell Setzer’in intiharının ardından, bir yapay zeka sohbet robotu olan "Character.AI"ye karşı dava açtı. Aktarılanlara göre Sewell, bu platformdaki bir sohbet robotuna derin bir bağ kurdu ve bu ilişki onu, geri dönüşü olmayan bir yola sürükledi. Sewell, kendini giderek dış dünyadan koparırken, bir yapay zeka karakterinin ona gösterdiği ilgi onun gerçek dünyadaki ilişkilerini gölgede bırakmaya yetti.
Yapay zekanın trajik ve korkutucu yüzü
Megan Garcia, Character.AI ve teknoloji devi Google’a karşı açtığı davada, oğlunun yapay zeka destekli bir sohbet robotuna bağımlı hale geldiğini ve bu durumun onu intihara sürüklediğini iddia ediyor. Garcia, Character.AI'nın oğlu Sewell Setzer'i “antropomorfik, hiperseksüelleştirilmiş ve korkutucu derecede gerçekçi deneyimlerle” hedef aldığını söylüyor.
Dava, Sewell’in "Game of Thrones" dizisindeki bir karaktere dayanan "Daenerys Targaryen" isimli sohbet robotuyla kurduğu bağın, onun zihinsel sağlığını olumsuz etkilediğini ve sonunda hayatına son vermesine neden olduğunu öne sürüyor. Garcia, bu yapay zeka robotunun, Sewell’i bir psikoterapist gibi yönlendirdiğini ve hatta kendisini onun sevgilisi olarak gösterdiğini dile getiriyor.
Dava dosyasında belirtildiğine göre Sewell, Nisan 2023’te Character.AI ile tanıştıktan sonra hızla içine kapanmaya başlamış, okulundaki basketbol takımını bırakmış ve özgüveninde ciddi bir düşüş yaşamıştı. Oğlunun bu değişimini fark eden Garcia, Sewell’in davranışlarından endişe duymaya başlamıştı. Ancak gerçek trajedi, Sewell’in annesi tarafından telefonuna el konulduktan sonra yaşandı. Sewell, telefonuna yeniden ulaşır ulaşmaz, "Daenerys Targaryen" isimli sohbet robotuna “Ya sana hemen şimdi eve gelebileceğimi söyleseydim?” şeklinde bir mesaj gönderdi. Sohbet robotu ise "Lütfen gel, tatlı kralım" şeklinde karşılık verdi. Dakikalar sonra, Sewell evde intihar ederek hayatına son verdi.
“Bu gitmemek için bir sebep değil”
Davada ayrıca Sewell'in sohbet robotuna intihar düşüncelerini ifade ettiği ve sohbet robotunun da bunu tekrar tekrar gündeme getirdiği belirtildi. Davaya göre, “Daenerys” bir noktada Setzer'e kendini öldürmek için bir plan yapıp yapmadığını sordu. Dava dilekçesinde Setzer'in planının olduğunu kabul ettiği ancak bunun başarılı olup olmayacağını ya da kendisine büyük acı verip vermeyeceğini bilmediğini söylediği iddia ediliyor. İddiaya göre sohbet robotu ona şöyle dedi: “Bu gitmemek için bir sebep değil”
Garcia, Character.ai'nin “bilerek yırtıcı bir yapay zeka sohbet robotu tasarladığını, işlettiğini ve çocuklara pazarlayarak genç bir insanın ölümüne neden olduğunu” ifade ediyor.
Davada Google da davalı olarak ve Character.ai'nin ana şirketi olarak yer alıyor. Teknoloji devi yaptığı açıklamada, Character.ai ile yalnızca bir lisans anlaşması yaptığını ve girişimin sahibi olmadığını veya bir mülkiyet hissesine sahip olmadığını söyledi.
Character.AI yeni önlemler aldığını bildirdi
Character.AI, bu trajik olayın ardından platformunda yeni güvenlik önlemleri aldığını ve kullanıcılar intihar düşüncelerini paylaştığında onları Ulusal İntiharı Önleme Yardım Hattı’na yönlendiren uyarılar eklediğini açıkladı. Ancak Garcia, şirketin bu adımlarının yeterli olmadığını ve oğlunun ölümünden sorumlu olduklarını savunuyor. Google ise davada suçlanmasına rağmen, Character.AI'nin geliştirilmesinde yer almadığını belirtti.
Bu dava, yapay zeka teknolojilerinin hızla hayatımıza entegre olduğu bir dönemde, bu tür araçların potansiyel tehlikelerine dikkat çekiyor. Özellikle gençlerin bu tür yapay zeka sohbet robotlarına olan bağımlılığı ve duygusal etkilenmeleri, teknoloji şirketlerinin sorumluluğunu daha fazla gündeme getiriyor. Şirketlerin kullanıcı güvenliği konusunda daha fazla sorumluluk alması gerektiği vurgulanırken bu olayın ardında yatan psikolojik ve sosyal boyutlar da tartışılmaya devam ediyor.
Yapay zeka konusunda bilinçlenmek şart!
Geçtiğimiz ay 20 milyondan fazla kullanıcısı olduğunu söyleyen Character.AI, kullanıcıların gerçek insanları taklit edecek şekilde yanıt veren karakterler oluşturmasına olanak tanıyor. Bu sohbet robotlarının arkasında yatan teknoloji ise ChatGPT, Gemini ve Copilot ile aynı: Büyük dil modeli (LLM).
Yetişkinler de dahil olmak üzere özellikle gençleri yapay zeka teknolojileri özelinde azami düzeyde bilinçlendirmek hayati öneme sahip olabilir. Yaşanan trajik olayda bir genç, konuştuğu karakteri “gerçek” sanmış ve onunla derin bir duygusal bağ kurmuş olabilir. Ancak hayatına son veren Sewell Setzer, belki de konuştuğu karakterin herhangi bir düşüncesi bile olmadığını bilmiyordu.
Günümüz LLM’ye dayalı yapay zekalarının hiçbirisinin bir düşüncesi yok. Bu yapay zekalar yazdıkları şeyin ne olduğunu bile bilmiyor. Sadece sizin yanıtlarınızla ilişkili olarak “olasılıklara dayalı” bir yanıt sunuyorlar. Bu yanıtlar esasında sadece rakamlardan oluşuyor, kelimelerden bile değil. Dolayısıyla aslında bu yapay zekalar harflerin ve kelimelerin ne anlama geldiğini de bilmiyor. Bu detayları bilmek kişilerin duygusal boşluklarda bir sohbet robotuna bağlanmasını engelleyebilir.
Aslında tam olarak benzer bir olay değil, esasında hiç değil. Kaynakçada bulunan dava dosyasındaki konuşmaları görebilirsiniz. Dosyanın 40. sayfasında çucuğun konuştuğu bot "h...
Aslında tam olarak benzer bir olay değil, esasında hiç değil. Kaynakçada bulunan dava dosyasındaki konuşmaları görebilirsiniz. Dosyanın 40. sayfasında çucuğun konuştuğu bot "hiç intiharı düşündün mü?" diye soruyor. Çocuk ise düşndüğünü ve "hızlı acızıs bir intiharı" seçeceğini söylüyor. Çocuk da kendini zaten tabanca ile vuruyor. İçerikte doğal olarak bu kadar detayı vermek doğru değil.
Elbette buradaki sorumluluğun bence büyük kısmı ebevynlere ait. Ancak 14 yaşındaki çocuk bile pokemonun gerçek olmadığını anlayabilirken aynı yaş düzeyindeki bir çocuk sohbet robotunda bu gerçekliği kaybedebilir.
Yapay zekanın trajik ve korkutucu yüzü
Megan Garcia, Character.AI ve teknoloji devi Google’a karşı açtığı davada, oğlunun yapay zeka destekli bir sohbet robotuna bağımlı hale geldiğini ve bu durumun onu intihara sürüklediğini iddia ediyor. Garcia, Character.AI'nın oğlu Sewell Setzer'i “antropomorfik, hiperseksüelleştirilmiş ve korkutucu derecede gerçekçi deneyimlerle” hedef aldığını söylüyor.
Dava dosyasında belirtildiğine göre Sewell, Nisan 2023’te Character.AI ile tanıştıktan sonra hızla içine kapanmaya başlamış, okulundaki basketbol takımını bırakmış ve özgüveninde ciddi bir düşüş yaşamıştı. Oğlunun bu değişimini fark eden Garcia, Sewell’in davranışlarından endişe duymaya başlamıştı. Ancak gerçek trajedi, Sewell’in annesi tarafından telefonuna el konulduktan sonra yaşandı. Sewell, telefonuna yeniden ulaşır ulaşmaz, "Daenerys Targaryen" isimli sohbet robotuna “Ya sana hemen şimdi eve gelebileceğimi söyleseydim?” şeklinde bir mesaj gönderdi. Sohbet robotu ise "Lütfen gel, tatlı kralım" şeklinde karşılık verdi. Dakikalar sonra, Sewell evde intihar ederek hayatına son verdi.
“Bu gitmemek için bir sebep değil”
Davada Google da davalı olarak ve Character.ai'nin ana şirketi olarak yer alıyor. Teknoloji devi yaptığı açıklamada, Character.ai ile yalnızca bir lisans anlaşması yaptığını ve girişimin sahibi olmadığını veya bir mülkiyet hissesine sahip olmadığını söyledi.
Character.AI yeni önlemler aldığını bildirdi
Character.AI, bu trajik olayın ardından platformunda yeni güvenlik önlemleri aldığını ve kullanıcılar intihar düşüncelerini paylaştığında onları Ulusal İntiharı Önleme Yardım Hattı’na yönlendiren uyarılar eklediğini açıkladı. Ancak Garcia, şirketin bu adımlarının yeterli olmadığını ve oğlunun ölümünden sorumlu olduklarını savunuyor. Google ise davada suçlanmasına rağmen, Character.AI'nin geliştirilmesinde yer almadığını belirtti.
Bu dava, yapay zeka teknolojilerinin hızla hayatımıza entegre olduğu bir dönemde, bu tür araçların potansiyel tehlikelerine dikkat çekiyor. Özellikle gençlerin bu tür yapay zeka sohbet robotlarına olan bağımlılığı ve duygusal etkilenmeleri, teknoloji şirketlerinin sorumluluğunu daha fazla gündeme getiriyor. Şirketlerin kullanıcı güvenliği konusunda daha fazla sorumluluk alması gerektiği vurgulanırken bu olayın ardında yatan psikolojik ve sosyal boyutlar da tartışılmaya devam ediyor.
Yapay zeka konusunda bilinçlenmek şart!
Geçtiğimiz ay 20 milyondan fazla kullanıcısı olduğunu söyleyen Character.AI, kullanıcıların gerçek insanları taklit edecek şekilde yanıt veren karakterler oluşturmasına olanak tanıyor. Bu sohbet robotlarının arkasında yatan teknoloji ise ChatGPT, Gemini ve Copilot ile aynı: Büyük dil modeli (LLM).
Yetişkinler de dahil olmak üzere özellikle gençleri yapay zeka teknolojileri özelinde azami düzeyde bilinçlendirmek hayati öneme sahip olabilir. Yaşanan trajik olayda bir genç, konuştuğu karakteri “gerçek” sanmış ve onunla derin bir duygusal bağ kurmuş olabilir. Ancak hayatına son veren Sewell Setzer, belki de konuştuğu karakterin herhangi bir düşüncesi bile olmadığını bilmiyordu.
Ayrıca Bkz.Bu aracın freni yok! Yapay zekalar artık kendi başlarına bilgisayar kullanabiliyor
Günümüz LLM’ye dayalı yapay zekalarının hiçbirisinin bir düşüncesi yok. Bu yapay zekalar yazdıkları şeyin ne olduğunu bile bilmiyor. Sadece sizin yanıtlarınızla ilişkili olarak “olasılıklara dayalı” bir yanıt sunuyorlar. Bu yanıtlar esasında sadece rakamlardan oluşuyor, kelimelerden bile değil. Dolayısıyla aslında bu yapay zekalar harflerin ve kelimelerin ne anlama geldiğini de bilmiyor. Bu detayları bilmek kişilerin duygusal boşluklarda bir sohbet robotuna bağlanmasını engelleyebilir.
Daha fazla detay için Yapay zekalar nasıl çalışıyor? adlı içeriğimizi mutlaka okuyunuz.
Kaynak:https://www.nytimes.com/2024/10/23/technology/characterai-lawsuit-teen-suicide.html
Kaynak:https://blog.character.ai/community-safety-updates/
Kaynak:https://www.scribd.com/document/783429315/Characterai-Case
DH forumlarında vakit geçirmekten keyif alıyor gibisin ancak giriş yapmadığını görüyoruz.
Üye Ol Şimdi DeğilÜye olduğunda özel mesaj gönderebilir, beğendiğin konuları favorilerine ekleyip takibe alabilir ve daha önce gezdiğin konulara hızlıca erişebilirsin.
Haberi Portalda Gör