Yapay zeka şirketi OpenAI tarafından geliştirilen ChatGPT, Kasım ayında yaptığı çıkışın ardından neredeyse her sektörde kullanılmaya başlandı. Gerek medikal tavsiyeler gerek yazılım mühendislerine katkılar ve gerekse de hukuk alanındaki bilgileriyle süreçleri kısaltmak gibi pek çok amaç için kullanıldı. Son örnekte ise bir avukat, dava dosyasını hazırlamak için ChatGPT kullandı. Peki ChatGPT’yi kullanmak işe yaradı mı?
Detaya girmeden önce ilk olarak davanın arka plan hikayesinden kısaca bahsedelim. Roberto Mata adlı bir kişi Avianca havayollarına, 2019 yılında havayolu şirketindeyken bir servis arabasından kaynaklandığını söylediği yaralanmalar için dava açtı ve sorunların ihmal kaynaklı olduğunu iddia etti. Yaklaşık 30 yıldır avukatlık yapan Steven Schwartz ise Mata'nın temsilciliğini üstlendi.
ChatGPT çuvalladı
Ancak Yargıç Kevin Castel, Schwartz'ın bir özet için araştırma olarak sunduğu davalardan en az altısının "sahte alıntılar ve sahte atıflar içeren hayali yargı kararları" ile dolu olduğunu söyledi. Sahte davaların kaynağı ise ChatGPT’den başkası değildi.
Schwartz şimdi 8 Haziran'da bir yaptırım duruşmasıyla karşı karşıya. Schwartz, verdiği yeminli ifadede, "Burada gerçekleştirilen hukuki araştırmayı desteklemek için üretken yapay zekadan yararlandığı için büyük pişmanlık duyduğunu ve gelecekte gerçekliğini kesin olarak doğrulamadan bunu asla yapmayacağını" söyledi.
Üretken yapay zekaların en tehlikeli sorunu
Üretken yapay zeka araçları inanılmaz boyutta faydalar sağlayabilir. Bir şirketin daha verimli çalışmasını, bir yazılımcının işini daha hızlı ve iyi yapabilmesini ve eğitimin daha kaliteli olmasını sağlayabilir. Aynı şekilde hukuksal yapay zekalar daha iyi adalet dağıtabilir.
Ancak bunların olması için yapay zeka “halüsinasyonu” sorununun çözülmesi gerekiyor. Bu araçlar hiçbir gerçeğe dayanmayan tamamen “uydurma” bilgiler üretebiliyor. Üstelik bu araçlar, ürettikleri sahte bilgileri “doğru” olarak savunabiliyor. Bu dava örneğinde de ChatGPT verdiği bilgilerin doğru olduğunu söyledi. Öte yandan gelişim duracak gibi görünmüyor. Son olarak kısa bir süre önce Yargıtay, emsal kararlar üzerine eğitilen bir yapay zeka üzerinde çalıştığını açıkladı.
avukatın teki dava için yapay zekaya ne yapması gerektiğini sormuş google'a yazar gibi. yapay zekaya sorduklarını da araştırmadan hemen almış. yanlış çıkmış.
Kıraathanede de bi insana sorsan o da yalan yanlış bilgiler söyleyecek o herif tehlikeli olmuyo da internete bağlı bi makina mı tehlikeli oluyo haber değeri artsın diye olayı büyütmüşsünüz. ona bakarsan yapay zeka sayesinde ambulans polis kişiyi tespit ediyo.
ChatGpt bu özelliğini aylar öncesinden keşfetmiştim. Sunduğu bilgileri sakın akademik olsun yada resmi işlerde kullanmayın bilgilerin mutlak teyidini yapın. Avukatın bu konudan haberi olması gerekirdi yada en azından kaynakları kendi veritabanında da aratabilirdi.
Yapay zeka şirketi OpenAI tarafından geliştirilen ChatGPT, Kasım ayında yaptığı çıkışın ardından neredeyse her sektörde kullanılmaya başlandı. Gerek medikal tavsiyeler gerek yazılım mühendislerine katkılar ve gerekse de hukuk alanındaki bilgileriyle süreçleri kısaltmak gibi pek çok amaç için kullanıldı. Son örnekte ise bir avukat, dava dosyasını hazırlamak için ChatGPT kullandı. Peki ChatGPT’yi kullanmak işe yaradı mı?
Detaya girmeden önce ilk olarak davanın arka plan hikayesinden kısaca bahsedelim. Roberto Mata adlı bir kişi Avianca havayollarına, 2019 yılında havayolu şirketindeyken bir servis arabasından kaynaklandığını söylediği yaralanmalar için dava açtı ve sorunların ihmal kaynaklı olduğunu iddia etti. Yaklaşık 30 yıldır avukatlık yapan Steven Schwartz ise Mata'nın temsilciliğini üstlendi.
ChatGPT çuvalladı
Ancak Yargıç Kevin Castel, Schwartz'ın bir özet için araştırma olarak sunduğu davalardan en az altısının "sahte alıntılar ve sahte atıflar içeren hayali yargı kararları" ile dolu olduğunu söyledi. Sahte davaların kaynağı ise ChatGPT’den başkası değildi.
Ayrıca Bkz.ChatGPT mobil uygulaması 6 günde 500.000 kez indirildi
Schwartz şimdi 8 Haziran'da bir yaptırım duruşmasıyla karşı karşıya. Schwartz, verdiği yeminli ifadede, "Burada gerçekleştirilen hukuki araştırmayı desteklemek için üretken yapay zekadan yararlandığı için büyük pişmanlık duyduğunu ve gelecekte gerçekliğini kesin olarak doğrulamadan bunu asla yapmayacağını" söyledi.
Üretken yapay zekaların en tehlikeli sorunu
Üretken yapay zeka araçları inanılmaz boyutta faydalar sağlayabilir. Bir şirketin daha verimli çalışmasını, bir yazılımcının işini daha hızlı ve iyi yapabilmesini ve eğitimin daha kaliteli olmasını sağlayabilir. Aynı şekilde hukuksal yapay zekalar daha iyi adalet dağıtabilir.
Ancak bunların olması için yapay zeka “halüsinasyonu” sorununun çözülmesi gerekiyor. Bu araçlar hiçbir gerçeğe dayanmayan tamamen “uydurma” bilgiler üretebiliyor. Üstelik bu araçlar, ürettikleri sahte bilgileri “doğru” olarak savunabiliyor. Bu dava örneğinde de ChatGPT verdiği bilgilerin doğru olduğunu söyledi. Öte yandan gelişim duracak gibi görünmüyor. Son olarak kısa bir süre önce Yargıtay, emsal kararlar üzerine eğitilen bir yapay zeka üzerinde çalıştığını açıkladı.
Kaynak:https://edition.cnn.com/2023/05/27/business/chat-gpt-avianca-mata-lawyers/index.html
Haberi Portalda Gör