Anthropic, kullanıcı verilerini işleme yaklaşımında önemli bir değişikliğe gidiyor. Şirket, tüm Claude kullanıcılarından 28 Eylül’e kadar, sohbetlerinin yapay zeka modellerini geliştirmek için kullanılmasını isteyip istemediklerine karar vermelerini talep ediyor.
Önceki politikasında tüketici sohbet verilerini model eğitimi için kullanmayan Anthropic, artık kullanıcı konuşmalarını ve kodlama oturumlarını AI eğitiminde değerlendirecek ve veri saklama süresini 5 yıla kadar uzatacak.
Kurumsal müşteriler hariç
Daha önce kullanıcıların girişleri ve sohbet çıktıları, 30 gün içinde sistemden otomatik olarak siliniyor, yalnızca yasal veya politika gereği daha uzun süre saklanması gerekiyorsa ya da kullanıcı içeriği politika ihlali oluşturuyorsa veriler en fazla iki yıl boyunca tutuluyordu.
Yeni düzenleme Claude Free, Pro, Max ve Code kullanıcılarını kapsıyor. Öte yandan, kurumsal müşterileri için Claude Gov, Claude for Work, Claude for Education ve API erişimleri değişiklikten etkilenmeyecek.
Anthropic, değişikliği kullanıcı seçimine bırakıyor. Kullanıcılar verilerinin eğitimde kullanılmasına onay verirse toplanan veriler, şirketin zararlı içerik tespitinde daha güvenli ve doğru sistemler ile Claude’un kodlama, analiz ve mantık yürütme becerilerinin geliştirilmesinde kullanılacak. Günümüzde yapay zeka modellerinin eğitimi, yüksek hacimli ve kaliteli gerçek dünya verisi gerektiriyor. Dolayısıyla kullanıcıların Claude ile yaptıkları etkileşimler önemli bir kaynak olacaktır.
Sürekli olan konuşmamda günlük 1 mesajdan sonra 6-7 saat sonra gel diyor. Bu kısıtlamasından dolayı izin vermedim. Premium fiyata gelince pahalı napim. 20 dolar verecek kadar zengin değilim.
Önceki politikasında tüketici sohbet verilerini model eğitimi için kullanmayan Anthropic, artık kullanıcı konuşmalarını ve kodlama oturumlarını AI eğitiminde değerlendirecek ve veri saklama süresini 5 yıla kadar uzatacak.
Kurumsal müşteriler hariç
Ayrıca Bkz.Microsoft, ilk kez kendi yapay zeka modellerini tanıttı: OpenAI’a rakip geliyor
Yeni düzenleme Claude Free, Pro, Max ve Code kullanıcılarını kapsıyor. Öte yandan, kurumsal müşterileri için Claude Gov, Claude for Work, Claude for Education ve API erişimleri değişiklikten etkilenmeyecek.
Anthropic, değişikliği kullanıcı seçimine bırakıyor. Kullanıcılar verilerinin eğitimde kullanılmasına onay verirse toplanan veriler, şirketin zararlı içerik tespitinde daha güvenli ve doğru sistemler ile Claude’un kodlama, analiz ve mantık yürütme becerilerinin geliştirilmesinde kullanılacak. Günümüzde yapay zeka modellerinin eğitimi, yüksek hacimli ve kaliteli gerçek dünya verisi gerektiriyor. Dolayısıyla kullanıcıların Claude ile yaptıkları etkileşimler önemli bir kaynak olacaktır.
Kaynak:https://techcrunch.com/2025/08/28/anthropic-users-face-a-new-choice-opt-out-or-share-your-data-for-ai-training/
Haberi Portalda Gör