Çok sayıda kaynağa dayandırılan bilgilere göre OpenAI, ekibe bilgi işlem gücünün yüzde 20'sini sağlama taahhüdünü hiçbir zaman yerine getirmedi. Hatta ekibin elindeki işlem gücü, bu eşiğe yaklaşmadı bile. Aktarılanlara göre OpenAI liderleri, ekibin taleplerini de defalarca geri çevirdi.
Detaylarına geçtiğimiz günlerde yer verdiğimiz Jan Leike istifasında, çalışanların güvenlik nedeniyle istifa ettiklerini aktarmıştık. Leike, Superalignment ekibinin liderlerindendi. Bu ekibi ise şirketin kurucu oraklarından Ilya Sutskever kurmuştu; Sutskever da şirketten geçtiğimiz hafta ayrıldı.
Hatırlanacağı üzere OpenAI an itibariyle Scarlett Johansson ve ChatGPT’deki “Sky” sesi üzerinde bir tartışmanın içinde. Özetlemek gerekirse; OpenAI, Johansson’ın sesini Sky’da kullanmak için ünlü aktristen izin istemiş ancak Johansson bunu geçtiğimiz Eylül ayında reddetmiş. Ardından geçtiğimiz günlerde yapılan OpenAI etkinliği öncesinde CEO Sam Altman, Johansson’dan bir kez daha izin istemiş. Johansson, şimdi OpenAI’ın kendi sesini izni olmadan kullandıklarını söylüyor. OpenAI ise Sky’ın sesinin Johansson’a ait olmadığını, bu sesin, adını açıklamadıkları profesyonel bir aktrise ait olduğunu söylüyor.
OpenAI, istifa edenleri susturuyor mu?
OpenAI, geçtiğimiz yıl Superalignment ekibini tanıtırken “Süper Zeka” eşiğine ulaşan yapay zekanın insanlar için varoluşsal bir risk oluşturabileceğini söylemişti. Süperzeka, gelecekte tüm insanların toplamından daha akıllı olacak varsayımsal bir yapay zeka sistemi fikrini ifade ediyor. Yapay Genel Zeka veya AGI’den daha üst bir zeka anlamına geliyor. Superalignment, bu sistemin riskleriyle mücadele edecek veya önleyecek çözümleri araştırıyordu veya araştırması gerekiyordu.
Yeni rapor gösteriyor ki Superalignment ekibi, bunun için gerekli olan o bahsedilen yüzde 20’lik kaynağı alamamış. Esasında bu “yüzde 20 bilgi işlem gücü” söyleminin bile çok havada olduğu, tam olarak neyi ifade ettiği de bilinmiyor. Her halükarda kaynaklar, bu bilgi işlem gücüne erişememiş, ek GPU kapasitesi istemleri de düzenli olarak yöneticiler tarafından reddedilmiş. Aslında şirket hakkında bu iddialar Jan Leike’nin istifası sonrası X’te yazdığı gönderide doğrulanıyor: Leike, "güvenlik kültürü ve süreçlerinin parlak ürünler karşısında arka planda kaldığını" söylemişti.
İlginç bir şekilde Fortune'a konuşan kişiler işlerini veya şirketteki kazanılmış sermayelerini kaybetmekten korktukları için bilgileri anonim olarak verdi. Belirtilenlere göre OpenAI'dan ayrılan çalışanlar, şirketi kamuoyu önünde eleştirmeleri halinde şirketin kazanılmış öz sermayelerini geri alabileceğini söyleyen katı bir kuralı içeren ayrılık sözleşmesini imzalamaya zorlandılar. CEO Altman ise bu hükümden haberi olmadığını ve bu durumdan "gerçekten utanç duyduğunu" belirtti. Ayrıca OpenAI'ın hiçbir zaman bu maddeyi uygulamaya ve kimsenin kazanılmış sermayesini geri almaya çalışmadığını söyledi.
Sam Altman çok tehlikeli birisi, çok iyi entrika çeviriyor, şirketi çok iyi pazarlayıp pr çalışmalarınıda gayet iyi yapıyor, ya bizi insan 2.0 yapacak ya da yok edecek...
Şirketler sonuçta ticari kuruluşlar olarak kar odaklı çalıştıkları için güvenlik uygulamaları pazar başarısı getirecek sınırlandırılmamış bir ürün gelişimi karşısında önceliklerinden çıkabilir. Bu da bence OpenAI'ın mevcut vaziyetidir. En azından geçici veya kısmi çözümü aşağıdaki konuda yer alan mesajımda bahsettiğim gibi rekabet ve tekelin kırılması olabilir. Sonuçta bu teknolojik bağlamda güvenlik bir öncelik olmasa da gene de önemli bir niteliktir ve insanlar hemen hemen aynı niteliklere sahip iki şey arasında fazladan güvenlik niteliğine sahip olanı tercih etme eğiliminde olur; yalnız, burada dikkat edilmesi gereken bit yeniği güvenliğin daha en başından önceliklerde geri plana düşmesine neden olacak şekilde varsayıldığı gibi özgürlük ve gelişimi baltalayıp baltalamayacağıdır. İnsanlar işte baltalama durumu karşısında daha gelişime açık olan, daha fazla potansiyel sahibi, daha özgürlükçü bir ürünü yalnızca daha güvenli olduğu için kaçınılmaz olarak daha az potansiyel sahibi bir ürüne tercih edecektir. Tıpkı Soğuk Savaş sürecinin sonunda daha özgürlükçü Amerikan ve Batı Avrupa modellerinin daha güvenlikçi Sovyet modeline tercih edilmesi gibi:
Sam Altman da güvenlikçi ve çekinceli bir kafadan ziyade tam da böyle "sınırları kaldırmak isteyen" liberteryen veya liberal inovasyoncu kafada birisine benziyor. Zaten günümüzde teknoloji fetişisti olan neredeyse hepimiz gibi bir teknoloji ilerlemecisi olduğu su götürmez. :) Esasında böyle zihin yapısı, dünya algısı ve ideoloji de bir girişimcinin davranışlarını ve politikalarını anlamada - beka ve ferahlık için sergilenen - ticari başarı kaygıları ve kar motivasyonu kadar önemli.
< Bu mesaj bir yönetici tarafından değiştirilmiştir >
OpenAI sözünü tutmadı
Çok sayıda kaynağa dayandırılan bilgilere göre OpenAI, ekibe bilgi işlem gücünün yüzde 20'sini sağlama taahhüdünü hiçbir zaman yerine getirmedi. Hatta ekibin elindeki işlem gücü, bu eşiğe yaklaşmadı bile. Aktarılanlara göre OpenAI liderleri, ekibin taleplerini de defalarca geri çevirdi.
Detaylarına geçtiğimiz günlerde yer verdiğimiz Jan Leike istifasında, çalışanların güvenlik nedeniyle istifa ettiklerini aktarmıştık. Leike, Superalignment ekibinin liderlerindendi. Bu ekibi ise şirketin kurucu oraklarından Ilya Sutskever kurmuştu; Sutskever da şirketten geçtiğimiz hafta ayrıldı.
Ayrıca Bkz.Scarlett Johansson, ChatGPT'de kendi sesinin kullanıldığını söyleyerek sitem etti
Hatırlanacağı üzere OpenAI an itibariyle Scarlett Johansson ve ChatGPT’deki “Sky” sesi üzerinde bir tartışmanın içinde. Özetlemek gerekirse; OpenAI, Johansson’ın sesini Sky’da kullanmak için ünlü aktristen izin istemiş ancak Johansson bunu geçtiğimiz Eylül ayında reddetmiş. Ardından geçtiğimiz günlerde yapılan OpenAI etkinliği öncesinde CEO Sam Altman, Johansson’dan bir kez daha izin istemiş. Johansson, şimdi OpenAI’ın kendi sesini izni olmadan kullandıklarını söylüyor. OpenAI ise Sky’ın sesinin Johansson’a ait olmadığını, bu sesin, adını açıklamadıkları profesyonel bir aktrise ait olduğunu söylüyor.
OpenAI, istifa edenleri susturuyor mu?
OpenAI, geçtiğimiz yıl Superalignment ekibini tanıtırken “Süper Zeka” eşiğine ulaşan yapay zekanın insanlar için varoluşsal bir risk oluşturabileceğini söylemişti. Süperzeka, gelecekte tüm insanların toplamından daha akıllı olacak varsayımsal bir yapay zeka sistemi fikrini ifade ediyor. Yapay Genel Zeka veya AGI’den daha üst bir zeka anlamına geliyor. Superalignment, bu sistemin riskleriyle mücadele edecek veya önleyecek çözümleri araştırıyordu veya araştırması gerekiyordu.
https://x.com/janleike/status/1791498184671605209
Yeni rapor gösteriyor ki Superalignment ekibi, bunun için gerekli olan o bahsedilen yüzde 20’lik kaynağı alamamış. Esasında bu “yüzde 20 bilgi işlem gücü” söyleminin bile çok havada olduğu, tam olarak neyi ifade ettiği de bilinmiyor. Her halükarda kaynaklar, bu bilgi işlem gücüne erişememiş, ek GPU kapasitesi istemleri de düzenli olarak yöneticiler tarafından reddedilmiş. Aslında şirket hakkında bu iddialar Jan Leike’nin istifası sonrası X’te yazdığı gönderide doğrulanıyor: Leike, "güvenlik kültürü ve süreçlerinin parlak ürünler karşısında arka planda kaldığını" söylemişti.
https://x.com/sama/status/1791936857594581428
İlginç bir şekilde Fortune'a konuşan kişiler işlerini veya şirketteki kazanılmış sermayelerini kaybetmekten korktukları için bilgileri anonim olarak verdi. Belirtilenlere göre OpenAI'dan ayrılan çalışanlar, şirketi kamuoyu önünde eleştirmeleri halinde şirketin kazanılmış öz sermayelerini geri alabileceğini söyleyen katı bir kuralı içeren ayrılık sözleşmesini imzalamaya zorlandılar. CEO Altman ise bu hükümden haberi olmadığını ve bu durumdan "gerçekten utanç duyduğunu" belirtti. Ayrıca OpenAI'ın hiçbir zaman bu maddeyi uygulamaya ve kimsenin kazanılmış sermayesini geri almaya çalışmadığını söyledi.
Kaynak:https://finance.yahoo.com/news/exclusive-openai-promised-20-computing-105328622.html
Haberi Portalda Gör