Arama butonu
Bu konudaki kullanıcılar: 1 misafir
28
Cevap
848
Tıklama
8
Öne Çıkarma
Microsoft bu sefer korkuttu: Her türlü sesi taklit edebilen VALL-E duyuruldu
M
geçen yıl
Yarbay
Konu Sahibi

Microsoft bu sefer korkuttu: Her türlü sesi taklit edebilen VALL-E duyuruldu
Microsoft kısa bir süre önce, insanların seslerini taklit edebilen VALL-E olarak bilinen bir yapay zeka aracı yayınladı. VALL-E her ne kadar oldukça başarılı bir araç olsa da beraberinde bir dizi endişeleri de şimdiden getirmiş durumda. Zira araç, çok kısa bir ses örneğinden sonra her türlü sesi taklit edebiliyor.



VALL-E söylenmeyeni söyletiyor



Microsoft kısa bir süre önce, insanların seslerini taklit edip çoğaltabilen VALL-E yapay zeka aracı yayınladı. Araç, 60.000 saatlik İngilizce konuşma verisi üzerinde eğitildi ve içerik oluşturmak için belirli seslerin sadece 3 saniyelik kesitlerini kullanıyor. Birçok yapay zeka aracının aksine VALL-E, orijinal konuşmacının asla söylemediği kelimelerin kaydını oluştururken bile konuşmacının duygularını ve tonunu kopyalayabiliyor.



Ayrıca Bkz.Avukatlar endişelenmeli mi? İlk kez bir yapay zeka avukatı gerçek bir davada görev alacak



Microsoft bu sefer korkuttu: Her türlü sesi taklit edebilen VALL-E duyuruldu
Cornell Üniversitesi’nin birkaç sesi sentezlemek için VALL-E’yi kullandığı küçük bir makale halihazırda GitHub'da mevcut durumda ve ortaya çıkan sonuçlar büyük bir başarıyı gösteriyor olsa da aynı zamanda endişe verici. Öte yandan ses örnekleri incelendiğinde bazılarının biraz daha robotik olduğu anlaşılabiliyor ancak bazıları da neredeyse kusursuza yakın. Ancak bu örneklerin sadece 3 saniyelik bir ses dosyasından elde edildiğini unutmamak gerekiyor. Aynı zamanda 60.000 saatlik veri seti de yine çok büyük bir miktar değil.



Şu anda VALL-E’yi kullanmak mümkün değil ve esasında bu da iyi bir şey olabilir çünkü insanların seslerinin yapay zeka tarafından oluşturulmuş kopyaları internet trolleri veya başka kişiler tarafından tehlikeli bir şekilde kullanılabilir.



VALL-E tehlikeli durumlar yaratabilir



Öte yandan VALL-E ve benzeri sistemler giderek daha gerçekçi ve etkileyici olmaya devam ederken bazı etik kaygıları da önümüze getiriyor. Örneğin bu sistemin kullanılmasıyla ortaya çıkarılan bir sözde ses kaydı ciddi sonuçlar doğurabilir. Politikacılar ve diğer tanınmış kişiler kötü amaçlar için taklit edilebilir. Sadece bu da değil, bir dizi güvenlik sorununu da ortaya çıkarıyor. Örneğin sesli doğrulamaya sahip bankalar.



Yapay zeka temelli ses taklitleri elbette iyi şeyler için de kullanılabilir. Sevdiğiniz bir sanatçının sesiyle okunan sesli kitaplar bunlara örnek olabilir. Veya herhangi bir şarkıyı en sevdiğiniz sanatçı tarafından tekrar söylenmesini de sağlayabilirsiniz. Tabi bunlar için şimdilik biraz zaman gerekiyor.



VALL-E'nin ses örnekleri için burayı ziyaret edebilirsiniz.




Kaynak:https://www.windowscentral.com/software-apps/microsofts-vall-e-can-imitate-any-voice-with-just-a-three-second-sample
Kaynak:https://aitopics.org/doc/news:1D5D0B90

 Haberi Portalda Gör

Cia mossad bunu zaten 10 yıldan fazla zamandır kullanıyor. Şimdi ele ayağa düşmeye başladı.

Artık sosyal medyada her duyduğuna gördüğüne inanan çok büyük veba...
Yoruma Git
Yorumun Devamı Nevfel - geçen yıl +18
V
geçen yıl
Yarbay

Şöyle düşünelim:

Bunlar yayınlananlar... demek ki arkada daha neler neler var?



Bu mesaja 1 cevap geldi.
J
geçen yıl
Yarbay

Digital ortamda hazırlanan herbirşey iz bırakır.




N
geçen yıl
Yarbay

Cia mossad bunu zaten 10 yıldan fazla zamandır kullanıyor. Şimdi ele ayağa düşmeye başladı.

Artık sosyal medyada her duyduğuna gördüğüne inanan çok büyük vebal altına giriyor. Çok tehlikeli zamanlardayız.



< Bu ileti Android uygulamasından atıldı >
Bu mesaja 1 cevap geldi.

Bu mesajda bahsedilenler: @V4LKyR
S
geçen yıl
Binbaşı

Yapay zekanın konuşması anlaşılıyor, tonlama filan yapıyor doğru ama arkadaki sesleri dinleyin ne demek istediğimi anlayacaksınız.




E
geçen yıl
Yarbay

Harika. Yıllardır halka indirgenmesi bekleniyordu. Artık daha kaliteli dublajlar görecez. Özellikle de yeşilçam karakterlerini yeniden görmeyi çok isterim.



< Bu ileti iOS uygulamasından atıldı >

B
geçen yıl
Binbaşı

Çok doğru... Yossi kohen'e de bundan verdikleri bilinen bir gerçek. Yoksa bu kadar gülünecek ne olabilirdi ki?



< Bu ileti mobil sürüm kullanılarak atıldı >

S
geçen yıl
Yarbay

Teknolojiyi geliştiren ana unsur askeriye ve istihbarat olduğu ve son kullanıcıya aktarılan kısım hep bir kaç adım geriden geldiği için, istihbaratların elinde çok daha gelişmişi zaten vardır.



< Bu ileti mobil sürüm kullanılarak atıldı >

M
geçen yıl
Binbaşı

oyunlarda otomatik türkçe dublaj için kullanılabilir ve çok da güzel olur aslında.




M
geçen yıl
Yarbay

Ben de diyorum bu "Cia mossad" ne yeni bir yapay zeka mı google'dan aratayım :))))))





Bu mesajda bahsedilenler: @Nevfel
A
geçen yıl
Yarbay

Türkçe dublaj yapabilirsek güzel olur



< Bu ileti mini sürüm kullanılarak atıldı >

M
geçen yıl
Yarbay

Bence şimdi herkesin aklına direkt aynı şey geldi, RTE'nin ve oğlunun yıllar evvel yayınlanan ses kayıtları gerçek miydi sahte miydi?



Bu mesaja 4 cevap geldi.
Ö
geçen yıl
Teğmen

Benim sesimi taklit edemez sürekli değişen bir ses tonum var bende anlamadım gitti




T
geçen yıl
Çavuş

Aşırı iyi yapmışlar tebrikler diyorum.



T
geçen yıl
Çavuş

D
geçen yıl
Yarbay

hangi ses kaydı? ne içeriyordu?


Bu mesaja 1 cevap geldi.

Bu mesajda bahsedilenler: @monacomen
M
geçen yıl
Yarbay

Üstteki gerçek diyen yazara sormak lazım.


Bu mesaja 1 cevap geldi.

Bu mesajda bahsedilenler: @dreamblue35
K
geçen yıl
Yarbay

D
geçen yıl
Yarbay

hadi soralım o zaman...




Bu mesajda bahsedilenler: @monacomen
D
geçen yıl
Yarbay

nerden gerçek olduğunu teyid edebiliyorsunuz var mı elinizde doğrulayabilecek orjinal ses kaydı?


Bu mesaja 1 cevap geldi.

Bu mesajda bahsedilenler: @TR_Vay