Yeni bir Deepfake türü ortaya çıktı: kullanımı riskli
Yeni bir Deepfake türü ortaya çıktı: kullanı... Herhangi birinin sesini yalnızca 15 saniye içinde kopyalayabilen OpenAI'nin tüyler ürpertici ses klonlama aracı, kamuya açık kullanım için çok riskli kabul ediliyor.
Son zamanlarda, yapay zeka (AI) kullanılarak ses klonlama olarak adlandırılan yeni bir deepfake türü geliştirildi.OpenAI, Ses Klonlama Yazılımı Geliştiren Teknoloji Devi: ChatGPT'nin yaratıcısı olan OpenAI, ses klonlama yazılımı geliştirme konusunda en son teknolojiyi sunan öncü bir şirkettir.
SES KOPYALAMA YETENEĞİNE SAHİP 
Tüyler Ürpertici Teknoloji: Bu korkutucu teknoloji, herhangi birinin sesini sadece 15 saniyede kopyalayabilme yeteneğine sahiptir. OpenAI'nın Uyarısı: OpenAI, bu teknolojinin özellikle seçim senesinde kamu kullanımı için "fazla riskli" olduğunu belirterek insan seslerine benzeyen konuşmaların üretiminin ciddi riskler taşıdığının farkında olduklarını vurguladı.
Voice Engine Tanıtıldı: OpenAI, isim için ticari marka başvurusu yaptıktan sadece bir hafta sonra "Voice Engine" adlı ses klonlama teknolojisini duyurdu. Ses Klonlama İddiası: Şirket, bir kişinin sesini sadece 15 saniyelik bir konuşma kaydını kullanarak kopyalayabileceğini iddia ediyor. Rekabet Etme Potansiyeli: Bu teknolojinin geliştirilmesi, OpenAI'ın diğer markalarla, örneğin Amazon'un Alexa'sı gibi, rekabet etme potansiyeline sahip olabileceği anlamına gelmektedir.
"Yeni bir Deepfake türü ortaya çıktı: kullanımı riskli" haberi, 02 Nisan 2024 tarihinde yazılmıştır. 02 Nisan 2024 tarihinde de güncellenmiştir. Teknoloji kategorisi altında bulunan Yeni bir Deepfake türü ortaya çıktı: kullanımı riskli haberi 2024 yılına aittir. Bu haberin yanı sıra sayfamızda birçok güncel bilgi ve son dakika haberler yer almaktadır. Yeni bir Deepfake türü ortaya çıktı: kullanımı riskli 2024 konusundaki bu haber içeriği objektif bakış açısının yansımasıdır. Teknoloji konusunda 22 Aralık 2024 tarihlidir, bugüne ait güncel gelişmelerden haberdar olmak için bizi Twitter ve Facebook sayfalarımızdan takip edin.
YORUM YAZ
Türkçe karakter kullanılmayan ve büyük harflerle yazılmış yorumlar onaylanmamaktadır.