Merkezi ABD'de bulunan OpenAI, yapay zeka modeli ChatGPT'nin seslendirme özelliğiyle ilgili önemli bir uyarıda bulundu. Şirket, bazı kullanıcıların bu gerçekçi ve doğal seslendirme seçeneğine duygusal olarak bağımlı hale gelebileceği konusunda dikkat çekti.
GERÇEKÇİ SES VE DUYGUSAL BAĞLILIK RİSKİ
OpenAI'nin web sitesinde yapılan açıklamada, ChatGPT'nin seslendirme seçeneği üzerinde yürütülen güvenlik çalışmalarına dair ayrıntılar paylaşıldı. İlk incelemelere göre, bu seslendirme seçeneğinin girdilere verdiği 232 milisaniyelik yanıt süresinin, ortalama bir insanın konuşma sırasındaki tepki süresine oldukça yakın olduğu belirtildi. Bu durum, kullanıcıların, seslendirme özelliğini "gerçekçi ve doğal" bulmalarına ve bu teknolojiyle duygusal bir bağ kurmalarına neden olabiliyor.
BAĞIMLILIK UYARISI VE YENİ RİSKLER
OpenAI, bu duygusal bağın potansiyel olarak bağımlılığa yol açabileceği konusunda uyarıda bulundu. Şirket, sesli modun yalnız bireyler için faydalı olabileceğini, ancak insan ilişkilerini etkileyebileceği ve bu nedenle dikkatli kullanılması gerektiğini vurguladı. Ayrıca, bu teknolojinin yetkisiz ses üretimi gibi "yeni riskler" sunduğu da ifade edildi.
Açıklamada, teknolojinin kullanıcılar için görevleri tamamlama ve konuşmalarla ilgili ayrıntıları anımsama kabiliyetinin "aşırı güven ve bağımlılık" yaratabileceği uyarısında bulunuldu. OpenAI, bu yeni özelliklerin getirdiği faydaların yanı sıra, kullanıcıların bu tür risklere karşı da bilinçli olmalarını sağlamak için çalışmalarını sürdürüyor.
Bu uyarı, yapay zeka teknolojilerinin giderek daha fazla hayatımıza girdiği bu dönemde, kullanıcıların bu tür teknolojilere karşı daha bilinçli ve dikkatli olmaları gerektiğini bir kez daha hatırlatıyor.