Chip dergisindeki habere göre, yapay zeka destekli sohbet robotlarının en sık eleştirilen davranışlarından biri, bir soruyu ikna edici bir şekilde yanıtlarken gerçekte yanlış bilgiler sunmasıdır. Bu durum, "halüsinasyon" olarak adlandırılıyor.
Yapay zeka, halüsinasyon görebilir ve bu yanılsamayı karşısındaki insana oldukça gerçekçi bir şekilde aktararak ikna edebilir. Basitçe ifade etmek gerekirse, yapay zeka, kullanıcısını tatmin etmek için gerçeklikle ilgisi olmayan şeyler uydurabilir.
Resim veya video oluşturmak için üretken yapay zeka kullanan araçlarda böyle bir mesele yok, sonuç genellikle sanatsal içerikler üretiyor. Ancak sohbet robotları için bu büyük bir sorun ve OpenAI'den ayrılan ünlü uzman Andrej Karpathy, halüsinasyon yeteneğinin, üretken yapay zekanın temel teknolojisi olan büyük dil modellerinin (LLM'ler) en belirgin özelliği olduğunu kabul etti. Yani yapay zeka bu işi tesadüfen değil, sonuç üretmek için bilinçli olarak yapıyor. Doğruluğu kontrol etme mekanizması da genellikle yok. Korkutucu olan ise çoğu kullanıcının bu halüsinasyonları fark edememesi.
Yapay zekanın halüsinasyonlarını engellemek teknolojik bir zorluk ve bu problemi çözmek hiç de kolay değil. Ancak Google DeepMind ve Stanford Üniversitesi gibi kuruluşlar, bir tür geçici çözüm bulmuş gibi görünüyor. Araştırmacılar, yapay zeka sohbet robotlarının ürettiği uzun formdaki yanıtları kontrol eden, temel algoritmaya dayalı bir sistem olan Search-Augmented Factuality Evaluator veya kısaltmasıyla SAFE'i geliştirdiler.
SAFE NASIL ÇALIŞIYOR?
Sistem cevapları dört adımda analiz ediyor, işliyor ve doğruluğunu değerlendirerek onaylıyor. İlk olarak, SAFE cevabı ayrı ayrı gerçeklere ayırıyor, bu unsurları gözden geçiriyor ve Google Arama'dan gelen sonuçlarla karşılaştırıyor. Ayrıca, sistem her bir gerçeğin orijinal soruyla bağlantısını da kontrol ediyor.