Bir kişinin konuşmasını doğrudan beyninden almanın yöntemini bulunurken felçli kişilerin akıcı iletişim kurmalarının sağlanması hedefleniyor.
Bilim insanları, bir kişinin konuşmasını doğrudan beyninden almanın yöntemini buldu.
Bu buluş, bir insanın belirli kelimeler söyleme niyetinin beyin sinyallerinden nasıl arındırılabileceğini ve doğal konuşmaya ayak uyduracak kadar hızlı bir şekilde metne dönüştürülebileceğini gösteren ilk bulgu oldu.
Şu anki haliyle, beyin okuma yazılımı sadece üzerinde eğitildiği cümleler için çalışıyor ancak bilim insanları bunun bir kişinin söylemeyi düşündüğü kelimeleri gerçek zamanlı olarak çözebilecek daha güçlü bir sisteme doğru atılan bir basamak olduğuna inanıyor.
ABD’nin San Francisco kentindeki Kaliforniya Üniversitesi'nde doktorlar, felçli kişilerin sanal bir klavyeyi kontrol etmek için göz hareketlerini ve kas seğirmelerini alan mevcut cihazları kullanmaktan daha akıcı bir şekilde iletişim kurmalarını sağlayan bir ürün yaratma umuduyla başladıkları araştırmada çığır açacak bir buluşa imza atmış olabilir.
Nature Communications dergisinde yayımlanan araştırmanın başında bulunan Edward Chang, “Bugüne dek, kullanıcıların bir insan görüşmesinin hızlı zaman çizelgesiyle etkileşime girmelerini sağlayan bir konuşma protezi sistemi yok” dedi.
Denek kullanıldı
Çalışma sırasında araştırmacılar beyin ameliyatı geçirecek olan üç epilepsi hastasını denek olarak kullandı. Operasyonları devam etmeden önce, üçünde de nöbetlerinin kökenini belirlemek için en az bir hafta boyunca doğrudan beyine yerleştirilmiş küçük bir elektrot yaması vardı.
Hastanede kaldıkları süre boyunca, hepsi normal konuşabilen hastalar, Chang’in araştırmasına katılmayı kabul etti. Elektrotlar, hastaların beyin aktivitesini kaydetmek için kullanıldı ve her hastaya dokuz set soru soruldu, 24 olası yanıtın bir listesini okumaları istendi.
The Guardian'da yer alan habere göre, Chang ve ekibi elindeki kayıtlarla, belirli beyin aktivitesi örneklerini hastaların duydukları sorularla ve cevapladıklarıyla eşleştirmeyi öğrenen bilgisayar modelleri geliştirdi. Eğitildikten sonra, yazılım neredeyse anında ve yalnızca beyin sinyallerinden, hastanın hangi soruyu duyduğunu ve ne yanıt verdiğini sırasıyla yüzde 76 ve yüzde 61 doğrulukla tanımlayabiliyor.
‘Esnekliğini artırmayı umuyoruz’
Chang, “Bu yaklaşım ilk konuşulan kelimeleri ve cümleleri tanımlamak için kullanılıyor” dedi. Edward Chang sözlerini şu şekilde sürdürdü: “Bunu çok sınırlı bir kelime hazinesi kullanarak başardığımızı akılda tutmak önemli. Ancak gelecekteki çalışmalarda çevirebildiğimiz şeyin doğruluğunun yanı sıra esnekliği de arttırmayı umuyoruz.”
Atılıma rağmen, engeller var. Buradaki zorluklardan biri yazılımı geliştirmek. Yazılım geliştirilirse beyin sinyallerini anında daha çeşitli konuşmaya çevirebilir. Bu, çok sayıda konuşma dili ve hastadan hastaya değişebilen ilgili beyin sinyal verileri üzerinde eğitilmiş algoritmalar gerektirecek Diğer bir amaç “hayal edilen konuşmayı” veya akılda verilen cümleleri okumak. Şu anda, sistem dudakları, dili, çeneyi ve gırtlakları hareket ettirmek için gönderilen beyin sinyallerini algılar - başka bir deyişle konuşma makinesini. Ancak bazı hastalar için bu sinyaller yeterli olmayabilir ve beyindeki cümleleri okumak için daha karmaşık yöntemlere ihtiyaç duyulur.
‘Sorumluluğumuz var’
Çalışma henüz başlangıç aşamasında iken, UCSF’de son araştırmada yer almayan bir nöroetik uzmanı olan Winston Chiong, bu sistemlerin gelecekte ortaya çıkabileceği etik sorunları tartışmanın önemli olduğunu söyledi. Örneğin, bir “konuşma nöroprotezi” istemeden insanların özel düşüncelerini açığa çıkarabilir. Chiong, birilerinin ne söylemeye çalıştığını çözmenin yeterince zor olduğunu ve iç düşüncelerini çıkarmanın neredeyse imkansız olduğunu ifade ederek sözlerini şu şekilde noktaladı:
“İnsanların mümkünse bile ne düşündüklerini öğrenmek için bir teknoloji geliştirilmesine ilgim yok. Ama eğer biri iletişim kurmak istiyor ve yapamıyorsa, bence en temel insan yeteneğini geri kazanma konusunda biliminsanları ve klinisyenler olarak bir sorumluluğumuz var.”