Çocuk istismaırını önlemek için, Apple, iPhone fotoğraflarını tek tek gözden geçirmek istiyor

Apple, iPhone fotoğraflarını tarayacağını söyleyerek büyük bir tartışmaya yol açmıştı. Birçok kişi bunun veri ihlalleri yaratacağını düşünüyordu. ABD’li teknoloji devi Apple ise çocuk istismarını engellemek için böyle bir karar aldıklarını ifade etti.

Böylece fotoğrafların taranması hiç kimsenin itiraz edemeyeceği bir zemine oturtuldu.

iPhone iCloud platformuna yüklenen fotoğraf ve videolar Apple tarafından tek tek taranabilecek. Böylece çocuk istismarı ihtimali bulunan fotoğraflar hızlı bir şekilde kolluk kuvvetlerine bildirilecek. Apple ilk etapta bu özelliği hemen uygulayacağını ifade etti. Ancak aldığı yeni karar ile birlikte bu sistemi erteledi.

Yapılan açıklamalara bakıldığında Apple şirketinin bu sistemi çok daha kararlı hale getirmek için ertelediği ifade ediliyor. CSAM olarak bilinen sistem yapay zeka yardımıyla tüm fotoğraf ve videoların gözden geçirilmesini sağlıyor. Burada yer alan bazı küçük detaylar sayesinde çocuk istismarı olup olmadığı ortaya çıkıyor.

Her ne kadar olumlu bir gelişme gibi görünse bile aslında veri ihlallerine yol açma ihtimali son derece yüksek. Kullanıcılar fotoğraf ve videolarının taranmasını istemiyor. Ancak Apple böyle bir şey şart koşunca ne yazık ki yerine getirmek zorunda kalacaklar. iCloud platformuna yüklenecek tüm fotoğraf ve videolar yapay zeka taramasından geçecek.

Apple, akıllı saat pazarına öncülük ediyor!

Apple şimdilik bu özelliği ertelediğini ifade etti. Ancak bunun kesinlikle bir vazgeçiş olmadığını belirtelim. Şirket sadece erteleme kararı aldı.

İlk yorum yazan siz olun
UYARI: Küfür, hakaret, rencide edici cümleler veya imalar, inançlara saldırı içeren, imla kuralları ile yazılmamış,
Türkçe karakter kullanılmayan ve büyük harflerle yazılmış yorumlar onaylanmamaktadır.