Böylece fotoğrafların taranması hiç kimsenin itiraz edemeyeceği bir zemine oturtuldu.
iPhone iCloud platformuna yüklenen fotoğraf ve videolar Apple tarafından tek tek taranabilecek. Böylece çocuk istismarı ihtimali bulunan fotoğraflar hızlı bir şekilde kolluk kuvvetlerine bildirilecek. Apple ilk etapta bu özelliği hemen uygulayacağını ifade etti. Ancak aldığı yeni karar ile birlikte bu sistemi erteledi.
Yapılan açıklamalara bakıldığında Apple şirketinin bu sistemi çok daha kararlı hale getirmek için ertelediği ifade ediliyor. CSAM olarak bilinen sistem yapay zeka yardımıyla tüm fotoğraf ve videoların gözden geçirilmesini sağlıyor. Burada yer alan bazı küçük detaylar sayesinde çocuk istismarı olup olmadığı ortaya çıkıyor.
Her ne kadar olumlu bir gelişme gibi görünse bile aslında veri ihlallerine yol açma ihtimali son derece yüksek. Kullanıcılar fotoğraf ve videolarının taranmasını istemiyor. Ancak Apple böyle bir şey şart koşunca ne yazık ki yerine getirmek zorunda kalacaklar. iCloud platformuna yüklenecek tüm fotoğraf ve videolar yapay zeka taramasından geçecek.
Apple, akıllı saat pazarına öncülük ediyor!
Apple şimdilik bu özelliği ertelediğini ifade etti. Ancak bunun kesinlikle bir vazgeçiş olmadığını belirtelim. Şirket sadece erteleme kararı aldı.