Çocuk istismarını önleyebilmek amacıyla cihazlarında yeni bir yüz tanıma teknolojisini hayata geçiren Apple, gizlilik ihlaline yol açacağı gerekçesiyle farklı eleştirilere maruz kaldı.
Apple, 5 Ağustos’ta, önümüzdeki günlerde yayımlanacak olan iOS15 işletim sistemi güncellemesinde çocuk istismarı içerikli görüntülerin yayılımını engellemeyi amaçlayan bir eklentinin yer alacağını duyurmuştu. Şirketin açıklamasına göre, yakın gelecekte sadece Amerika Birleşik Devletleri’nde kullanılabilecek eklentiyle birlikte istismara yönelik içerikler daha yaygın ve kolay biçimde tespit edilebilecek.
Söz konusu özellik, şirketin resmî açıklamasına göre, üç temel özellik içeriyor. İlk olarak, Apple’ın mesajlaşma uygulaması gönderilen ve alınan mesajlarda çocuk istismarı nitelikli içerik olup olmadığını kontrol edecek ve hesap sahibi olan çocuk 13 yaşından küçükse, olası bir istismar içeriği iletilmesi durumunda ebeveynlere bildirim gönderecek. Bunun yanı sıra iCloud bulut servisinde depolanan görseller de bu özellik kapsamında taranacak ve ABD’de bulunan Kayıp ve İstismara Uğramış Çocuklar Merkezi (NCMEC) veritabanında bulunan görsellerle eşleşmesi durumunda şüpheli hesabı kapatarak NCMEC’e rapor edecek. Son olarak da Siri ve arama özellikleri de istismar içeriğine ulaşabilecek aramaların yapılmasını engelleyecek biçimde çalışacak.
Öte yandan bu yenilik, özellikle bazı sivil toplum kuruluşları tarafından temkinli karşılandı. Washington Post’un konuyla ilgili haberine göre, ABD merkezli sivil toplum kuruluşu Electronic Frontier Foundation, özelliğin kullanıcıların mahremiyetini ihlal edebileceğine dair uyarıda bulundu. Resmi internet sitesinden yaptığı açıklamayla çocuk istismarının çok ciddi bir sorun olduğunu kabul etti ancak aynı zamanda Apple’ın bir “arka kapı açmaya çalıştığını” ileri sürdü. Apple’ın çocuk istismarı içeriklerine karşı harekete geçen ilk şirket olmadığını, hatırlatan kuruluş, şirketin almak istediği önlemlerin istismarın daha da yaygınlaşmasına sebep olabileceğini dile getirdi.