West Virginia Başsavcısı, Apple'a iOS cihazları ve iCloud hizmetleri aracılığıyla çocuk cinsel istismarı materyallerinin (CSAM) depolanmasını ve paylaşılmasını engellemediği iddiasıyla tüketici koruma davası açtı. Başsavcı John "JB" McCuskey, Apple'ı çocuk güvenliği yerine gizlilik markalaşmasına ve kendi iş çıkarlarına öncelik vermekle suçluyor. Diğer büyük teknoloji şirketleri (Google, Microsoft, Dropbox) PhotoDNA gibi sistemlerle bu materyallerle mücadelede daha proaktifken, Apple'ın bu konuda yetersiz kaldığı belirtiliyor. PhotoDNA, daha önce tanımlanmış CSAM görüntülerini otomatik olarak tespit edip engelleyen bir "hashing and matching" sistemi kullanır.
Apple, 2021'de kendi CSAM tespit özelliklerini test etmiş, ancak bu teknolojinin hükümet gözetimi için bir arka kapı oluşturabileceği endişesi taşıyan gizlilik savunucularının tepkisi üzerine planlarından vazgeçmişti. Bu durum, şirketin eleştirilere maruz kalmasına neden oldu. 2024'te Birleşik Krallık'taki National Society for the Prevention of Cruelty to Children (NSPCC), Apple'ın ürünlerindeki CSAM'ı yeterince izleyip rapor edemediğini belirtirken, aynı yıl Kaliforniya'da açılan bir davada binlerce çocuk cinsel istismarı mağduru, Apple'ı CSAM tespit planlarını terk etmemesi gerektiğini ve bu durumun mağdurların travmalarını yeniden yaşamalarına neden olduğunu iddia ederek dava etti.
Apple, kendisini gizlilik odaklı bir şirket olarak konumlandırsa da, West Virginia'nın davası başarılı olursa, şirket tasarım veya veri güvenliği değişiklikleri yapmak zorunda kalabilir. Eyalet, tazminat ve Apple'ın etkili CSAM tespitini uygulamasını gerektiren ihtiyati tedbir talep ediyor. Apple sözcüsü ise, kullanıcılarının güvenliğini ve gizliliğini korumanın öncelikleri olduğunu belirterek, ebeveyn denetimleri ve İletişim Güvenliği gibi özelliklerle çocukların güvenliğini sağlama taahhüdünü vurguladı.
Apple'ın gizlilik odaklı imajı ile çocuk güvenliği sorumlulukları arasındaki gerilim, şirketi önemli yasal ve teknolojik değişikliklere zorlayabilir.