Setelah banyak penolakan dari kritikus dan pengguna, Apple menunda tindakan anti-pelecehan anak.
Pada bulan Agustus, raksasa teknologi itu awalnya mengumumkan kebijakan baru yang menggunakan teknologi untuk menemukan potensi gambar pelecehan anak di iCloud dan Pesan, tetapi kekhawatiran mengikutinya. Para ahli memperingatkan bahwa meskipun Apple menjanjikan privasi pengguna, teknologi tersebut pada akhirnya akan membahayakan semua pengguna Apple.
Pada hari Jumat, Apple mengatakan akan menunda peluncuran teknologi untuk melakukan perbaikan dan memastikan privasi pengguna sepenuhnya.
"Berdasarkan umpan balik dari pelanggan, kelompok advokasi, peneliti, dan lainnya, kami telah memutuskan untuk mengambil waktu tambahan selama beberapa bulan mendatang untuk mengumpulkan masukan dan melakukan perbaikan sebelum merilis fitur keselamatan anak yang sangat penting ini," kata Apple dalam sebuah pernyataan yang diperbarui di situs webnya.
Teknologi deteksi materi pelecehan seksual anak seharusnya tersedia akhir tahun ini dalam peluncuran iOS 15, tetapi sekarang tidak jelas kapan, atau apakah, fitur tersebut akan debut.
Teknologi baru akan bekerja dengan dua cara: pertama, dengan memindai gambar sebelum dicadangkan ke iCloud. Jika gambar itu cocok dengan kriteria CSAM, Apple akan menerima data itu. Bagian lain dari teknologi ini menggunakan pembelajaran mesin untuk mengidentifikasi dan mengaburkan gambar seksual eksplisit yang diterima anak-anak melalui Pesan.
Namun, setelah kebijakan baru diumumkan, para pendukung dan kelompok privasi mengatakan bahwa Apple pada dasarnya membuka pintu belakang yang dapat disalahgunakan oleh aktor jahat.
Untuk mengatasi masalah ini, Apple merilis halaman FAQ segera setelah mengumumkan teknologi CSAM. Apple menjelaskan bahwa teknologi tersebut tidak akan memindai semua foto yang tersimpan di perangkat, merusak enkripsi ujung-ke-ujung di Pesan, dan tidak secara keliru menandai orang yang tidak bersalah ke penegak hukum.