Apple Tunda Peluncuran Fitur Keamanan Anak
- by Nadhira Aliya Nisriyna
- Senin, 6 September 2021 - 12:11 WIB
Apple dikabarkan menunda peluncuran alat deteksi pelecehan terhadap anak yang dinamakan Child Sexual Abuse Material (CSAM). Penundaan ini dikarenakan mereka akan melakukan perbaikan terkait penolakan dari para kritikus.
Dilansir dari Engadget, fitur-fitur tersebut termasuk fitur yang menganalisis foto iCloud untuk CSAM yang diketahui menimbulkan kekhawatiran terkait privasi. Apple sendiri menyatakan bahwa mereka mengumumkan rencana dari fitur tersebut.
“Bulan lalu, kami mengumumkan rencana untuk fitur yang dimaksudkan untuk membantu melindungi anak-anak dari predator yang menggunakan alat komunikasi untuk merekrut dan mengeksploitasi mereka dan membatasi penyebaran Materi Pelecehan Seksual Anak,” kata Apple yang dikutip dari 9to5Mac dalam sebuah pernyataan.
Berdasarkan feedback dari kelompok advokasi, peneliti dan lainnya, Apple telah memutuskan untuk mengambil waktu tambahan selama beberapa bulan mendatan untuk mengumpulkan masukan dan melakukan perbaikan sebelum merilis fitur keselamatan anak yang sangat penting.
Apple sendiri berencana untuk meluncurkan sistem deteksi CSAM sebagai bagian dari pembaruan OS yang akan datang. Yakni, iOS 15, iPadOS 15, watchOS 8 dan macOS Monterey.
Perusahaan diperkirakan akan merilisnya dalam beberapa minggu mendatang. Apple tidak merinci tentang peningkatan yang mungkin dilakukan.
Fitur yang direncanakan termasuk untuk Messages. Dimana akan memberitahu anak-anak dan orang tua mereka ketika Apple mendeteksi bahwa foto seksual eksplisit dibagikan dalam aplikasi menggunakan sistem pembelajaran mesin di perangkat.
Gambar tersebut dikirim ke anak-anak yang akan kabur dan termasuk peringatan. Siri dan fungsi pencarian bawaan di iOS dan macOS akan mengarahkan pengguna ke sumber daya yang sesuai ketika seseorang bertanya bagaimana cara melaporkan CSAM atau mencoba melakukan pencarian terkait CSAM.
Alat iCloud Photo mungkin merupakan fitur deteksi CSAM yang paling kontroversial yang diumumkan Apple. Mereka berencana untuk menggunakan sistem pada perangkat untuk mencocokkan foto dengan databas hash gambar CSAM yang diketahui dan dikelola oleh National Center for Missing and Exploited Children dan organisasi lainnya.
Analisis ini sseharusnya dilakukan sebelum gambar diunggah ke iCloud Photo. Jika sistem untuk mendeteksi CSAM dan pengulas manusia secara manual mengonfirmasi kecocokan, Apple akan menonaktifkan akun tersebut dan mengirim laporan ke NCMEC.
Apple mengklaim pendekatan tersebut akan memberikan “manfaat privasi atas teknik yang ada karena Apple hanya mengetahui tentang foto pengguna jika mereka memiliki koleksi CSAM yang dikenal di akun Photo iCloud mereka.”
Baca juga, iPhone 13 Akan Diluncurkan 17 September Mendatang
Artikel Terkait
Aplikasi Duolingo Hadirkan Paket Langganan untuk Keluarga
Aplikasi Duolingo baru saja meluncurkan beberapa pembaruan baru pada acara konferensi Duocon tahu..
- by Nadhira Aliya Nisriyna
- 3 tahun lalu
- 3,250
Zenius Hadirkan Kompetisi Berhadiah Lebih Dari 1 M Lewat Pembelajaran Adaptif
Penting bagi seorang siswa untuk memiliki jiwa kompetitif. Pasalnya, dengan adanya jiwa kompetiti..
- by Nadhira Aliya Nisriyna
- 3 tahun lalu
- 3,250
Hari Anak Nasional: Tips Jaga Kesehatan Mental Anak Saat Pandemi
Menyambut Hari Anak Nasional, Tokopedia berkolaborasi dengan berbagai mitra strategis, termasuk U..
- by Jihan Nasir
- 3 tahun lalu
- 3,250
Perbarui Kategori Kids, Netflix Beri Notifikasi Tontonan Anak ke Email Orang Tua
Dalam rangka membantu orang tua mengawasi anak-anaknya, Netflix meluncurkan dua fitur baru untuk ..
- by Nadhira Aliya Nisriyna
- 3 tahun lalu
- 3,250