Apple Tunda Peluncuran Fitur Keamanan Anak

0
399
Peluncuran iPhone 13
Foto: Unsplash/Mark Chan

Apple dikabarkan menunda peluncuran alat deteksi pelecehan terhadap anak yang dinamakan Child Sexual Abuse Material (CSAM). Penundaan ini dikarenakan mereka akan melakukan perbaikan terkait penolakan dari para kritikus.

Dilansir dari Engadget, fitur-fitur tersebut termasuk fitur yang menganalisis foto iCloud untuk CSAM yang diketahui menimbulkan kekhawatiran terkait privasi. Apple sendiri menyatakan bahwa mereka mengumumkan rencana dari fitur tersebut.

“Bulan lalu, kami mengumumkan rencana untuk fitur yang dimaksudkan untuk membantu melindungi anak-anak dari predator yang menggunakan alat komunikasi untuk merekrut dan mengeksploitasi mereka dan membatasi penyebaran Materi Pelecehan Seksual Anak,” kata Apple yang dikutip dari 9to5Mac dalam sebuah pernyataan.

Berdasarkan feedback dari kelompok advokasi, peneliti dan lainnya, Apple telah memutuskan untuk mengambil waktu tambahan selama beberapa bulan mendatan untuk mengumpulkan masukan dan melakukan perbaikan sebelum merilis fitur keselamatan anak yang sangat penting.

Apple sendiri berencana untuk meluncurkan sistem deteksi CSAM sebagai bagian dari pembaruan OS yang akan datang. Yakni, iOS 15, iPadOS 15, watchOS 8 dan macOS Monterey.

Perusahaan diperkirakan akan merilisnya dalam beberapa minggu mendatang. Apple tidak merinci tentang peningkatan yang mungkin dilakukan.

Fitur yang direncanakan termasuk untuk Messages. Dimana akan memberitahu anak-anak dan orang tua mereka ketika Apple mendeteksi bahwa foto seksual eksplisit dibagikan dalam aplikasi menggunakan sistem pembelajaran mesin di perangkat.

Gambar tersebut dikirim ke anak-anak yang akan kabur dan termasuk peringatan. Siri dan fungsi pencarian bawaan di iOS dan macOS akan mengarahkan pengguna ke sumber daya yang sesuai ketika seseorang bertanya bagaimana cara melaporkan CSAM atau mencoba melakukan pencarian terkait CSAM.

Alat iCloud Photo mungkin merupakan fitur deteksi CSAM yang paling kontroversial yang diumumkan Apple. Mereka berencana untuk menggunakan sistem pada perangkat untuk mencocokkan foto dengan databas hash gambar CSAM yang diketahui dan dikelola oleh National Center for Missing and Exploited Children dan organisasi lainnya.

Analisis ini sseharusnya dilakukan sebelum gambar diunggah ke iCloud Photo. Jika sistem untuk mendeteksi CSAM dan pengulas manusia secara manual mengonfirmasi kecocokan, Apple akan menonaktifkan akun tersebut dan mengirim laporan ke NCMEC.

Apple mengklaim pendekatan tersebut akan memberikan “manfaat privasi atas teknik yang ada karena Apple hanya mengetahui tentang foto pengguna jika mereka memiliki koleksi CSAM yang dikenal di akun Photo iCloud mereka.”

Baca juga, iPhone 13 Akan Diluncurkan 17 September Mendatang

LEAVE A REPLY

Please enter your comment!
Please enter your name here