Seperti yang kami laporkan bulan lepas, satu fungsi baharu dalam iOS akan dilancarkan. Fungsi itu akan menyaring kandungan jelik terutamanya yang melibatkan penganiayaan kanak-kanak (Chiled Sexual Abuse Material (CSAM)).
Walau bagaimanpun, fungsi itu mendapat tentangan hebat banyak pihak kerana ia dilihat menjejaskan amalan kerahsiaan terhadap pengguna. Walaupun tujuannya baik, pihak yang menentang menganggapnya boleh disalah guna pada bila-bila masa untuk kepentingan pihak yang ingin mengambil kesempatan.
Oleh sebab itu, Apple di laman rasmi mereka telah mengemas kini halaman produk CSAM dengan mengatakan yang mereka menangguhkan sementara pelancaran fungsi baharu itu bagi mengumpul lebih banyak input dan lakukan penambahbaikan sebelum dilepaskan ke dalam persekitaran awam.
Buat anda yang terlepas berita, fungsi baharu ini bertindak di tiga bahagian:
- Sistem akan memantau kandungan komunikasi keluar masuk peranti untuk mengesan kandungan jelik menggunakan teknologi pembelajaran mesin.
- iOS dan iPadOS akan gunakan algoritma baharu mengesan kandungan jelik di iCloud Photos untuk membantu pihak berkuasa menjalankan penguatkuasaan.
- Siri dan Search akan membantu pengguna mengendalikan kandungan jelik yang ditemukan mereka. Siri dan Search turut akan campur tangan bila pengguna cuba melakukan carian sekitar kandungan jelik.