Bahan eksploitasi seksual kanak-kanak (CSAM) perlu dibanteras.
Bahan eksploitasi seksual kanak-kanak (CSAM) perlu dibanteras.
Tekanan terhadap syarikat teknologi dan platform media sosial untuk menangani bahan eksploitasi seksual kanak-kanak (CSAM) kini mencapai tahap yang tidak pernah berlaku sebelum ini.
Dalam era di mana hampir setiap interaksi sosial berlaku di ruang digital, masyarakat semakin sedar bahawa platform ini bukan lagi sekadar penyedia perkhidmatan, tetapi pemegang amanah keselamatan berjuta-juta pengguna termasuk kanak-kanak yang paling terdedah kepada ancaman tersembunyi dalam talian.
Kewujudan dan penyebaran CSAM bukan sahaja mencerminkan aktiviti jenayah, tetapi kegagalan sistemik dalam perlindungan digital.
Laporan Global Threat Assessment 2023 oleh WeProtect Global Alliance menunjukkan peningkatan hampir 87 peratus laporan eksploitasi kanak-kanak dalam talian sejak 2019.
Pada tahun 2023 sahaja, lebih 32 juta laporan berkaitan CSAM dikemukakan kepada badan antarabangsa. Ini hanya angka rasmi — jumlah sebenar dipercayai jauh lebih tinggi kerana banyak bahan disebarkan dalam saluran tertutup, kumpulan sulit atau melalui aplikasi berpenyulitan hujung-ke-hujung.
Internet Watch Foundation (IWF) pula melaporkan 275,652 laman web mengandungi imej atau video seksual kanak-kanak telah dikesan dan diturunkan pada tahun 2023/2024.
Lebih membimbangkan, 92 peratus daripada kandungan ini merupakan self-generated imagery, iaitu bahan yang dihasilkan sendiri oleh kanak-kanak akibat manipulasi, ugutan atau grooming digital.
Ini termasuk peningkatan dramatik imej membabitkan kanak-kanak berumur 7 hingga 10 tahun, umur yang paling mudah dipengaruhi dan diperalat oleh pemangsa dalam talian.
Perkembangan teknologi kecerdasan buatan (AI) turut memburukkan keadaan.
Laporan pengawasan digital antarabangsa seperti The Guardian menyatakan bahawa imej “kanak-kanak” berunsur seksual yang dijana AI semakin realistik dan sukar dibezakan daripada imej sebenar, menjadikan proses pengesanan oleh platform jauh lebih mencabar.
Ini membuka ruang baharu kepada pelaku jenayah untuk mencipta, mengubah dan menyebarkan bahan yang tidak sepatutnya wujud sejak awal.
Dengan data yang begitu jelas menunjukkan ancaman semakin meningkat, masyarakat menuntut tindakan konkrit daripada syarikat teknologi.
Ketua Pengarah Eksekutif WeProtect Global Alliance, Lain Drennan berkata: “Platform mengawal persekitaran, jadi tanggungjawab untuk memastikan keselamatan terletak pada mereka. Ia bukan pilihan tetapi adalah keperluan asas.”
Kenyataan ini menggambarkan realiti bahawa syarikat teknologi tidak lagi boleh bersembunyi di sebalik alasan “mereka hanya platform”, sedangkan algoritma, dasar kandungan dan sistem penyebaran maklumat berada sepenuhnya dalam kawalan mereka.
Di Malaysia, suara desakan juga semakin lantang. Ahli Parlimen Bukit Bendera, Syerleena Abdul Rashid menggesa agar langkah segera diambil bagi membendung penyalahgunaan platform media sosial daripada pihak tidak bertanggungjawab.
“Kita mesti menuntut pembaharuan segera dan menyeluruh untuk memastikan platform-platform ini bertanggungjawab terhadap kandungan yang mereka hoskan,” kata Syerleena.
Kenyataan ini dibuat susulan lonjakan kes dan penemuan laporan Polis Diraja Malaysia (PDRM) terdapat transaksi pembelian CSAM menggunakan kaedah pembayaran tanpa tunai melalui platform digital tertentu, satu gambaran jelas betapa luasnya ekosistem gelap yang wujud jika tiada kawalan tegas.
Dalam pada itu, penganalisis jenayah Malaysia, Kamal Affandi Hashim, turut menggambarkan media sosial sebagai “lubuk pedofilia” dalam laporan media tahun 2024 apabila pemangsa menggunakan penyamaran identiti, akaun palsu dan teknik grooming untuk mendekati serta memanipulasi kanak-kanak.
Beliau menyatakan platform perlu menyediakan alat keselamatan yang efektif, bukannya bergantung kepada pengguna semata-mata untuk melindungi diri.
Dalam konteks ini, harapan dan jangkauan masyarakat menjadi semakin jelas.
Pengguna hari ini mempunyai hak untuk menjangkakan apabila laporan dibuat terhadap kandungan CSAM, tindakan akan diambil serta-merta.
Platform wajib melaksanakan pengesanan proaktif, bukan menunggu laporan.
Ini termasuk penggunaan teknologi pengimbasan kandungan, pembentukan pasukan pemeriksa manusia yang terlatih, pelaburan dalam sistem kecerdasan buatan yang mampu membezakan kandungan sebenar atau manipulasi, serta kerjasama erat dengan pihak berkuasa dan organisasi antarabangsa.
Tindakan penyingkiran juga perlu konsisten, bukan sekali sekala bagi menghalang kandungan daripada kekal boleh diakses atau muncul semula melalui salinan yang diedarkan oleh pengguna lain.
Pada masa yang sama, ekosistem digital memerlukan pendekatan menyeluruh.
Pendidikan keselamatan siber kepada kanak-kanak, sistem sokongan kepada ibu bapa dan penjaga, serta penggubalan polisi yang lebih tegas oleh kerajaan merupakan komponen penting dalam memastikan ruang digital selamat.
Namun benteng pertama tetap datang daripada platform, pihak yang memegang kuasa teknikal untuk mencegah, mengesan dan memadam kandungan berbahaya sebelum ia tersebar.
Isu CSAM bukan hanya soal pematuhan dasar atau undang-undang, ia soal moral, soal kemanusiaan dan soal melindungi mereka yang paling tidak mampu melindungi diri sendiri.
Platform media sosial perlu memikul tanggungjawab ini sepenuhnya kerana kegagalan mereka bermakna membenarkan trauma berpanjangan terhadap kanak-kanak, ia sesuatu yang tidak boleh dimaafkan oleh mana-mana masyarakat yang beradab.
Dengan tindakan tegas, konsisten dan berasaskan data, ruang siber mampu dibersihkan daripada ancaman yang paling merosakkan ini, dan menjadi tempat yang benar-benar selamat untuk semua.