PILARadio.com – Pemerintah India resmi memperkenalkan aturan baru yang mewajibkan perusahaan media sosial menghapus konten ilegal dalam waktu maksimal tiga jam setelah menerima pemberitahuan resmi. Kebijakan ini menjadi pengetatan signifikan dari aturan sebelumnya yang memberikan tenggat waktu hingga 36 jam.
Regulasi baru tersebut dijadwalkan mulai berlaku pada 20 Februari dan akan diterapkan pada berbagai platform digital besar seperti Meta, YouTube, dan X. Aturan ini juga mencakup konten yang dihasilkan oleh kecerdasan buatan atau AI (Artificial Intelligence), termasuk audio dan video manipulatif seperti deepfake.
Aturan Baru India soal Konten Ilegal dan AI-Generated Content
Dalam pedoman terbaru tersebut, pemerintah India secara tegas mendefinisikan materi yang dihasilkan atau dimodifikasi menggunakan AI. Termasuk di dalamnya adalah audio, gambar, maupun video yang dibuat atau diubah sedemikian rupa agar terlihat nyata, sehingga berpotensi menyesatkan publik.
Konten deepfake menjadi salah satu perhatian utama dalam aturan ini. Deepfake merujuk pada teknologi AI yang dapat memanipulasi wajah, suara, atau gerakan seseorang sehingga tampak autentik meski sebenarnya palsu. Namun, regulasi ini tetap memberikan pengecualian untuk pengeditan biasa, fitur aksesibilitas, serta karya orisinal yang digunakan untuk tujuan pendidikan dan desain.
Selain kewajiban penghapusan dalam waktu tiga jam, platform media sosial juga diwajibkan memberikan label yang jelas pada konten AI-generated. Jika memungkinkan, perusahaan diminta menambahkan penanda permanen untuk membantu melacak asal-usul konten tersebut. Label ini tidak boleh dihapus setelah diterapkan.
Langkah ini dinilai sebagai upaya India memperketat pengawasan terhadap penyebaran informasi palsu, manipulatif, dan berpotensi membahayakan keamanan nasional maupun ketertiban umum.
Platform Wajib Gunakan Alat Otomatis
Dalam regulasi tersebut, perusahaan teknologi juga diwajibkan menggunakan alat otomatis untuk mendeteksi dan mencegah penyebaran konten ilegal berbasis AI. Ini mencakup materi yang menipu, konten tanpa persetujuan, dokumen palsu, materi pelecehan seksual anak, konten terkait bahan peledak, hingga peniruan identitas.
Dengan demikian, perusahaan seperti Meta, YouTube, dan X harus meningkatkan sistem moderasi konten mereka agar mampu merespons laporan dalam waktu sangat singkat. Pemerintah India menilai bahwa percepatan waktu respons diperlukan untuk mencegah dampak luas dari penyebaran konten ilegal di ruang digital.
Selama beberapa tahun terakhir, otoritas India memang aktif menggunakan regulasi Teknologi Informasi untuk memerintahkan platform media sosial menghapus konten yang dianggap melanggar hukum, terutama yang berkaitan dengan keamanan nasional dan ketertiban umum.
Kritik: Tenggat 3 Jam Dinilai Terlalu Singkat
Meski tujuan aturan ini dianggap positif dalam upaya menekan penyebaran konten berbahaya, sejumlah pihak menilai tenggat waktu tiga jam terlalu singkat dan sulit diterapkan secara realistis.
Anushka Jain, peneliti dari Digital Futures Lab, menyambut baik persyaratan pelabelan konten AI. Namun ia mengingatkan bahwa batas waktu tiga jam hampir mustahil dipenuhi tanpa mengandalkan sistem otomatis sepenuhnya.
Dalam wawancaranya dengan BBC, Jain menyebut bahwa bahkan tenggat waktu 36 jam sebelumnya sudah menjadi tantangan bagi perusahaan karena proses moderasi melibatkan tinjauan manusia.
“Perusahaan-perusahaan sudah kesulitan dengan tenggat waktu 36 jam karena prosesnya melibatkan pengawasan manusia. Jika sepenuhnya diotomatisasi, ada risiko besar bahwa hal itu akan menyebabkan penyensoran konten,” ujarnya.
Pernyataan tersebut menggarisbawahi kekhawatiran bahwa otomatisasi penuh dalam moderasi konten dapat meningkatkan risiko kesalahan penghapusan atau overblocking, di mana konten sah ikut terhapus karena sistem tidak mampu membedakan konteks secara akurat.
Kekhawatiran soal Kebebasan Berekspresi
Kelompok advokasi digital, Internet Freedom Foundation, juga menyuarakan kekhawatiran terhadap aturan baru ini. Mereka menyebut bahwa jangka waktu tiga jam berpotensi mengubah platform digital menjadi “mesin sensor cepat.”
Dalam pernyataannya, organisasi tersebut menilai bahwa tenggat yang sangat singkat menghilangkan peran penting tinjauan manusia dalam proses moderasi. Akibatnya, platform bisa terdorong untuk melakukan penghapusan otomatis guna menghindari sanksi, tanpa mempertimbangkan konteks atau kebebasan berekspresi pengguna.
Perdebatan ini menyoroti dilema klasik dalam regulasi internet: bagaimana menyeimbangkan perlindungan publik dari konten berbahaya dengan menjaga hak kebebasan berekspresi di ruang digital.
Belum Ada Tanggapan Resmi dari Platform Besar
Hingga saat ini, belum ada tanggapan resmi dari Meta, X, Google, maupun YouTube terkait penerapan aturan baru pemerintah India ini. Namun, dengan populasi pengguna internet yang sangat besar, India merupakan salah satu pasar digital terpenting bagi perusahaan teknologi global.
Kebijakan ini berpotensi memengaruhi strategi moderasi konten global, terutama dalam konteks konten AI dan deepfake yang semakin marak di berbagai negara.
Dampak Global Regulasi Digital India
Aturan baru India soal penghapusan konten ilegal dalam tiga jam menunjukkan tren global di mana pemerintah semakin aktif mengatur platform media sosial. Negara-negara di berbagai kawasan juga mulai memperketat regulasi terkait konten berbahaya, misinformasi, dan manipulasi berbasis AI.
Dengan cakupan yang jelas terhadap konten AI-generated dan deepfake, India menjadi salah satu negara yang secara eksplisit memasukkan teknologi kecerdasan buatan dalam kerangka regulasi digitalnya.
Ke depan, efektivitas aturan ini akan sangat bergantung pada implementasi teknis oleh platform serta keseimbangan antara penggunaan sistem otomatis dan pengawasan manusia. Jika tidak dikelola dengan hati-hati, kebijakan ini bisa memicu polemik baru terkait sensor digital dan kebebasan berekspresi.
Namun di sisi lain, pemerintah India menegaskan bahwa percepatan penghapusan konten ilegal diperlukan untuk mencegah penyebaran informasi yang berpotensi merugikan masyarakat dalam hitungan jam.
Dengan diberlakukannya aturan ini mulai 20 Februari, dunia akan melihat bagaimana perusahaan media sosial global beradaptasi dengan regulasi ketat India dalam menangani konten ilegal, termasuk yang dihasilkan oleh kecerdasan buatan.
Sumber : www.kumparan.com






















