NEGARA-NEGARA yang menganut sistem demokrasi menerapkan strategi deregulasi atau self- regulation dalam mengatur media digital. Pemerintah hanya memberikan koridor atau batasan-batasan yang umum, sementara aturan detailnya, seperti konten apa yang boleh tayang atau tidak boleh di media sosial, dikembalikan kepada setiap platform media digital.
Sebagai pengguna media digital, baik sebagai kreator maupun hanya penonton, tentu kita harus memahami bagaimana platform mengatur atau memoderasi konten.
Pemerintah dan masyarakat harus mengawal apakah platform-platform itu sudah menunaikan tugasnya dengan baik atau belum. Mengatur konten pengguna dalam sebuah platform nyatanya bukanlah perkara mudah.
Baca juga: Peneliti UGM: Hentikan Konten Media Sosial yang Berujung Maut
Banyak pola yang harus diamati seiring berjalannya waktu, untuk menentukan startegi regulasi konten yang tepat. Strategi itu harus efektif untuk mengatur pengguna media sosial di internet yang memiliki beragam latar belakang, budaya, hingga nilai-nilai yang dianut. Satu konten mungkin bisa terasa tidak senonoh bagi satu kelompok, tetapi terasa biasa saja bagi kelompok lainnya.
Gillespie dalam bukunya, Custodians of the Internet: Platforms, Content Moderation, and the Hidden Decisions That Shape Social Media mengatakan, platform media sosial dengan miliaran pengguna seperti Facebook, Instagram, TikTok, dan YouTube membuat ‘Terms and Conditions’ dan ‘Community Guidelines’ sebagai fondasi regulasinya. Mereka juga menerapkan setidaknya empat strategi untuk mengatur konten penggunanya, yakni automatic-detection, human moderator, community flagging, dan filter/censorship.
Strategi pertama adalah automatic-detection. Dengan menggunakan artificial intelligent (AI), platform memiliki sistem yang dapat mendeteksi secara otomatis konten-konten yang tidak pantas dipublikasikan, seperti konten yang berhubungan dengan pornografi, terorisme, kekerasan atau pelanggaran copyrights.
Pendeteksian bisa dilakukan menggunakan kata kunci atau pola bentuk dan warna dalam sebuah foto yang kemudian dikonversi menjadi rangkaian kode, sebagai referensi untuk mendeteksi foto atau video yang tidak pantas (inappropriate content).
Instagram, misalnya, akan mendeteksi dan menghapus (take down) foto yang Anda unggah, jika mengandung unsur pornografi seperti memperlihatkan organ vital atau aktivitas seksual.
Penerapan automatic-detection ini tentu sangat membantu pihak platform, karena ada banyak sekali konten yang diunggah setiap waktunya. Mereka akan kewalahan jika deteksi dilakukan oleh manusia.
Namun, fitur ini memiliki kelemahan, yaitu mesin pendeteksi hanya bisa mendeteksi konten yang tidak senonoh, namun tidak dapat menganalisa atau mengerti konteks penggunaanya. Misalnya, seseorang menggunakan bahasa vulgar untuk memberikan pendidikan seks, meski bertujuan baik, mesin akan mengklasifikasikannya sebagai konten yang tidak pantas
Strategi berikutnya adalah human moderation atau proses moderasi atau pengawasan konten oleh manusia. Orang yang melakukan pekerjaan ini biasanya disebut sebagai content moderator staff. Mereka ditugaskan untuk menonton, memeriksa, dan memutuskan apakah koten-konten yang dicurigai tidak pantas akan dipertahankan atau dihapus dari platform.
Tentu saja seperti yang sudah disebutkan di atas, kelemahan sistem ini adalah tidak efisien, karena aliran konten setiap detik sangat banyak. Tahun 2021 saja, ada sekitar 136,000 foto terunggah setiap menit di Facebook.
Meskipun tidak terlalu efisien, penggunaan penilaian manusia dianggap lebih baik dibandingkan automatic-detection, karena manusia bisa mengerti konteks penggunaan kata. Misalnya dalam contoh tadi tentang penggunaan kata vulgar dalam sebuah video untuk tujuan pendidikan seks.
Dalam automatic-detection, konten tersebut adalah konten yang tidak pantas. Namun manusia bisa menganalisis lebih lanjut dan mempertimbangkan konteks penggunaanya, jadi mungkin mengategorikannya sebagai konten yang pantas.
Baca juga: Konten Media Sosial Penuh Sensasi, Miskin Esensi?
Strategi community flagging atau tombol report juga digunakan untuk melibatkan publik dalam proses moderasi konten. Publik, siapa pun itu, bisa melaporkan pada platform, jika dia merasa konten yang ditemukannya tidak pantas atau memenuhi unsur pornografi, terorisme, maupun kekerasan.