TikTok dan moderasi konten: Perlukah Indonesia khawatir?

6 April 2023

JAKARTA – Tidak dapat diduga jenis konten apa yang dapat kita temui di ponsel pintar kita setiap hari. Dari tutorial memasak hingga orang-orang yang ikut bermain samping (penghuni liar) hingga orang lanjut usia yang mandi lumpur dan anak-anak yang melakukan kecenderungan berbahaya. Beberapa konten ini berada dalam wilayah legalitas abu-abu.

Baru-baru ini, komunitas global dikejutkan dengan sidang kongres AS yang menanyakan Shou Zi Chew, CEO TikTok, tentang keamanan data dan konten berbahaya di TikTok. Beberapa anggota parlemen AS mendorong pelarangan aplikasi tersebut secara nasional karena takut akan konten berbahaya dan ancaman keamanan.

Namun apakah pelarangan platform media sosial merupakan jawabannya? Apakah ada alternatif lain untuk mencapai keseimbangan antara kebebasan berekspresi warga negara dan melindungi mereka dari konten berbahaya dan ilegal?

Pada tanggal 23 Maret, Chew diwawancarai panjang lebar tentang kebijakan dan praktik TikTok dalam hal moderasi konten, keamanan data, dan perlindungan pengguna muda. Ketika beberapa dapat mengkritik kurangnya penelitian Kongres dalam mempertanyakan, sidang tersebut juga mengangkat isu-isu kritis mengenai pentingnya memperkuat perlindungan privasi data dan moderasi konten.

Sebuah pertanyaan menarik dari salah satu anggota kongres menanyakan bagaimana algoritma TikTok “mendorong” tantangan berbahaya terhadap makanan anak-anak. Itu kasus seorang gadis berusia 10 tahun yang berpartisipasi dalam tantangan tersedak “padam”. menjadi contoh konten berbahaya yang ditemukan di TikTok. Ini hanyalah salah satu contoh di mana konten dan moderasinya sangatlah penting, dan Indonesia tidak terkecuali.

Awal tahun ini, Kementerian Komunikasi dan Informatika meminta TikTok melarang seluruh konten terkait mandi lumpur (mandi lumpur). Fenomena mengemis secara online adalah salah satu dari banyak situasi, selain konten pornografi, tidak pantas, dan berbahaya, yang mengharuskan platform harus bekerja sama secara efektif dengan pemerintah untuk melakukan moderasi.

Mungkin mengejutkan bahwa perdebatan mengenai penilaian terhadap apa yang bersifat “vulgar” atau “cabul” atau konten yang mengandung “ketelanjangan” telah berlangsung selama beberapa dekade. Sejak informasi masih dicetak di atas kertas, moderasi konten tidak dapat dipisahkan dari media.

Moderasi konten bertujuan untuk melindungi satu pengguna dari pengguna lain, atau satu kelompok dari oposisi mereka, dan untuk menghapus konten yang dianggap “menyinggung” atau “ilegal”.

Moderasi konten melibatkan apa saja mulai dari menghapus konten, menandai, menerapkan filter, memberi tag, melakukan demonetisasi, menonaktifkan komentar atau fitur tertentu hingga memblokir pengguna.

Pada prinsipnya, karena adanya kesepakatan antar pengguna mengenai akses terhadap platform media sosial yang terikat oleh kebebasan berkontrak, maka platform media sosial bebas membatasi kontrak apa pun yang dirasa perlu.

Meskipun demikian, mereka tetap harus menghormati hak asasi manusia, kebebasan berekspresi, hak atas privasi dan proses hukum.

Pendekatan moderasi konten saat ini sangat bergantung pada pengaturan mandiri, yaitu individu yang memutuskan sendiri informasi apa yang mereka bagikan kepada siapa dan untuk tujuan apa. Kebijakan moderasi adalah kompromi yang wajar antara pengguna dengan nilai dan harapan yang berbeda serta antara tuntutan keuntungan yang berbeda.

Namun pertanyaannya adalah “nilai” apa yang dianut oleh platform tersebut? Apakah itu milik mereka atau milik pengguna?

Terdapat konsensus baru untuk menjadikan pengaturan mandiri menjadi pengaturan bersama. Dimana beban tanggung jawab pengambilan keputusan ditanggung bersama antara perusahaan dan pemerintah. Dalam hal ini, negara harus mengambil peran “menstrukturkan pengaturan mandiri”, sementara perusahaan memberikan ruang untuk pengambilan keputusan. Pendekatan semacam ini juga mencakup keterlibatan berbagai pemangku kepentingan, termasuk industri dan kelompok kepentingan publik untuk menetapkan kode etik yang wajib.

Diluncurkan pada Agustus 2018, TikTok adalah anak perusahaan dari perusahaan teknologi Tiongkok yang berbasis di Beijing, ByteDance Ltd. Mengingat kedudukan dan afiliasi perusahaan tersebut dengan Partai Komunis yang berkuasa, pemerintah AS khawatir bahwa pihak berwenang Tiongkok dapat memaksa ByteDance untuk menyerahkan data TikTok tentang pengguna AS, sehingga mengungkap informasi sensitif. Hal ini didasarkan pada Undang-Undang Intelijen Nasional Tiongkok tahun 2017 yang mengatakan “organisasi mana pun” harus membantu atau bekerja sama dengan pekerjaan intelijen pemerintah.

Meski demikian, juru bicara Kementerian Luar Negeri Tiongkok menyatakan bahwa Tiongkok tidak akan pernah meminta perusahaan untuk mengumpulkan atau memberikan “data, informasi atau intelijen” yang disimpan di luar negeri. Selama sidang kongres, Chew juga berjanji bahwa data tentang pengguna Amerika akan disimpan di server yang dioperasikan oleh kontraktor luar, Oracle Corp., yang merupakan bagian dari “Project Texas.” Ia mengklaim seluruh data warga AS akan disimpan di AS.

Dalam hal moderasi konten, Tiongkok tidak memiliki masalah yang sama seperti negara-negara lain. Tiongkok memiliki alat eksklusif dalam versi TikTok “Douyin”, yang menerapkan aturan sensor terbatas untuk melarang materi yang dianggap subversif atau pornografi. Filter ekstensif tersebut memblokir sebagian besar pengguna di Tiongkok dari konten yang dianggap bertentangan dengan moral dan kepentingan publik.

Salah satu tantangan unik yang dihadapi Indonesia adalah banyaknya keragaman nilai-nilai sosial, budaya, dan agama yang tertanam dalam akar sejarah yang dalam. Elemen-elemen ini dapat menjadi perisai atau senjata bagi orang-orang untuk menyebarkan informasi palsu, ujaran kebencian, atau materi ekstremis kekerasan.

Menurut Sherly Haristya dalam dirinya laporan dengan bagian 19, moderasi konten yang efektif di Indonesia memerlukan dialog yang transparan dan berkelanjutan antara platform dan kelompok masyarakat sipil lokal. Koalisi lokal mengenai kebebasan berekspresi dan moderasi konten merupakan salah satu kunci mekanisme multi-pemangku kepentingan untuk mengawasi moderasi konten. Hal ini karena para pengambil keputusan di daerah mempunyai informasi yang baik tentang konteks lokal dan memahami nuansa budaya, bahasa, sejarah, politik dan sosial.

Beberapa solusi kebijakan yang mungkin harus dipertimbangkan oleh Indonesia termasuk memperkuat moderasi konten oleh platform dan menambahkan persyaratan sensor dan pengawasan baru bagi perusahaan teknologi.

Pemerintah juga harus mengupayakan transparansi yang lebih besar dan pembagian data antar platform, mewajibkan perusahaan untuk sepenuhnya mengungkapkan upaya pengaturan mandiri untuk mengatasi konten ilegal dan berbahaya di platform mereka.

***

Penulis adalah dosen hukum Universitas Gadjah Mada dan kandidat PhD di Universitas Debrecen, Hongaria.

Data Sidney

By gacor88