Soal Moderasi Konten di Indonesia
Ilustrasi - konten negatif (ANTARA)

Bagikan:

YOGYAKARTA - Jumlah pengguna internet di Indonesia semakin tinggi dari tahun ke tahun, sayangnya ini juga berbanding lurus dengan jumlah konten negatif yang dilaporkan di media sosial.

Peneliti Center for Digital Society (CfDS), Universitas Gadjah Mada, Faiz Rahman, menilai peningkatan jumlah pengguna internet di Indonesia dipicu pemakaian media sosial untuk berkomunikasi.

"Masyarakat memaksimalkan penggunaan media sosial dalam berinteraksi," kata Faiz dalam webinar "Social Media 4 Peace in Indonesia Addressing Gaps in Regulating Harmful Content Online", Selasa seperti yang dikutip VOI dari ANTARA.

Soal Moderasi Konten

Survei terbaru Asosiasi Penyelenggara Jasa Internet Indonesia (APJII) menyatakan jumlah pengguna internet Indonesia sebanyak 210.026.769 pada 2021 hingga kuartal pertama 2022. Pada 2019-2020, jumlah pengguna internet di Indonesia baru mencapai 196,7 juta orang.

Kenaikan jumlah pengguna internet di Indonesia juga dilaporkan oleh Hootsuite, per Januari 2021 terdapat 202,6 juta orang Indonesia yang terhubung ke internet. Berdasarkan data lembaga yang sama untuk Januari 2022, pengguna internet Indonesia naik menjadi 204,7 juta orang.

Penelitian CfDS menemukan bahwa peningkatan jumlah pengguna internet berimbang dengan jumlah konten di platform digital, baik yang dilaporkan ke pemerintah maupun yang dilaporkan ke lembaga non-pemerintahan.

Sepanjang 2021, Kementerian Komunikasi dan Informatika diketahui memblokir 565.449 konten negatif, sementara pada 2020 jumlahnya 313.688, berdasarkan dokumen kementerian yang dapat diakses melalui situs resmi.

Pada 2019, Kementerian Kominfo mendapat 431.065 aduan konten negatif.

Manajer Kebijakan Publik Meta di Indonesia dan Timor Leste, Noudhy Valdryno, mengatakan konten negatif yang paling sering ditemui di Indonesia berupa ujaran kebencian dan misinformasi.

Melalui fitur laporan yang ada di setiap platform media sosial, pengguna bisa melaporkan konten yang mereka anggap tidak sesuai dengan aturan. Platform media sosial bisa menindaklanjuti laporan tersebut, misalnya dengan menghapus, jika konten tersebut terbukti melanggar aturan.

Setiap platform memiliki standar komunitas, atau sering disebut "community guideline", yang berlaku universal. Artinya, standar komunitas tersebut sama di setiap negara di mana mereka beroperasi.

Pada praktiknya, tindak lanjut konten yang dilaporkan adalah hal yang cukup rumit karena platform tidak bisa hanya mengacu pada standar komunitas, namun, juga undang-undang yang berlaku di suatu negara.

Sub Koordinator Penyusunan Rancangan Peraturan, Direktorat Jenderal Aplikasi Informatika, Kementerian Kominfo, Denden Imadudin, menilai standar komunitas yang berlaku pada suatu platform media sosial mungkin berbeda dengan undang-undang yang berlaku pada suatu negara.

"Standar komunitas tetap menjadi acuan platform, namun, mereka juga menjadikan hukum lokal sebagai acuan," kata Denden.

Perbedaan aturan seperti itu bisa jadi menimbulkan polemik ketika menangani konten negatif, misalnya negara melihat konten tersebut perlu dihapus karena melanggar aturan, namun, platform menilai konten itu tidak melanggar standar komunitas mereka.

Kesulitan soal moderasi konten ditambah dengan algoritma platform media sosial yang cenderung merekomendasikan sesuatu yang sedang populer atau viral, yang mungkin saja tergolong konten yang berbahaya.

Dalam hal ini, Faiz menilai platform tidak bisa mengandalkan algoritma saja dalam mendeteksi konten, namun, juga harus memiliki moderator manusia untuk mengajari sistem perihal konten negatif.

Apalagi konten yang dianalisis juga perlu memperhatikan konteks lokal sebelum memutuskan apakah ia melanggar aturan atau tidak.

Moderasi konten

Setiap pengguna media sosial bisa mengakses fitur pelaporan konten. Ketika mendapat laporan, platform media sosial akan melihat apakah konten tersebut melanggar standar komunitas mereka, kemudian menilai apakah konten itu melanggar undang-undang yang berlaku di sebuah negara.

Jika konten melanggar undang-undang, menurut Denden, pemerintah bisa mengirimkan permintaan resmi kepada platform media sosial untuk menghapus konten tersebut.

"Soal penegakan hukum, berdasarkan yurisdiksi sehingga hukum Indonesia yang akan digunakan," kata Denden.

Mengenai moderasi konten, Valdryno melihat ini adalah pekerjaan yang cukup rumit terutama jika berkaitan dengan hoaks. Berbeda dengan konten pornografi, misalnya, yang bisa langsung dihapus karena jelas melanggar standar komunitas.

Misinformasi atau hoaks memerlukan waktu untuk dianalisis soal kebenarannya. Untuk kasus seperti ini, Meta bekerja sama dengan pihak ketiga di Indonesia, biasanya organisasi media jurnalistik, untuk menganalisis kebenaran informasi dalam konten tersebut.

Jika terbukti hoaks, Meta akan menghapus konten tersebut karena jelas melanggar standar komunitas dan regulasi di Indonesia. Setelah itu, platform akan menurunkan sebaran konten tersebut agar sulit ditemukan pengguna.

Meta, perusahaan induk Facebook, WhatsApp dan Instagram, akan melabeli konten tersebut sebagai hoaks dan memberikan klarifikasi berdasarkan informasi yang dihimpun dari pengecek fakta.

Jika pengguna tetap ingin membagikan konten yang sudah berlabel hoaks, platform memberikan lapisan pengamanan tambahan, yaitu berupa notifikasi apakah yakin ingin membagikan konten tersebut.

Pengguna media sosial diimbau melaporkan konten negatif, bisa kepada platform media sosial, pemerintah melalui kanal aduan yang sudah disiapkan Kementerian Kominfo atau lembaga lain yang menyediakan pelaporan konten negatif seperti CfDS.

Kominfo membuka layanan aduan antara lain melalui situs aduankonten.id, email dan akun resmi aduan konten Kominfo di Twitter, Instagram, Facebook dan Telegram.

Saatnya merevolusi pemberitaan di Jogja.Voi.id!