Media Sosial, Disinformasi, dan Kekerasan: Menuntut Tanggung Jawab Platform

Sayyid AM
4 min readJan 19, 2022

--

Social media illustration. Photo from ebu.ch

Media sosial menjadi salah satu sumber informasi utama bagi kita. Sayangnya, media sosial turut membawa konsekuensi negatif karena ia berperan signifikan dalam menyebarkan disinformasi — informasi salah yang disebarkan dengan sengaja untuk memanipulasi (UNESCO, 2018) — dan mendorong kekerasan. Hal ini disebabkan oleh algoritma media sosial yang memberikan informasi paling relevan dan disukai pengguna. Algoritma tersebut mendorong terbentuknya echo chamber, yaitu kondisi di mana pengguna hanya terekspos dengan pemikiran-pemikiran yang selaras dengan mereka (Garimella et al., 2018). Faktor lainnya adalah adanya confirmation bias atau kecenderungan manusia mencari informasi yang sejalan dengan keyakinan mereka. Dengan begitu, orang mudah percaya dengan apa yang diterimanya — termasuk disinformasi — dan tidak mencari sudut pandang berbeda. Selain itu, media sosial sebagai sarana komunikasi memungkinkan pengorganisasian kekerasan. Pengguna yang saling berbagi disinformasi, termasuk pandangan kebencian, dapat berujung pada ajakan untuk melakukan suatu kekerasan di dunia nyata. Ajakan ini kemudian disambut oleh orang-orang yang berada di satu chamber yang sama.

Implikasinya, media sosial menyebabkan penurunan kualitas demokrasi. Pemilu sebagai salah satu aspek demokrasi tidak dapat diselenggarakan secara bebas dan adil akibat polarisasi yang diamplifikasi oleh media sosial. Hal ini dapat dilihat dalam perang disinformasi antara kedua kubu dalam Pilpres Indonesia 2019 yang bertujuan untuk menjatuhkan kandidat lawan. Terdapat pula disinformasi yang ditujukan pada KPU sehingga menurunkan kepercayaan masyarakat terhadap hasil pemilu (Paterson, 2019). Tidak hanya itu, akumulasi disinformasi membentuk pandangan ekstrimis yang memicu organisasi kekerasan dan berujung pada pelanggaran hukum di dunia nyata. Contohnya adalah pendukung Trump yang menyerang US Capitol pada penetapan Joe Biden sebagai presiden terpilih. Menjelang serangan, mereka tidak hanya mengajak untuk berdemonstrasi, tetapi secara eksplisit mempersiapkan kekerasan. Hal ini, misalnya, dapat dilihat dari diskusi senjata apa yang akan dibawa dalam sebuah grup Facebook (Heilweil dan Ghaffary, 2021).

Sejauh ini, platform sudah melakukan upaya-upaya penanggulangan disinformasi dan kekerasan. Mereka melakukan moderasi konten dengan menberikan label, peringatan, atau informasi tambahan bagi konten yang dianggap salah. Salah satu pelopornya adalah Facebook yang memberi label “disputed” pada unggahan yang diragukan oleh fact-checker dan disusul oleh pemberian hasil cek fakta di bawah unggahan (Mena, 2019). Instagram dan Twitter memiliki kebijakan yang mirip, terutama di masa pandemi dan pemilu Amerika Serikat 2020. Kebanyakan platform mempekerjakan pihak ketiga untuk melakukan moderasi konten. Lebih lanjut, mereka juga menghapus unggahan, akun, atau grup yang berisi disinformasi dan mendorong kekerasan. Selama tahun 2020, Facebook menghapus ribuan profil, halaman, grup, dan akun Instagram yang terafiliasi dengan QAnon ataupun gerakan sosial militan lainnya (Facebook, 2020).

Pada dasarnya, media sosial sebagai penyedia layanan mengemban tanggung jawab utama untuk meminimalkan dampak negatif yang muncul, setidaknya melalui dua hal. Pertama, menghapus unggahan atau akun berisi disinformasi, kebencian, atau ajakan kekerasan yang eksplisit sebelum unggahan tersebut menyebar. Kedua, memperbaiki algoritma untuk meminimalkan dampak dari confirmation bias. Meskipun demikian, masih banyaknya disinformasi yang beredar dan munculnya kekerasan melalui media sosial menunjukkan bahwa kebijakan-kebijakan yang telah diambil belum berhasil. Oleh karena itu, platform perlu mengembangkan kebijakan mereka lebih jauh.

Dalam moderasi konten, beberapa pihak sudah menyoroti mengenai rendahnya upah pihak ketiga, mulai tingginya ketergantungan platform terhadap artificial intelligence, dan tidak transparannya proses moderasi (Schoolov, 2021; Donovan, 2020). Sementara itu, platform enggan untuk merubah algoritma mereka karena algoritma tersebut merupakan pundi uang bagi platform. Contohnya, Lauer (2021) menekankan bahwa solusi berbasis teknologi yang ditempuh Facebook tidak berguna karena tidak menyentuh akar masalah, yaitu algoritma yang dirancang untuk meningkatkan pertumbuhan dan engagement pengguna.

Untuk menuntut tanggung jawab platform, pemerintah perlu mengatur secara ketat supaya kebijakan yang diambil platform efektif. Hal ini misalnya telah diinisiasi oleh Uni Eropa yang menetapkan Code of Practice on Disinfirmation. Aturan ini menuntut platform untuk membuka cara kerja algoritma, proses moderasi konten, transparansi iklan politik, dan lainnya (European Commission, 2021). Lauer (2021) pula menggarisbawahi bahwa aturan yang ditetapkan perlu menarget eksekutif perusahaan yang bertanggung jawab dalam pengambilan keputusan. Meski begitu, perlu diingat bahwa sebagian pemerintah terbukti turut melakukan penyebaran disinformasi menggunakan pasukan siber untuk memanipulasi opini publik (Bradshaw dan Howard, 2019). Oleh karena itu, perlu ada kontrol supaya aturan yang dikeluarkan tidak membungkam kebebasan berpendapat. Di sini, peran masyarakat sipil menjadi penting, misalnya untuk memastikan pemerintah memberi definisi yang jelas mengenai konten disinformasi seperti apa yang harus ditindak oleh platform. Melalui kerja sama dari berbagai pihak, diharapkan platform dapat melakukan tanggung jawabnya sehingga mampu mencegah penurunan kualitas demokrasi.

Referensi

Bradshaw, S., & Howard, P. (2019). The Global Disinformation Order 2019 Global Inventory of Organised Social Media Manipulation. Oxford: Oxford Internet Institute.

Donovan, J. (2020). Why social media can’t keep moderating content in the shadows. Retrieved 22 June 2021, from https://www.technologyreview.com/2020/11/06/1011769/social-media-moderation-transparency-censorship/

European Commission. (2021). Code of Practice on Disinformation. Retrieved 22 June 2021, from https://digital-strategy.ec.europa.eu/en/policies/code-practice-disinformation

Facebook. (2020). An Update on Our Actions to Address Violence on Facebook and Instagram. Retrieved 21 June 2021, from https://www.facebook.com/business/news/policy-update-actions-against-violence-on-facebook-instagram

Garimella, K., De Francisci Morales, G., Gionis, A., & Mathioudakis, M. (2018). Political Discourse on Social Media. Proceedings Of The 2018 World Wide Web Conference On World Wide Web — WWW ’18. doi: 10.1145/3178876.3186139

Heilweil, R., & Ghaffary, S. (2021). How Trump’s internet built and broadcast the Capitol insurrection. Retrieved 21 June 2021, from https://www.vox.com/recode/22221285/trump-online-capitol-riot-far-right-parler-twitter-facebook

Lauer, D. (2021). Facebook’s ethical failures are not accidental; they are part of the business model. AI And Ethics. doi: 10.1007/s43681–021–00068-x

Mena, P. (2019). Cleaning Up Social Media: The Effect of Warning Labels on Likelihood of Sharing False News on Facebook. Policy & Internet, 12(2), 165–183. doi: 10.1002/poi3.214

Paterson, T. (2019). Indonesia’s ‘hoaxes’ go deeper than just disinformation | East Asia Forum. Retrieved 21 June 2021, from https://www.eastasiaforum.org/2019/07/05/indonesias-hoaxes-go-deeper-than-just-disinformation/

Schoolov, K. (2021). Why content moderation costs billions and is so tricky for Facebook, Twitter, YouTube and others. Retrieved 22 June 2021, from https://www.cnbc.com/2021/02/27/content-moderation-on-social-media.html

UNESCO. (2018). Journalism, ‘Fake News’ & Disinformation: Handbook for Journalism Education and Training. Paris: UNESCO.

--

--

Sayyid AM
Sayyid AM

Written by Sayyid AM

International Relations Student at Universitas Gadjah Mada

No responses yet