Media sosial dewasa ini sudah menjadi ladang persebaran misinformasi. Akan tetapi masalah ini tidak bisa dikaji hanya dari sisi masyarakat pengguna media sosial saja. Algoritma media sosial yang membentuk sebuah echo chamber juga terlibat sebagai biang keladi persebaran misinformasi ini
Era digital menuntut masyarakat semakin melek dengan perkembangan teknologi, tak terkecuali dalam pengambilan dan penyebaran informasi di media elektronik. Kementerian Komunikasi dan Informatika (2020) memaparkan data bahwa 76% dari masyarakat Indonesia menjadikan media sosial sebagai sumber informasi. Data tersebut menunjukkan bahwa sebagian besar masyarakat Indonesia mengakses media sosial dengan tujuan untuk mendapatkan dan menyebarkan informasi.
Seiring dengan banyaknya pengguna internet yang memanfaatkan media sosial sebagai sumber informasi, muncul berbagai permasalahan salah satunya adalah maraknya hoaks dan misinformasi. Hoaks dapat menjadi misinformasi ketika berita bohong tersebut tersebar tetapi pihak-pihak yang menyebarkan tidak menyadari bahwa berita tersebut tidak benar (Shu et al. 2020).
Penyebaran hoaks di media sosial sangat marak terjadi di Indonesia. Kementerian Komunikasi dan Informatika (2022) menyatakan bahwa sepanjang tahun 2021 lembaga pemerintahan tersebut telah memutus akses pada 565.449 konten hoaks yang beredar di media sosial. Berita hoaks banyak tersebar di media sosial Instagram dan TikTok.
Salah satu penyebaran misinformasi yang masih membekas di ingatan masyarakat Indonesia adalah misinformasi mengenai pandemi atau infodemik. Salah satu infodemik di media sosial yang paling terkenal adalah mengenai kalung anti-COVID-19 yang diproduksi oleh Kementerian Pertanian (Kementan). Kalung anti-COVID-19 ini sempat menghebohkan di media sosial pada masa awal pandemi karena dianggap mampu mencegah virus COVID-19 untuk masuk ke dalam tubuh. Padahal pada kenyataannya, kalung anti-COVID-19 ini merupakan buah dari penentuan kebijakan yang tidak berdasarkan atas pengetahuan. Misinformasi ini pun beredar dengan cepat di media sosial. Kementan sebenarnya sudah menganulir pernyataannya mengenai kalung ini. Namun, misinformasi yang sudah beredar di masyarakat tidak serta merta bisa berhenti karena klarifikasi tersebut.
Misinformasi lain yang telah menciptakan kekacauan adalah kasus kerusuhan yang terjadi di Papua tahun 2019. Menurut Ramadhan dan Munandar (2021), hoaks yang muncul di media sosial dianggap pemerintah sebagai pemicu utama dari kerusuhan Papua. Hoaks tersebut akhirnya dijadikan justifikasi untuk membatasi akses internet di sana. Berita bohong yang muncul terkait dengan peristiwa kerusuhan asrama Papua di Surabaya. Versi cerita yang berbeda antara pihak polisi dan pihak mahasiswa ketika dibawa ke media sosial menjadi lahan yang subur untuk menumbuhkan berbagai macam hoaks yang pada akhirnya bermuara pada kerusuhan di Papua pada tahun 2019. Alhasil, setidaknya 20 orang dilaporkan tewas akibat konflik yang berlangsung pada Agustus hingga September 2019 itu.
Misinformasi yang keberadaannya nyata di dalam media sosial dewasa ini hanyalah salah satu dari banyak fenomena lain yang terdapat di media sosial. Selain misinformasi, fenomena yang juga marak ditemukan di media sosial adalah echo chamber âruang gemaâ. Lalu, sebenarnya apa itu ruang gema? Bagaimana fenomena ini memengaruhi masyarakat pengguna media sosial? Kemudian, sebagai dua fenomena besar di media sosial, apa keterkaitan ruang gema dengan fenomena misinformasi?
Ruang Gema dan Misinformasi
Menurut Nguyen (2020), ruang gema adalah fenomena epistemik sosial yang menyebabkan segala suara lain âyang bertentangan dengan suara utama dalam kelompokâ hilang. Ruang gema bisa menjadi mekanisme untuk memperkuat opini di dalam kelompok sehingga menyebabkan pergerakan grup keposisi yang semakin ekstrem (Cinelli et al. 2021). Keberadaan ruang gema juga semakin diperjelas oleh Teori Group Think Irving Janis. West dan Turner (2010) menjelaskan fenomena group think ini sebagai fenomena yang terjadi di dalam suatu kelompok yang solid. Anggota kelompok akan lebih mengutamakan solidaritas kelompok dengan mengafirmasi suara utama dan membatasi argumen kontra di kelompok tersebut. Padahal, bisa jadi argumen kontra tersebut adalah kunci dalam pemecahan masalah yang ada di dalam kelompok tersebut.
Sebenarnya fenomena ruang gema tidak selalu berada dalam konteks media sosial. Akan tetapi, ruang gema dekat dengan media sosial karena sangat mudah terbentuk di ekosistem media sosial. Di dalam media sosial, algoritma merupakan biang keladi utama yang mengamplifikasi terjadinya ruang gema. Amplifikasi tersebut terjadi karena algoritma yang ada di media sosial membuat seseorang mendapatkan informasi sesuai dengan preferensi pribadi.
Pengguna media sosial biasanya akan mendapatkan informasi yang sama atau serupa dengan informasi yang pernah mereka akses sebelumnya di ruang gema. Pengguna akan mendapatkan informasi selaras dengan preferensi yang disesuaikan dengan aktivitas atau perilaku mereka dalam menggunakan layanan media sosial terkait. Hal tersebut dapat terjadi karena pengaruh suatu sistem yang mengatur konten yang akan diterima seorang pengguna media sosial. Sistem tersebut didefinisikan sebagai algoritma filter bubble (Wulandari, Rullyana, and Ardiansyah 2021).
Menurut Dubois dan Blank (2018), filter bubble adalah suatu algoritma filter yang menyesuaikan konten yang diterima dengan preferensi pengguna dalam media sosial. Algoritma filter bubble seakan memerangkap pengguna dalam satu gelembung berisi informasi-informasi yang sesuai dengan preferensi mereka tanpa mengetahui informasi lain di luar gelembung tersebut. Algoritma filter bubble dan ruang gema bekerja seperti efek domino. Ketika pengguna-pengguna yang berada dalam filter bubble yang sama berkumpul, maka fenomena ruang gema dapat terjadi. Fenomena ruang gema menyebabkan seseorang berada dalam lingkungan dengan informasi atau pendapat yang memperkuat pendapat mereka sendiri (Wulandari, Rullyana, and Ardiansyah 2021).
Ruang gema yang terbentuk kemudian bisa memengaruhi interaksi antarindividu di dalam media sosial. Masyarakat yang berada di dalam ruang gema cenderung memperlihatkan sikap bias konfirmasi. Menurut Tom Nichols (2017), bias konfirmasi adalah kecenderungan untuk mencari informasi yang memperkuat kepercayaan pribadi, menerima fakta yang menegaskan penjelasan pribadi, dan menolak data yang bersifat kontra dari pemikiran pribadi. Di dalam media sosial, sekelompok masyarakat dengan bias konfirmasi tersebut masuk ke dalam ruang gema. Kelompok ini kemudian mendengar lebih banyak suara yang mendukung pemikiran komunal mereka sehingga membatasi pengaruh dari suara yang bertentangan.Â
Kondisi ini akan menuntun sekelompok individu dengan pemikiran yang sama tersebut ke dalam kondisi polarisasi atau pengelompokkan masyarakat. Menurut Cass R. Sunstein (2002), proses polarisasi kelompok bisa dilihat dari dua mekanisme pembentuk. Pertama, pengaruh lingkungan sosial pada sebuah tindakan. Kedua, pola argumentasi yang terbatas. Kedua mekanisme pembentuk ini bisa menggiring sebuah kelompok pada pemikiran yang ekstrem dan membatasi sudut pandang lain. Sunstein (2002) menggambarkan polarisasi kelompok dengan memberikan beberapa contoh kasus. Ia menggambarkan polarisasi dengan perumpamaan tentang sekelompok perempuan yang prihatin pada tirani akan feminisme. Keseluruhan kelompok tersebut percaya bahwa perempuan dan laki-laki berbeda sehingga harus ada peran yang berbeda pula. Diskusi dilakukan rutin selama dua minggu sekali, tetapi dengan sudut pandang yang terbatas. Kelompok tersebut semakin memercayai kebenaran mereka dan enggan untuk melihat keprihatinan mereka dari berbagai sudut pandang lainnya.
Fenomena semacam ini marak terjadi di media sosial dan berpengaruh besar pada interaksi dan aliran informasi. Seperti yang sudah dijelaskan, media sosial memiliki algoritmanya tersendiri yang mendorong terbentuknya ruang gema. Penelitian yang mengkaji ruang gema di Facebook, Reddit, Twitter, dan Gab menemukan bahwa dinamika internet didominasi oleh formasi kelompok dengan interaksi satu arah (Cinelli et al. 2021). Penelitian lain yang mengkaji Facebook juga menemukan hal yang sama. Individu yang terpapar pada beragam konten cenderung berinteraksi bersama individu lain dengan pola konsumsi konten serupa (Bessi et al. 2015).Â
Polarisasi yang terbentuk berpengaruh pada persebaran misinformasi di media sosial. Dalam masyarakat yang terpolarisasi, individu akan melihat dan membagikan informasi yang menarik dan berguna bagi kelompoknya. Kemudian, individu akan melihat dan mencari informasi di media sosial dari satu sudut pandang saja. Oleh karena itu, misinformasi bisa dengan mudah dibagikan hanya karena menarik dan berguna bagi kelompok dengan satu sudut pandang tertentu (Osmundsen et al. 2021).Â
Dampak ruang gema pada masyarakat menunjukkan adanya ketimpangan kuasa antara pengguna dengan pengelola media sosial. Di dalam media sosial, informasi serta privasi masyarakat bisa dilihat oleh pengelola media sosial karena adanya kebebasan dalam mengemukakan informasi (Yan 2021). Kebebasan ini pada akhirnya juga diatur oleh pengelola media sosial. Dalam teks laporan yang dirangkai oleh Privacy Rights Clearinghouse (2010), dinyatakan bahwa media sosial memiliki kemampuan untuk mengubah kebijakan privasinya kapanpun.Â
Ketimpangan kuasa dalam media sosial ini bisa dilihat contohnya dari cara kerja Facebook yang dikemukakan oleh Frances Haugen. Dalam wawancara dengan CBS, ia menyebutkan bahwa Facebook dengan pengetahuan algoritmanya membiarkan konten misinformasi seperti ujaran kebencian dipaparkan kepada penggunanya. Tindakan ini dilakukan karena Facebook menyadari bahwa konten semacam itu mendapatkan banyak klik dan membuat penggunanya tetap berada di dalam situs tersebut (Pelley 2021). Lantas apa yang harus dilakukan dalam menangani ketimpangan kuasa dan ancaman ruang gema ini? Jika ketimpangan kuasa ini perlu dikendalikan, regulasi semacam apa yang bisa melakukannya?
Regulasi untuk Melawan Ruang Gema dan Misinformasi
Regulasi untuk menindaklanjuti maraknya misinformasi bisa dilaksanakan dari dua sisi, yakni perbaikan pada sistem dan algoritma media sosial serta penindaklanjutan dari negara terhadap media sosial. Andrea Renda, peneliti untuk Centre for European Policy Studies meneliti perihal regulasi ini dan menyimpulkan bahwa maraknya misinformasi harus dikaji dari tiga fase persebarannya. Tiga fase tersebut adalah proses penciptaan berita palsu, proses amplifikasi misinformasi melalui media sosial dan algoritmanya, kemudian proses penyebaran secara massal oleh masyarakat (Renda 2018). Dari tiga fase tersebut, terlihat algoritma media sosial sebagai salah satu aspek yang harus diperbaiki. Media sosial yang menciptakan ruang gema di dalamnya mendorong terjadinya persebaran misinformasi secara massal.
Salah satu fitur penting di dalam media sosial yang bisa dirangkai ulang fungsinya adalah fitur rekomendasi. Fitur ini berfungsi sebagai aspek yang menentukan konten atau informasi yang akan hadir di dalam media sosial seorang individu. Dalam perkembangannya, fitur ini juga menjadi salah satu pembentuk ruang gema karena membatasi paparan konten baru dan jejaring baru yang berbeda dari individu pengguna media sosial (Tommasel, Rodriguez, and Godoy 2021). Oleh karena itu, pelaksanaan alih fungsi pada fitur rekomendasi juga bisa menjadi salah satu regulasi yang harus dilaksanakan berbagai media sosial yang ada.
Salah satu penerapan fitur rekomendasi sebagai penangkal ruang gema bisa dilihat dari program A Friend RecommenDer for breakIng Echo Chamber atau FRediECHÂ (Tommasel, Rodriguez, and Godoy 2021). Pada awalnya, fitur ini diprogram untuk menyadari ruang gema yang terbentuk secara implisit dalam akun seorang individu. Data mengenai ruang gema tersebut kemudian digunakan untuk memaparkan informasi atau konten yang lebih beragam ke dalam media sosial individu. Hasilnya adalah paparan konten yang lebih beragam sehingga memberikan perkembangan dalam hal cakupan informasi yang diterima oleh seorang individu. Eksperimen FRediECH ini memberikan harapan pada perangkaian ulang algoritma media sosial sebagai salah satu bentuk penangkalan ruang gema dan misinformasi yang diakibatkannya. Akan tetapi, regulasi juga perlu dilaksanakan untuk menindaklanjuti pelanggaran yang sudah terjadi. Maraknya misinformasi sudah menjadi fakta yang terpampang pada media sosial kita dan negara dengan kewenangan hukumnya juga perlu memberikan regulasinya pada masalah ini.
Regulasi pada media sosial dalam upaya pencegahan misinformasi sebenarnya merupakan pengakuan dari negara tersebut akan dampak negatif yang ditimbulkan ruang gema dan algoritma yang mendukungnya. Akan tetapi pada kenyataannya, masih sangat sedikit negara di dunia ini yang menerapkan regulasi pada media sosial. Satu-satunya negara yang secara gamblang menciptakan regulasi media sosial untuk melawan misinformasi adalah Jerman. Kebijakan regulasi pada media sosial yang diterapkan oleh Jerman dituangkan dalam Network Enforcement Act (NetzDG).
Network Enforcement Act ini secara umum mengatur para penyedia platform internet terutama dengan pengguna lebih dari 2 juta orang untuk menghapus konten yang terindikasi mengandung ujaran kebencian dan/atau berita bohong dalam waktu 24 jam hingga 7 hari. Konten yang dihapus tersebut harus disimpan oleh para penyedia internet ini selama minimal 10 minggu sebagai bahan bukti apabila diperlukan oleh pihak berwenang untuk tujuan penyelidikan. Selain itu, setiap 6 bulan sekali, undang-undang ini juga mewajibkan mereka untuk memberikan suatu laporan rutin mengenai konten apa saja yang dihapus. Kemudian, cara para penyedia internet ini menangani konten-konten yang dihapus tersebut wajib dilaporkan pada pihak berwenang dan publik.
Penerapan UU ini juga sangat diawasi oleh pemerintah. Perusahaan raksasa teknologi Facebook bahkan pernah didenda sebesar $2,3 juta karena dianggap menyediakan laporan rutin yang kurang lengkap. Undang-Undang ini tentunya merupakan suatu gerakan dalam rangka melawan dampak negatif dari media sosial, utamanya misinformasi yang disebabkan oleh ruang gema. Penerbitan UU ini dianggap sangat revolusioner karena selama ini peraturan yang berkaitan dengan misinformasi selalu ditujukan pada individu saja. Individu dianggap sebagai sumber utama permasalahan penyebaran konten palsu. Padahal, ruang gema yang diciptakan oleh perusahaan media sosial juga memiliki peran penting dalam mengamplifikasi konten misinformasi tersebut. Lalu bagaimanakah regulasi terkait di Indonesia?
Regulasi di Indonesia dan Tantangan Dalam Penerapannya
Dalam menangani permasalahan berkaitan dengan penyebaran konten berita palsu di media sosial, pemerintah Indonesia menggunakan UU ITE sebagai landasan penegakan hukum. Sesuai dengan UU Nomor 19 2016, pemerintah seharusnya mengendalikan konten-konten yang berkaitan dengan UU, termasuk melakukan pemutusan akses terhadap konten-konten tersebut. Akan tetapi, UU ITE sering dianggap sebagai pasal karet, sehingga tidak jarang disalahgunakan untuk menjerat orang-orang yang sebenarnya tidak bersalah. Di samping itu, UU ITE baru sekadar menjatuhkan sanksi pada pihak individu yang menyebarkan berita bohong tersebut. Media sosial sebagai sarana dan algoritma sebagai alat amplifikasinya sama sekali belum disentuh pemerintah. Regulasi yang tegas terhadap para penyedia platform internet merupakan kunci lain yang sering dilupakan oleh banyak pihak. Regulasi yang ada baru berfokus pada sumber masalah saja, belum pada hal yang menyebabkan masalah tersebut semakin menjadi-jadi. Padahal, penindakan terhadap individu-individu ini sebenarnya kurang efektif mengingat besarnya komunitas dunia maya dengan fitur anonimitas yang menjadi keunggulannya. Menciptakan regulasi yang mengatur para penyalur pesan misinformasi seperti media sosial tampaknya menjadi sebuah alternatif lain untuk mengurangi penyebaran salah informasi di media sosial.
Mengacu pada tiga fase dalam fenomena misinformasi yang tertera di atas, Indonesia hanya menanggapi misinformasi dari satu fase saja. Ruang gema sebagai penyebab misinformasi yang marak terjadi di media sosial belum disadari sebagai aspek yang perlu ditindaklanjuti. Algoritma yang memanipulasi pengguna media sosial, menguatkan bias konfirmasi individu, dan membuat masyarakat terpolarisasi belum disadari sebagai proses yang mendorong terjadinya misinformasi. Adaptasi dari regulasi negara lainâseperti menuntut pertanggungjawaban dari media sosialâbisa dilakukan sebagai upaya menangkal misinformasi dengan memandangnya secara keseluruhan dan melihat dari fase-fase terjadinya fenomena tersebut.Â
Oleh karena itu, pemerintah Indonesia harus bisa mencari cara untuk melihat misinformasi sebagai satu permasalahan yang utuh untuk mengambil keputusan terbaik terkait regulasinya. Dinamika sosial yang ada di media sosial seperti ruang gema telah menunjukkan dampaknya yang signifikan bagi masyarakat era digital ini. Sudah saatnya kajian terhadap dinamika tersebut juga diterapkan dan dilibatkan dalam proses penyusunan regulasi. Kajian dan pemahaman tersebut dibutuhkan karena kita harus tetap memperalat teknologi dan tidak membiarkan teknologi memperalat kita.
Penulis: Ardy Mahdi Nugroho, Aurelius Aquila Tapiheru, dan Irdha Dewi Mahardika
Penyunting: Refina Anjani Puspita
Ilustrator: Allysa Diandra
Referensi
Bessi, Alessandro, Fabio Petroni, Michela D. Vicario, Fabiana Zollo, Aris Anagnostopoulos, Antonio Scalla, Guido Caldarelli, and Walter Quattrociocchi. 2015. âViral Misinformation: The Role of Homophily and Polarization.â In Proceedings of the 24th International Conference on World Wide Web. New York: Association for Computing Machinery. https://doi.org/10.1145/2740908.2745939.
Cinelli, Matteo, Gianmarco Morales, Alessandro Galeazzi, and Michele Starnini. 2021. âThe echo chamber effect on social media.â Proceedings of the National Academy of Sciences of the United States of America 118, no. 9 (2): 8. 10.1073/pnas.2023301118.
CNN Indonesia. 2019. âKronologi Pengepungan Asrama Papua Surabaya Versi Mahasiswa.â CNN Indonesia. https://www.cnnindonesia.com/nasional/20190819072043-20-422556/kronologi-pengepungan-asrama-papua-surabaya-versi-mahasiswa.
Dubois, Elizabeth, and Grant Blank. 2018. âThe Echo Chamber Is Overstated: The Moderating Effect of Political Interest and Diverse Media.â Information, Communication & Society 21, no. 5 (Januari): 729-745. DOI: 10.1080/1369118X.2018.1428656.
IDN Times. 2022. âFenomena Kalung AntiCovid Jangan Terulang, Harus Berdasarkan Data.â IDN Times. https://www.idntimes.com/news/indonesia/dini-suciatiningrum/fenomena-kalung-anticovid-jangan-terulang-harus-berdasarkan-data/3.
Kementerian Komunikasi dan Informatika. 2020. Survei Literasi Digital Indonesia 2020. N.p.: Kominfo. https://aptika.kominfo.go.id/wp-content/uploads/2020/11/Survei-Literasi-Digital-Indonesia-2020.pdf.
Kementerian Komunikasi dan Informatika. 2022. âKominfo Blokir 565.449 Konten Hoaks di Medsos Sepanjang 2021.â Ditjen Aptika. https://aptika.kominfo.go.id/2022/01/kominfo-blokir-565-449-konten-hoaks-di-medsos-sepanjang-2021/.
Knight, Ben. 2018. âGermany implements new internet hate speech crackdown.â DW. https://www.dw.com/en/germany-implements-new-internet-hate-speech-crackdown/a-41991590.
Lahoti, Sugandha. 2019. âFacebook fined $2.3 million by Germany for providing incomplete information about hate speech content.â Packt Hub. https://hub.packtpub.com/facebook-fined-2-3-million-by-germany-for-providing-incomplete-information-about-hate-speech-content/.
Nguyen, C. T. 2018. âEcho Chambers and Epistemic Bubble.â Episteme 17, no. 2 (9): 141-161. 10.1017/epi.2018.32.
Nichols, Thomas M. 2017. The Death of Expertise: The Campaign Against Established Knowledge and why it Matters. New York: Oxford University Press.
Osmundsen, Mathias, Alexander Bor, Peter B. Vahlstrup, Anja Bechmann, and Michael B. Petersen. 2021. âPartisan Polarization Is the Primary Psychological Motivation behind Political Fake News Sharing on Twitter.â American Political Science Review 110 (3): 999-1015. https://doi.org/10.1017/S0003055421000290.
Pelley, Scott. 2021. âFacebook whistleblower Frances Haugen details company’s misleading efforts on 60 Minutes.â CBS News. https://www.cbsnews.com/news/facebook-whistleblower-frances-haugen-misinformation-public-60-minutes-2021-10-03/.
Privacy Rights Clearinghouse. 2019. âSocial Networking Privacy: How to be Safe, Secure and Social.â Privacy Rights Clearinghouse. https://privacyrights.org/consumer-guides/social-networking-privacy-how-be-safe-secure-and-social.
Ramadhan, Yusuf S., and Adis I. Munandar. 2021. âAnalisis Kebijakan Pembatasan Akses Internet di Wilayah Papua Tahun 2019 dalam Perspektif Keamanan Nasional.â urnal Kebijakan dan Manajemen Publik 9, no. 1 (3): 44-55. 10.21070/jkmp.v9i1.1566.
Renda, Andrea. 2018. The legal framework to address âfake newsâ: possible policy actions at the EU level. N.p.: European Parliament. https://www.europarl.europa.eu/RegData/etudes/IDAN/2018/619013/IPOL_IDA(2018)619013_EN.pdf.
Riskinaswara, Leski. 2022. âKominfo Blokir 565.449 Konten Hoaks di Medsos Sepanjang 2021.â Ditjen Aptika. https://aptika.kominfo.go.id/2022/01/kominfo-blokir-565-449-konten-hoaks-di-medsos-sepanjang-2021/.
Shu, Kai, Suhang Wang, Dongwon Lee, and Huan Liu. 2020. âMining Disinformation and Fake News: Concepts, Methods, and Recent Advancements.â In Disinformation, Misinformation, and Fake News in Social Media, 1-19. Switzerland: Springer Nature Switzerland AG. https://doi.org/10.1007/978-3-030-42699-6_1.
Sunstein, Cass R. 2002. âThe Law of Group Polarization.â The Journal of Political Philosophy 10 (2): 175-195.
Tempo.co. 2019. âKronologi Insiden Asrama Mahasiswa Papua Surabaya Menurut Polisi.â Nasional Tempo.co. https://nasional.tempo.co/read/1238416/kronologi-insiden-asrama-mahasiswa-papua-surabaya-menurut-polisi/full&view=ok.
Tommasel, Antonela, Juan M. Rodriguez, and Daniela Godoy. 2021. âI Want to Break Free! Recommending Friends from Outside the Echo Chamber.â In Fifteenth ACM Conference on Recommender Systems, 23-33. New York: Association for Computing Machinery. https://doi.org/10.1145/3460231.3474270.
West, Richard, and Lynn Turner. 2009. Introducing Communication Theory: Analysis and Application. N.p.: McGraw-Hill Education.
World Health Organization. n.d. âInfodemic.â WHO | World Health Organization. Accessed March 25, 2022. https://www.who.int/health-topics/infodemic#tab=tab_1.
Wulandari, Virani, Gema Rullyana, and Ardiansyah. 2021. âPengaruh Algoritma Filter Bubble dan Echo Chamber Terhadap Perilaku Penggunaan Internet.â Berkala Ilmu Perpustakaan dan Informasi 17, no. 1 (Juni): 98-111. https://doi.org/10.22146/bip.v17i1.423.
Yan, Nian. 2021. âSocial Media is Redistributing Power.â Open Journal of Social Sciences 9:107-118.