Bagaimana ‘Engagement’ Membuat Anda Rentan terhadap Manipulasi dan Misinformasi di Media Sosial

 

Anda telah berevolusi untuk memanfaatkan kebijaksanaan orang banyak. Tetapi di media sosial, bias kognitif Anda dapat menyesatkan Anda.

By Filippo Menczer , THE CONVERSATION

| SEPTEMBER 2021/ from Government Executive

TEKNOLOGI

 

Media www.rajawalisiber.com – Facebook secara diam-diam bereksperimen dengan mengurangi jumlah konten politik yang dimasukkan ke dalam umpan berita pengguna. Langkah ini merupakan pengakuan diam-diam bahwa cara kerja algoritme perusahaan dapat menjadi masalah.

Inti masalahnya adalah perbedaan antara memprovokasi respons dan menyediakan konten yang diinginkan orang. Algoritme media sosial – aturan yang diikuti komputer mereka dalam memutuskan konten yang Anda lihat – sangat bergantung pada perilaku orang untuk membuat keputusan ini. Secara khusus, mereka menonton konten yang ditanggapi atau “terlibat” oleh orang-orang dengan menyukai, berkomentar, dan berbagi.

Sebagai ilmuwan komputer yang mempelajari cara sejumlah besar orang berinteraksi menggunakan teknologi, saya memahami logika penggunaan kebijaksanaan orang banyak dalam algoritme ini. Saya juga melihat jebakan substansial dalam cara perusahaan media sosial melakukannya dalam praktik.

Media sosial seperti Facebook, Instagram, Twitter, YouTube, dan TikTok sangat bergantung pada algoritme AI untuk memberi peringkat dan merekomendasikan konten. Algoritme ini mengambil apa yang Anda “sukai”, komentari dan bagikan – dengan kata lain, konten yang terlibat dengan Anda. Tujuan dari algoritme adalah untuk memaksimalkan keterlibatan dengan mencari tahu apa yang disukai orang dan memeringkatnya di bagian atas umpan mereka.

Di permukaan, ini tampaknya masuk akal. Jika orang menyukai berita yang kredibel, pendapat ahli, dan video menyenangkan, algoritme ini harus mengidentifikasi konten berkualitas tinggi tersebut. Tetapi kebijaksanaan orang banyak membuat asumsi kunci di sini: bahwa merekomendasikan apa yang populer akan membantu konten berkualitas tinggi “bergelembung.”

Kami menguji asumsi ini dengan mempelajari algoritme yang memberi peringkat item menggunakan campuran kualitas dan popularitas. Kami menemukan bahwa secara umum, bias popularitas cenderung menurunkan kualitas konten secara keseluruhan. Alasannya adalah bahwa keterlibatan bukanlah indikator kualitas yang dapat diandalkan ketika hanya sedikit orang yang terpapar suatu item. Dalam kasus ini, keterlibatan menghasilkan sinyal bising, dan algoritme cenderung memperkuat kebisingan awal ini. Setelah popularitas item berkualitas rendah cukup besar, itu akan terus meningkat.

Algoritme bukan satu-satunya hal yang terpengaruh oleh bias interaksi – algoritme juga dapat memengaruhi orang. Bukti menunjukkan bahwa informasi ditransmisikan melalui “penularan kompleks,” yang berarti semakin sering seseorang terpapar ide secara online, semakin besar kemungkinan mereka untuk mengadopsi dan membagikannya kembali. Ketika media sosial memberi tahu orang-orang bahwa suatu item sedang viral, bias kognitif mereka muncul dan diterjemahkan menjadi dorongan yang tak tertahankan untuk memperhatikannya dan membagikannya.

RAKYAT YANG TIDAK BENAR-BENAR BIJAK

Kami baru-baru ini menjalankan eksperimen menggunakan aplikasi literasi berita bernama Fakey. Ini adalah permainan yang dikembangkan oleh lab kami, yang mensimulasikan umpan berita seperti yang ada di Facebook dan Twitter. Pemain melihat campuran artikel terkini dari berita palsu, ilmu sampah, sumber hiper-partisan dan konspirasi, serta sumber arus utama. Mereka mendapatkan poin untuk berbagi atau menyukai berita dari sumber terpercaya dan untuk menandai artikel dengan kredibilitas rendah untuk pengecekan fakta.

Kami menemukan bahwa pemain lebih cenderung menyukai atau berbagi dan cenderung tidak menandai artikel dari sumber dengan kredibilitas rendah saat pemain dapat melihat bahwa banyak pengguna lain telah berinteraksi dengan artikel tersebut. Paparan metrik keterlibatan dengan demikian menciptakan kerentanan.

Popularitas meningkatkan konten berkualitas rendah

Semakin besar jumlah orang yang menanggapi item berkualitas rendah di media sosial, semakin kecil kemungkinan orang lain untuk mempertanyakannya dan semakin besar kemungkinan mereka untuk membagikannya.

Kebijaksanaan orang banyak gagal karena dibangun di atas asumsi yang salah bahwa orang banyak terdiri dari beragam sumber independen. Mungkin ada beberapa alasan mengapa hal ini tidak terjadi.

Pertama, karena kecenderungan orang untuk bergaul dengan orang yang mirip, lingkungan online mereka tidak terlalu beragam. Kemudahan pengguna media sosial untuk membatalkan pertemanan dengan mereka yang tidak setuju mendorong orang ke dalam komunitas yang homogen, sering disebut sebagai ruang gema.

Kedua, karena teman banyak orang adalah teman satu sama lain, mereka saling mempengaruhi. Sebuah eksperimen terkenal menunjukkan bahwa mengetahui musik yang disukai teman Anda memengaruhi preferensi yang Anda nyatakan. Keinginan sosial Anda untuk menyesuaikan diri mendistorsi penilaian independen Anda.

Ketiga, sinyal popularitas dapat dipermainkan. Selama bertahun-tahun, mesin pencari telah mengembangkan teknik canggih untuk melawan apa yang disebut “pertanian tautan” dan skema lain untuk memanipulasi algoritma pencarian. Platform media sosial, di sisi lain, baru mulai belajar tentang kerentanan mereka sendiri.

Orang-orang yang bertujuan untuk memanipulasi pasar informasi telah membuat akun palsu, seperti troll dan bot sosial, serta jaringan palsu terorganisasi. Mereka telah membanjiri jaringan untuk menciptakan kesan bahwa teori konspirasi atau kandidat politik itu populer, menipu baik algoritme platform dan bias kognitif orang sekaligus. Mereka bahkan telah mengubah struktur jejaring sosial untuk menciptakan ilusi tentang opini mayoritas.

[Lebih dari 110.000 pembaca mengandalkan buletin The Conversation untuk memahami dunia. Daftar hari ini.]

MENGHUBUNGI KETERLIBATAN

Apa yang harus dilakukan? Platform teknologi saat ini dalam posisi defensif. Mereka menjadi lebih agresif selama pemilu dalam menghapus akun palsu dan misinformasi yang berbahaya. Namun upaya ini bisa diibaratkan seperti permainan ‘whack-a-mole’.

Pendekatan pencegahan yang berbeda adalah dengan menambahkan gesekan. Dengan kata lain, untuk memperlambat proses penyebaran informasi. Perilaku frekuensi tinggi seperti suka dan berbagi otomatis dapat dihambat oleh pengujian atau biaya CAPTCHA. Ini tidak hanya akan mengurangi peluang manipulasi, tetapi dengan lebih sedikit informasi, orang akan dapat lebih memperhatikan apa yang mereka lihat. Ini akan menyisakan lebih sedikit ruang untuk bias keterlibatan untuk memengaruhi keputusan orang.

Ini juga akan membantu jika perusahaan media sosial menyesuaikan algoritme mereka agar tidak terlalu bergantung pada keterlibatan untuk menentukan konten yang mereka layani kepada Anda.

Artikel ini diterbitkan ulang dari The Conversation di bawah lisensi Creative Commons. Baca artikel asli.

Leave a Reply

Your email address will not be published. Required fields are marked *