Connect with us

Pemimpin pemikiran

Bagaimana AI Facebook Menyebarluaskan Informasi yang Salah dan Mengancam Demokrasi

mm

Dan Tunkelang yang mengawasi penelitian AI di LinkedIn, menyatakan: “Saat rekomendasi memiliki kekuatan untuk mempengaruhi keputusan, mereka menjadi target bagi spammer, penipu, dan orang-orang dengan motif yang tidak mulia.”

Ini adalah dilema yang dialami oleh perusahaan media sosial seperti Facebook. Facebook menggunakan umpan balik implisit untuk melacak klik, tampilan, dan perilaku pengguna lainnya yang dapat diukur. Ini digunakan untuk merancang apa yang disebut “mesin rekomendasi”, sistem AI yang memiliki kekuatan akhir dalam menentukan siapa yang melihat konten apa dan kapan.

Facebook telah mengoptimalkan mesin rekomendasi mereka untuk memaksimalkan keterlibatan pengguna yang diukur oleh jumlah waktu yang dihabiskan di platform Facebook. Maksimalisasi waktu mendapat prioritas atas variabel lain, termasuk kualitas atau akurasi dari apa yang direkomendasikan.

Sistem ini dirancang untuk menghadiahkan judul yang sensasional yang melibatkan pengguna dengan mengeksploitasi bias kognitif, bahkan jika judul tersebut ditulis oleh troll Rusia dengan tujuan membagi masyarakat atau mempengaruhi pemilihan politik.

Bagaimana Facebook Menggunakan AI

Tidak ada kesadaran tentang bagaimana Facebook menggunakan AI untuk memutuskan apa yang dilihat dan diinteraksi oleh penggunanya. Pertama-tama, seseorang harus memahami apa yang disebut bias konfirmasi. Psychology Today menjelaskan ini sebagai:

Bias konfirmasi adalah kecenderungan untuk mencari, menafsirkan, memfavoritkan, dan mengingat informasi dengan cara yang mengkonfirmasi atau mendukung keyakinan atau nilai sebelumnya.

Facebook memahami bahwa pengguna lebih mungkin mengklik berita yang memasukkan kecenderungan manusia untuk mencari bias konfirmasi. Ini menetapkan preseden yang berbahaya baik untuk penyebaran teori konspirasi maupun untuk menciptakan kamar gema di mana pengguna diberi makan secara eksklusif apa yang mereka inginkan, tanpa memperhatikan akurasi, atau dampak sosial dari apa yang dilihat.

Sebuah studi oleh MIT dapat menunjukkan bahwa berita palsu di Twitter menyebar 6 kali lebih cepat daripada berita nyata.

Ini berarti bahwa baik Twitter maupun Facebook dapat digunakan sebagai senjata. Sementara Twitter memungkinkan siapa saja untuk mengikuti feed dengan pandangan yang sempit atau bias, Facebook melangkah lebih jauh. Seorang pengguna di Facebook saat ini tidak memiliki cara untuk mengontrol atau mengukur apa yang dilihat, ini dikendalikan sepenuhnya oleh mesin rekomendasi Facebook, bagaimana mereka mengukur keterlibatan pengguna, dan bagaimana mereka mengoptimalkan keterlibatan pengguna yang sama.

Facebook mencoba membentuk dan memprediksi keinginan penggunanya. Facebook memperkirakan seberapa besar pengguna akan menyukai atau tidak menyukai item berita yang belum dialami oleh pengguna. Untuk menghindari kehilangan keterlibatan pengguna, Facebook kemudian memilih untuk melewati item berita yang mungkin mengurangi tingkat keterlibatan, dan memilih untuk melibatkan pengguna dengan memberi makan item berita yang memasukkan bias konfirmasi, memastikan lebih banyak klik, komentar, suka, dan bagikan.

Facebook juga menggunakan penyaringan kolaboratif otomatis dari tindakan dan opini historis pengguna untuk secara otomatis mencocokkan peserta (teman) dengan opini yang sama. Facebook menggunakan fungsi utilitas yang secara otomatis dan matematis memprediksi dan mengurutkan preferensi Anda untuk item yang ingin Anda lihat.

Ini menyebabkan pengguna jatuh ke dalam lubang kelinci, mereka terjebak dalam berita palsu, diberi makan konten yang memperkuat bias mereka. Konten yang disajikan secara inheren dirancang dengan tujuan mempengaruhi apa yang Anda klik. Setelah semua, jika Anda percaya konspirasi bahwa Bill Gates mencoba memasang mikrochip ke populasi manusia dengan menggunakan vaksin, mengapa Facebook harus menampilkan bukti yang bertentangan yang mungkin menyebabkan Anda tidak terlibat dengan platform?

Jika ini tidak cukup, Facebook juga terlibat dalam apa yang dikenal sebagai “bukti sosial”. Bukti sosial adalah konsep bahwa orang akan mengikuti tindakan massa. Ide ini adalah bahwa karena banyak orang lain berperilaku dengan cara tertentu, itu pasti perilaku yang benar.

Facebook menyediakan bukti sosial dalam konteks suka, komentar, atau bagikan. Karena hanya teman tertentu yang dapat melihat item berita (kecuali mereka secara khusus mencari berita pengguna), bukti sosial hanya memperkuat bias konfirmasi.

Facebook juga menggunakan gelembung filter untuk membatasi paparan terhadap pandangan yang bertentangan, kontradiktif, dan atau menantang.

Iklan Facebook

Pengguna Facebook yang tidak curiga mungkin mengklik iklan tanpa menyadari bahwa mereka sedang diberikan iklan. Alasannya sederhana, jika ada iklan hanya orang pertama yang diberikan iklan akan melihat disclaimer iklan. Jika pengguna tersebut membagikan iklan, semua orang di daftar teman mereka hanya melihat “bagikan” sebagai item berita, karena Facebook sengaja menghilangkan disclaimer iklan. Sekarang, pengguna melepaskan penjagaan mereka, mereka tidak dapat membedakan antara apa yang merupakan iklan dan apa yang muncul secara alami di berita mereka.

Berbagi Facebook

Sayangnya, hal-hal menjadi lebih buruk. Jika seorang pengguna memiliki 1000 teman yang secara bersamaan membagikan konten, mesin rekomendasi akan memprioritaskan konten dari minoritas yang memiliki pandangan yang sama, bahkan jika ini sering terdiri dari teori konspirasi yang tidak terbukti. Pengguna kemudian akan berada di bawah ilusi bahwa item berita ini dilihat oleh semua orang. Dengan berinteraksi dengan berita ini, pengguna ini mengoptimalkan bukti sosial satu sama lain.

Jika seorang pengguna mencoba menerangi pengguna lain tentang item yang menyesatkan atau palsu, tindakan mengomentari atau berinteraksi dengan berita hanya meningkatkan waktu keterlibatan pengguna asli. Lingkaran umpan balik ini menyebabkan Facebook memperkuat pengguna dengan berita palsu tambahan.

Ini menyebabkan kamar gema, gelembung filter di mana pengguna dilatih untuk hanya percaya apa yang mereka lihat. Kebenaran hanya ilusi.

Keberatan Masalah

Lebih dari 10 juta orang berinteraksi dengan berita yang mengklaim bahwa Paus Fransiskus mendukung pemilihan Trump pada 2016. Tidak ada bukti untuk ini, itu hanya cerita berita palsu yang berasal dari Rusia, namun ini adalah berita yang paling dibagikan di Facebook dalam tiga bulan menjelang pemilihan 2016.

Item berita ini dibuat oleh pertanian troll internet Rusia yang menyebut dirinya “Internet Research Agency”. Organisasi yang sama ini bertanggung jawab untuk mempromosikan dan membagikan di Twitter dan Facebook artikel yang memicu ras, mendukung mendemonisasi Black Lives Matter, dan menyebarkan item berita palsu yang menyebarkan klaim palsu tentang politisi Amerika.

Komite Pemilihan Intelijen mengeluarkan laporan 85 halaman yang menjelaskan Kampanye Tindakan Aktif Rusia dan Interferensi, sebagian besar di antaranya melibatkan penyebaran berita palsu yang memecah belah dan propaganda yang bertujuan untuk mempengaruhi pemilihan AS 2016.

Maju cepat ke pemilihan 2020 dan masalahnya hanya memburuk. Pada September 2020, setelah tip FBI, Facebook & Twitter menangguhkan akun media sosial untuk organisasi berita yang bernama PeaceData, yang terkait dengan upaya propaganda negara Rusia.

Sayangnya, menutup akun adalah solusi sementara dan tidak efektif. Akun Rusia sering mengambil bentuk permintaan pertemanan, sering digunakan oleh wanita dengan profil yang menarik yang menargetkan pria, atau dengan akun pengguna yang dicuri yang memiliki riwayat posting reguler. Akun yang dicuri ini perlahan-lahan bergeser ke posting politik, sampai mereka didominasi oleh propaganda atau teori konspirasi.

Pengguna yang tidak curiga mungkin tidak menyadari bahwa akun teman mereka telah dikompromikan. Jika pengguna tersebut rentan terhadap teori konspirasi, mereka mungkin berinteraksi dengan item berita palsu, troll Rusia yang sering merupakan bot, kemudian menyediakan bukti sosial tambahan dengan cara suka atau komentar.

Pengguna yang rentan sering kali adalah mereka yang paling tidak memahami bagaimana teknologi dan AI bekerja. Demografi di atas 65 tahun yang paling mungkin memilih, juga adalah yang paling mungkin menyebarkan berita palsu, seperti yang dilaporkan oleh New York Times.

Menurut studi, pengguna Facebook berusia 65 tahun ke atas memposting tujuh kali lebih banyak artikel dari situs berita palsu daripada orang dewasa 29 tahun ke bawah. Kurangnya literasi media digital membuat kelompok usia ini tidak siap untuk berita yang tidak didasarkan pada fakta atau akurasi, tetapi secara eksklusif pada keterlibatan pengguna.

Aktor jahat mengambil keuntungan dari mesin rekomendasi Facebook yang mengeksploitasi bias kognitif kita melawan kita. Organisasi yang sama telah mengoptimalkan penyalahgunaan AI Facebook untuk menyebarkan teori konspirasi dan propaganda. Teori konspirasi yang mungkin tampak tidak berbahaya pada awalnya, sering digunakan sebagai corong ke supremasi kulit putih, nasionalisme sayap kanan jauh, atau QAnon teori konspirasi aneh yang melibatkan Trump mencoba menyelamatkan dunia dari pedofilia liberal, konspirasi yang tidak memiliki dasar nyata.

Rangkuman

Facebook jelas menyadari bahwa ada masalah dan mereka telah mengumumkan secara terbuka strategi yang berfokus pada menghapus konten yang melanggar Standar Komunitas Facebook. Masalahnya adalah menghapus akun hanya merupakan tindakan sementara yang tidak efektif ketika akun dibuat dalam jumlah besar oleh bot, atau peretasan massal akun pengguna. Ini juga tidak menyelesaikan masalah bahwa sebagian besar berbagi dilakukan oleh pengguna reguler yang tidak menyadari bahwa mereka menyebarkan informasi yang salah.

Menambahkan label peringatan hanya memperkuat teori konspirasi bahwa raksasa media sosial bias terhadap konservatif yang paling rentan terhadap berita palsu.

Solusi yang diperlukan adalah mesin rekomendasi baru yang tidak hanya mengukur keterlibatan pengguna, tetapi dioptimalkan untuk kebahagiaan pengguna dengan menyampaikan kebenaran dan mempromosikan kesadaran diri yang ditingkatkan.

Sementara itu, Facebook harus mengikuti jejak yang diambil Twitter untuk melarang iklan politik.

Terakhir, pertanyaan penting perlu diajukan. Jika orang tidak lagi memiliki pilihan tentang berita yang mereka lihat, kapan itu berhenti menjadi rekomendasi dan kapan itu menjadi kontrol pikiran?

Bacaan yang Disarankan:

Kampanye Tindakan Aktif Rusia dan Interferensi – Laporan oleh Komite Pemilihan Intelijen Senat AS.

Kertas Guncangan yang Meramalkan Akhir Demokrasi – Oleh Rick Shenkman, pendiri Jaringan Berita Sejarah Universitas George Washington.

Orang Tua Berbagi Berita Palsu di Facebook Lebih – Oleh New York Times

Antoine adalah seorang pemimpin visioner dan mitra pendiri Unite.AI, didorong oleh semangat yang tak tergoyahkan untuk membentuk dan mempromosikan masa depan AI dan robotika. Seorang wirausaha serial, ia percaya bahwa AI akan sama-sama mengganggu masyarakat seperti listrik, dan sering tertangkap berbicara tentang potensi teknologi mengganggu dan AGI.

As a futurist, ia berdedikasi untuk mengeksplorasi bagaimana inovasi ini akan membentuk dunia kita. Selain itu, ia adalah pendiri Securities.io, sebuah platform yang fokus pada investasi di teknologi-teknologi canggih yang mendefinisikan kembali masa depan dan membentuk kembali seluruh sektor.