Algoritma YouTube Mungkin Meradikalisasi Orang - Tetapi Masalah Sebenarnya Adalah Kita Tidak Tahu Bagaimana Cara Mereka Bekerja Tuan Pencoba / Shutterstock

Apakah YouTube menciptakan ekstremis? SEBUAH Studi terbaru menyebabkan argumen di antara para ilmuwan dengan berpendapat bahwa algoritma yang mendukung situs tidak membantu meradikalisasi orang dengan merekomendasikan video yang lebih ekstrem, seperti telah disarankan dalam beberapa tahun terakhir.

Makalah ini, diserahkan ke jurnal akses-terbuka, Senin Pertama, tetapi belum ditinjau secara formal, menganalisis rekomendasi video yang diterima oleh berbagai jenis saluran. Ia mengklaim bahwa algoritma YouTube lebih menyukai saluran media arus utama daripada konten independen, menyimpulkan bahwa radikalisasi lebih terkait dengan orang-orang yang membuat konten berbahaya daripada algoritma situs.

Spesialis di bidang itu cepat masuk menanggapi penelitian ini, dengan beberapa kritik metode kertas dan yang lain berpendapat bahwa algoritma itu salah satunya beberapa faktor penting dan ilmu data itu sendiri tidak akan memberi kita jawabannya.

Masalah dengan diskusi ini adalah bahwa kita tidak dapat menjawab pertanyaan tentang apa peran algoritma YouTube dalam meradikalisasi orang karena kita tidak mengerti cara kerjanya. Dan ini hanyalah gejala dari masalah yang jauh lebih luas. Algoritma ini memainkan peran yang semakin meningkat dalam kehidupan kita sehari-hari tetapi tidak memiliki transparansi.

Sulit untuk berpendapat bahwa YouTube tidak berperan dalam radikalisasi. Ini pertama kali ditunjukkan oleh sosiolog teknologi Zeynep Tufekci, yang menggambarkan bagaimana video yang direkomendasikan secara bertahap mendorong pengguna menuju konten yang lebih ekstrim. Dalam kata-kata Tufekci, video tentang jogging mengarah ke video tentang menjalankan ultramarathons, video tentang vaksin mengarah pada teori konspirasi, dan video tentang politik mengarah pada "penolakan Holocaust dan konten mengganggu lainnya".


grafis berlangganan batin


Ini juga telah ditulis secara terperinci oleh mantan karyawan YouTube Guillaume Chaslot yang bekerja pada algoritma rekomendasi situs. Sejak meninggalkan perusahaan, Chaslot terus berusaha membuat rekomendasi tersebut lebih transparan. Dia mengatakan rekomendasi YouTube cenderung bias teori konspirasi dan video yang sebenarnya tidak akurat, yang bagaimanapun membuat orang menghabiskan lebih banyak waktu di situs.

Bahkan, memaksimalkan waktu menonton adalah inti dari algoritma YouTube, dan ini mendorong pembuat video untuk memperjuangkan perhatian dengan cara apa pun yang dimungkinkan. Perusahaan semata-mata kurangnya transparansi tentang bagaimana tepatnya ini bekerja membuatnya hampir tidak mungkin untuk melawan radikalisasi di situs. Lagi pula, tanpa transparansi, sulit untuk mengetahui apa yang bisa diubah untuk memperbaiki situasi.

Algoritma YouTube Mungkin Meradikalisasi Orang - Tetapi Masalah Sebenarnya Adalah Kita Tidak Tahu Bagaimana Cara Mereka Bekerja Cara kerja algoritma YouTube tetap menjadi misteri. Siapakah Danny / Shutterstock

Tapi YouTube tidak biasa dalam hal ini. Kurangnya transparansi tentang cara kerja algoritma biasanya terjadi setiap kali digunakan dalam sistem besar, baik oleh perusahaan swasta atau badan publik. Selain memutuskan video apa yang akan Anda tunjukkan selanjutnya, algoritma pembelajaran mesin sekarang sudah terbiasa Tempatkan anak-anak di sekolah, Memutuskan hukuman penjara, tentukan nilai kredit dan tarif asuransi, serta nasib imigran, kandidat pekerjaan dan pelamar universitas. Dan biasanya kita tidak mengerti bagaimana sistem ini membuat keputusan mereka.

Para peneliti telah menemukan cara kreatif untuk menunjukkan dampak dari algoritma ini pada masyarakat, baik dengan memeriksa Munculnya hak reaksioner atau itu penyebaran teori konspirasi di YouTube, atau dengan menunjukkan caranya mesin pencari mencerminkan bias rasis dari orang-orang yang membuatnya.

Sistem pembelajaran mesin biasanya besar, kompleks, dan buram. Tepatnya, mereka sering digambarkan sebagai kotak hitam, di mana informasi masuk, dan informasi atau tindakan keluar, tetapi tidak ada yang bisa melihat apa yang terjadi di antaranya. Ini berarti bahwa, karena kita tidak tahu persis bagaimana algoritma seperti sistem rekomendasi YouTube beroperasi, mencoba mencari tahu bagaimana situs bekerja akan seperti mencoba memahami mobil tanpa membuka kap mesin.

Pada gilirannya, ini berarti bahwa mencoba untuk menulis undang-undang untuk mengatur algoritma apa yang seharusnya atau tidak seharusnya dilakukan menjadi proses buta atau coba-coba. Inilah yang terjadi dengan YouTube dan dengan banyak algoritma pembelajaran mesin lainnya. Kami mencoba untuk memiliki suara dalam hasil mereka, tanpa pemahaman nyata tentang bagaimana mereka benar-benar bekerja. Kita perlu membuka teknologi yang dipatenkan ini, atau setidaknya membuatnya cukup transparan sehingga kita bisa mengaturnya.

Penjelasan dan pengujian

Salah satu cara untuk melakukan ini adalah menyediakan algoritma penjelasan kontrafaktual bersama dengan keputusan mereka. Ini berarti menentukan kondisi minimum yang diperlukan untuk algoritma untuk membuat keputusan yang berbeda, tanpa menjelaskan logika lengkapnya. Misalnya, algoritme yang membuat keputusan tentang pinjaman bank mungkin menghasilkan output yang mengatakan bahwa "jika Anda berusia di atas 18 dan tidak memiliki utang sebelumnya, Anda akan menerima pinjaman bank Anda". Tetapi ini mungkin sulit dilakukan dengan YouTube dan situs lain yang menggunakan algoritme rekomendasi, seperti dalam teori video apa pun pada platform dapat direkomendasikan pada titik mana pun.

Alat kuat lainnya adalah pengujian dan audit algoritma, yang telah sangat berguna dalam mendiagnosis algoritma yang bias. Dalam kasus baru-baru ini, sebuah perusahaan penyaringan resume profesional menemukan bahwa algoritma itu memprioritaskan dua faktor sebagai prediktor terbaik kinerja pekerjaan: apakah nama kandidat itu Jared, dan jika mereka bermain lacrosse di sekolah menengah. Inilah yang terjadi ketika mesin tidak diawasi.

Dalam hal ini, algoritme penyaringan resume telah memperhatikan bahwa orang kulit putih memiliki peluang lebih tinggi untuk dipekerjakan, dan telah menemukan karakteristik proxy yang berkorelasi (seperti diberi nama Jared atau bermain lacrosse) yang ada pada kandidat yang disewa. Dengan YouTube, audit algoritma dapat membantu memahami jenis video apa yang diprioritaskan untuk direkomendasikan - dan mungkin membantu menyelesaikan perdebatan tentang apakah rekomendasi YouTube berkontribusi terhadap radikalisasi atau tidak.

Memperkenalkan penjelasan kontrafaktual atau menggunakan audit algoritma adalah proses yang sulit dan mahal. Tapi ini penting, karena alternatifnya lebih buruk. Jika algoritme tidak dicentang dan tidak diregulasi, kita bisa melihat sedikit demi sedikit teori konspirasi dan ekstremis masuk ke media kita, dan perhatian kita dikendalikan oleh siapa pun yang bisa menghasilkan konten yang paling menguntungkan.Percakapan

tentang Penulis

Chico Q. Camargo, Peneliti Pascadoktoral dalam Ilmu Data, University of Oxford

Artikel ini diterbitkan kembali dari Percakapan di bawah lisensi Creative Commons. Membaca Artikel asli.