4 Cara Pencarian Google Anda dan Media Sosial Mempengaruhi Peluang Anda Dalam Kehidupan
Shutterstock.

Terlepas dari apakah Anda menyadari atau mengizinkannya, data besar dapat memengaruhi Anda dan bagaimana Anda menjalani hidup Anda. Data yang kami buat saat menggunakan media sosial, browsing internet dan memakai pelacak kebugaran semuanya dikumpulkan, dikategorikan dan digunakan oleh bisnis dan negara untuk membuat profil kita. Profil ini kemudian digunakan untuk menargetkan iklan untuk produk dan layanan kepada mereka yang paling mungkin untuk membelinya, atau untuk menginformasikan keputusan pemerintah.

Data besar memungkinkan negara dan perusahaan untuk mengakses, menggabungkan, dan menganalisis informasi kami dan membangun pengungkapan - tetapi tidak lengkap dan berpotensi tidak akurat - profil kehidupan kita. Mereka melakukannya dengan mengidentifikasi korelasi dan pola dalam data tentang kami, dan orang-orang dengan profil serupa kepada kami, untuk membuat prediksi tentang apa yang mungkin kami lakukan.

Tetapi hanya karena analitik data besar didasarkan pada algoritme dan statistik, tidak berarti bahwa mereka akurat, netral atau secara inheren obyektif. Dan sementara data besar dapat memberikan wawasan tentang perilaku kelompok, ini tidak selalu merupakan cara yang dapat diandalkan untuk menentukan perilaku individu. Bahkan, metode ini bisa buka pintu untuk diskriminasi dan mengancam hak asasi manusia - Mereka bahkan bisa bekerja melawanmu. Berikut adalah empat contoh di mana analitik data besar dapat menyebabkan ketidakadilan.

1. Menghitung skor kredit

Data besar dapat digunakan untuk membuat keputusan kelayakan kredit, mempengaruhi apakah Anda diberikan hipotek, atau seberapa tinggi Anda asuransi mobil premi seharusnya. Keputusan ini dapat diberitahukan oleh Anda posting media sosial dan data dari aplikasi lain, yang diambil untuk menunjukkan tingkat risiko atau keandalan Anda.

Tetapi data seperti latar belakang pendidikan Anda atau di mana Anda tinggal mungkin tidak relevan atau tidak dapat diandalkan untuk penilaian semacam itu. Jenis data ini dapat bertindak sebagai proxy untuk ras atau status sosial ekonomi, dan menggunakannya untuk mengambil keputusan tentang risiko kredit dapat mengakibatkan diskriminasi.


grafis berlangganan batin


2. Pencarian pekerjaan

Data besar dapat digunakan untuk menentukan yang melihat iklan pekerjaan atau mendapat daftar pendek untuk wawancara. Iklan lowongan kerja dapat ditargetkan pada kelompok usia tertentu, seperti 25 ke 36-year-olds, yang mengecualikan pekerja yang lebih muda dan lebih tua dari bahkan melihat postingan pekerjaan tertentu dan menyajikan risiko diskriminasi usia.

Otomasi juga digunakan untuk membuat penyaringan, penyortiran, dan pemberian peringkat kandidat lebih efisien. Tetapi proses penyaringan ini dapat mengecualikan orang atas dasar indikator seperti jarak perjalanan mereka. Pengusaha mungkin mengira bahwa mereka dengan perjalanan yang lebih lama cenderung tidak akan tetap dalam pekerjaan jangka panjang, tetapi ini benar-benar dapat mendiskriminasi orang yang tinggal lebih jauh dari pusat kota karena lokasi perumahan yang terjangkau.

3. Pembebasan bersyarat dan keputusan jaminan

Di AS dan Inggris, model penilaian risiko data besar digunakan untuk membantu pejabat memutuskan apakah orang-orang diberikan pembebasan bersyarat atau jaminan, atau disebut program rehabilitasi. Mereka juga dapat digunakan untuk menilai berapa banyak risiko yang diberikan pelaku terhadap masyarakat, yang merupakan salah satu faktor yang dapat dipertimbangkan hakim ketika memutuskan panjangnya sebuah kalimat.

Tidak jelas apa tepatnya data yang digunakan untuk membantu membuat penilaian ini, tetapi sebagai langkah menuju kepolisian digital mengumpulkan kecepatan, semakin mungkin bahwa program-program ini akan menggabungkan informasi sumber terbuka seperti aktivitas medial sosial - jika mereka belum melakukannya.

Penilaian ini mungkin tidak hanya melihat profil seseorang, tetapi juga bagaimana mereka membandingkannya dengan orang lain. Beberapa pasukan polisi punya secara historis terlalu banyak diawasi komunitas minoritas tertentu, yang mengarah ke jumlah yang tidak proporsional dari insiden kriminal yang dilaporkan. Jika data ini dimasukkan ke dalam suatu algoritma, ini akan mendistorsi model penilaian risiko dan menghasilkan diskriminasi yang secara langsung mempengaruhi hak kebebasan seseorang.

4. Aplikasi visa vetting

Tahun lalu, Badan Imigrasi dan Bea Cukai Amerika Serikat (ICE) mengumumkan bahwa mereka ingin memperkenalkan "pemeriksaan visa ekstrim"Program. Ini akan secara otomatis dan terus-menerus memindai akun media sosial, untuk menilai apakah pelamar akan membuat "kontribusi positif" ke Amerika Serikat, dan apakah masalah keamanan nasional mungkin muncul.

Serta menghadirkan risiko terhadap kebebasan berpikir, berpendapat, berekspresi dan berserikat, ada risiko signifikan bahwa program ini akan mendiskriminasi orang-orang dari negara atau agama tertentu. Komentator dicirikan sebagai "Muslim larangan oleh algoritma".

Programnya baru-baru ini ditarik, dilaporkan atas dasar bahwa "tidak ada perangkat lunak 'di luar kotak' yang dapat memberikan kualitas pemantauan yang diinginkan agensi". Tetapi memasukkan tujuan-tujuan seperti itu dalam dokumen-dokumen pengadaan dapat menciptakan insentif yang buruk bagi industri teknologi untuk mengembangkan program yang bersifat diskriminatif demi desain.

PercakapanTidak diragukan bahwa analitik data besar bekerja dengan cara yang dapat memengaruhi peluang individu dalam kehidupan. Tetapi kurangnya transparansi tentang seberapa besar data dikumpulkan, digunakan, dan dibagikan membuat orang sulit mengetahui informasi apa yang digunakan, bagaimana, dan kapan. Analitik data besar terlalu rumit bagi individu untuk dapat melindungi data mereka dari penggunaan yang tidak pantas. Sebaliknya, negara dan perusahaan harus membuat - dan mengikuti peraturan untuk memastikan bahwa penggunaan data besar mereka tidak mengarah pada diskriminasi.

Tentang Penulis

Lorna McGregor, Direktur, Pusat Hak Asasi Manusia, PI dan Rekan Direktur, Hak Asasi Manusia ESRC, Big Data dan Teknologi, Hibah Besar, Universitas Essex; Daragh Murray, Dosen dalam Hukum Hak Asasi Manusia Internasional di Essex Law School, Universitas Essex, dan Vivian Ng, Peneliti Senior Hak Asasi Manusia, Universitas Essex

Artikel ini awalnya diterbitkan pada Percakapan. Membaca Artikel asli.

Buku oleh ini

Tentang Penulis

at