Penyortiran dengan algoritma menempatkan kita pada kotak. Bagaimana kita tahu mereka yang benar? dihasilkan, CC BYPenyortiran dengan algoritma menempatkan kita pada kotak. Bagaimana kita tahu mereka yang benar? dihasilkan, CC BY

Masyarakat tampaknya mengatur jalur ke titik di mana kehidupan kita tunduk pada pengamatan algoritme komputer. Data yang kami hasilkan diteliti dan dianalisis, apakah oleh pemerintah untuk keamanan nasional atau perusahaan untuk mendapatkan keuntungan, dan ini tidak mungkin berubah - kekuatan dan daya tarik analisis data, yang pernah ditemukan, tidak akan mudah hilang.

Tapi sebenarnya saya bertanya-tanya apakah saya khawatir lebih banyak bahwa data kami dikumpulkan atau oleh fakta bahwa kita tidak tahu apa-apa tentang algoritma yang menyatakan penghakiman kepada kita.

Tingkat detail tentang kehidupan dan kebiasaan kita yang tidak dapat dipecat dari data yang kita tinggalkan telah dibahas sebelumnya, dan mendapatkan penyampaian baru sebagai bagian dari debat seputar draf Inggris. Penyelidikan Powers Bill. Kita tahu setidaknya sesuatu tentang data apa yang dikumpulkan dan berapa lama penyimpanannya, beberapa di antaranya diatur oleh hukum Inggris dan Eropa.

Dalam majalah teks draf tagihan, misalnya, kita tahu bahwa pemerintah Inggris hanya akan "meminta" akses (tidak beralasan) terhadap metadata komunikasi, header dan subyek email, dan catatan panggilan telepon. Tapi kita juga tahu bagaimana mengungkapkan metadata saja bisa jadi: lihatlah Proyek Immersion MIT Media Lab untuk contoh kuat berapa banyak detail yang bisa dipastikan darinya. Tentu saja sama sekali tidak sebanding dengan tagihan telepon diperinci, seperti diklaim.


grafis berlangganan batin


Jadi untuk lebih baik atau lebih buruk lagi, publik, punya petunjuk tentang apa yang direkam. Tapi kita sama sekali tidak tahu alat analisis dan teknik apa yang diterapkan pada data ini - dan pentingnya hal ini seharusnya tidak diremehkan.

Apa itu Crunches The Numbers?

Kita bisa membuat tebakan terdidik. Badan keamanan nasional mungkin menggunakan metadata kami untuk menghasilkan jaringan sosial antara orang dan tempat, antara lain, menghubungkan kita bersama. Jaringan hubungan ini kemudian akan dianalisis untuk menentukan apakah kita adalah orang yang menarik, ditentukan oleh bagaimana Anda dibandingkan dengan orang lain yang menarik, dan bagaimana Anda terhubung dengan orang-orang yang berkepentingan atau yang terkait dengannya.

Periset yang menggunakan teknik ini memahami keterbatasan mereka, dan bahwa algoritma yang memberi kekuatan mungkin mengandung kesalahan atau asumsi mendasar yang memiliki efek mendalam pada keluaran mereka. Dalam kasus ini, itu mungkin berarti apakah Anda diberi label teroris atau tidak, atau apakah Anda memenuhi syarat untuk mendapatkan pinjaman atau hipotek.

Juga tidak jelas dimana di daerah perbatasan fuzzy adanya hubungan didefinisikan. Apakah hanya mengunjungi situs web yang sama dengan teroris yang menyiratkan nilai-nilai bersama, atau mengendarai rute bus yang sama setiap hari menyarankan Anda bercakap-cakap secara teratur dengan teroris? Hal ini sangat mungkin untuk mengunjungi situs yang sering dikunjungi oleh teroris yang dikenal karena banyak alasan yang sah. Jika Anda mendapatkan berita Anda dari situs yang sama dengan teroris, apakah Anda lebih mungkin menjadi teroris? Diskriminasi dan bias dapat diperkenalkan pada titik pengumpulan data, dan sekali lagi ketika keputusan dibuat tentang bagaimana menganalisis data tersebut. Algoritma bisa membeda-bedakan juga.

Batas-batas kabur

Kemungkinan bahwa algoritma mengenalkan bias yang tidak diinginkan adalah sangat nyata. Misalnya, yang digunakan oleh dinas keamanan dilatih pada kumpulan data teroris yang diketahui dan dikenal sebagai non-teroris. Apakah ini berarti bahwa, Sebagai teroris yang paling dikenal adalah laki-laki berusia 20-30, Anda lebih cenderung diklasifikasikan sebagai teroris karena hanya laki-laki dan berusia sekitar 20-30, terlepas dari atribut Anda yang lain ?. Jika demikian, apakah ini berpengaruh signifikan terhadap bagaimana data digunakan?

Masalahnya berasal dari kenyataan bahwa saya dan peneliti akademis lainnya menggunakan analisis jaringan yang kompleks, pembelajaran mesin, pencocokan pola, atau teknik kecerdasan buatan yang menggunakan teknik yang diteliti secara peer peer untuk menentukan kekuatan teknik dan validitas kesimpulan; dinas keamanan pemerintah dan organisasi sektor swasta tidak. Kami tidak tahu kualitas metode mereka dan bagaimana mereka menyebarkannya. Apakah ada solusi untuk ini?

Mereka yang berasal dari bidang keamanan lain, kriptografi, telah belajar sejak lama bahwa cara terbaik untuk meningkatkan kualitas, dan karena itu keamanan, algoritmenya adalah menjadikannya publik. Implementasi kriptografi dan ciphers dipublikasikan, dan peneliti didorong untuk mencoba menemukan kesalahan atau kekurangan, sehingga meningkatkan keamanan bagi semua orang yang menggunakannya. Selain itu, setiap implementasi algoritma kriptografi tertutup (non-publik) umumnya dipandang dengan kecurigaan. Jika mereka ingin mengumumkan penilaian yang mengubah hidup kepada kita - apakah kita diberi label sebagai teroris atau tidak layak secara finansial - model yang sama harus diterapkan pada algoritma keamanan.

Argumen menentang langkah tersebut adalah bahwa algoritma terbuka dan transparan dapat menyebabkan teroris memodifikasi perilaku dunia nyata mereka agar tidak terdeteksi. Ini berarti mengubah hal-hal seperti interaksi, asosiasi, kebiasaan browsing, dan pergerakan potensial mereka. Tapi ini, jika algoritma bekerja dengan benar, berarti mereka pada dasarnya berhenti bertindak seperti teroris. Jika keamanan, kebebasan, dan keamanan masa depan kita akan bergantung pada algoritma ini, kita harus diyakinkan dengan tepat bagaimana - dan itu - mereka bekerja.

Tentang PenulisPercakapan

Philip Garnett, Dosen, Universitas York.

Artikel ini awalnya diterbitkan pada Percakapan. Membaca Artikel asli.

Buku terkait:

at