bahaya ai 7 11
AI tidak mungkin memperbudak umat manusia, tetapi bisa mengambil alih banyak aspek kehidupan kita. elenabs/iStock melalui Getty Images

Munculnya ChatGPT dan sistem kecerdasan buatan serupa telah dibarengi dengan tajam peningkatan kecemasan tentang AI. Selama beberapa bulan terakhir, para eksekutif dan peneliti keamanan AI telah menawarkan prediksi, yang dijuluki “P(malapetaka),” tentang kemungkinan AI akan membawa bencana berskala besar.

Kekhawatiran memuncak pada Mei 2023 ketika organisasi penelitian dan advokasi nirlaba Center for AI Safety dirilis pernyataan satu kalimat: “Mengurangi risiko kepunahan AI harus menjadi prioritas global bersama dengan risiko skala sosial lainnya, seperti pandemi dan perang nuklir.” Pernyataan tersebut ditandatangani oleh banyak pemain kunci di lapangan, termasuk para pemimpin OpenAI, Google dan Anthropic, serta dua dari apa yang disebut "ayah baptis" AI: Geoffrey Hinton dan Yoshua Bengio.

Anda mungkin bertanya bagaimana ketakutan eksistensial seperti itu seharusnya terjadi. Salah satu skenario terkenal adalah “pemaksimal klip kertas”eksperimen pemikiran yang diartikulasikan oleh filsuf Oxford Nick Bostrom. Idenya adalah bahwa sistem AI yang ditugaskan untuk memproduksi klip kertas sebanyak mungkin akan berusaha keras untuk menemukan bahan mentah, seperti menghancurkan pabrik dan menyebabkan kecelakaan mobil.

A variasi yang kurang intensif sumber daya memiliki AI yang ditugaskan untuk mendapatkan reservasi ke restoran populer yang mematikan jaringan seluler dan lampu lalu lintas untuk mencegah pelanggan lain mendapatkan meja.


grafis berlangganan batin


Perlengkapan kantor atau makan malam, ide dasarnya sama: AI dengan cepat menjadi kecerdasan alien, pandai mencapai tujuan tetapi berbahaya karena belum tentu selaras dengan nilai moral penciptanya. Dan, dalam versi paling ekstremnya, argumen ini berubah menjadi kecemasan eksplisit tentang AI memperbudak atau menghancurkan umat manusia.

AI pembuat klip kertas mengamuk adalah salah satu varian dari skenario kiamat AI.

 

Kerusakan yang sebenarnya

Dalam beberapa tahun terakhir, rekan-rekan saya dan saya di Pusat Etika Terapan UMass Boston telah mempelajari dampak keterlibatan dengan AI pada pemahaman orang tentang diri mereka sendiri, dan saya yakin kecemasan bencana ini adalah berlebihan dan salah arah.

Ya, kemampuan AI untuk membuat video dan audio palsu yang meyakinkan memang menakutkan, dan dapat disalahgunakan oleh orang-orang yang berniat buruk. Faktanya, itu sudah terjadi: agen Rusia kemungkinan besar berusaha mempermalukan kritikus Kremlin Bill Browder dengan menjeratnya dalam percakapan dengan avatar mantan Presiden Ukraina Petro Poroshenko. Penjahat dunia maya telah menggunakan kloning suara AI untuk berbagai kejahatan – dari perampokan berteknologi tinggi untuk penipuan biasa.

AI sistem pengambilan keputusan itu menawarkan persetujuan pinjaman dan rekomendasi perekrutan membawa risiko bias algoritmik, karena data pelatihan dan model keputusan yang mereka jalankan mencerminkan prasangka sosial yang sudah berlangsung lama.

Ini adalah masalah besar, dan membutuhkan perhatian pembuat kebijakan. Tapi mereka sudah ada untuk sementara waktu, dan mereka hampir tidak menimbulkan bencana.

Tidak di liga yang sama

Pernyataan dari Center for AI Safety menyamakan AI dengan pandemi dan senjata nuklir sebagai risiko besar bagi peradaban. Ada masalah dengan perbandingan itu. COVID-19 mengakibatkan hampir 7 juta kematian di seluruh dunia, dibawa a krisis kesehatan mental yang masif dan berkelanjutan dan dibuat tantangan ekonomi, termasuk kekurangan rantai pasokan yang kronis dan inflasi yang tak terkendali.

Senjata nuklir mungkin terbunuh lebih dari 200,000 orang di Hiroshima dan Nagasaki pada tahun 1945, merenggut lebih banyak nyawa akibat kanker pada tahun-tahun berikutnya, menimbulkan kecemasan mendalam selama beberapa dekade selama Perang Dingin dan membawa dunia ke ambang kehancuran selama krisis Rudal Kuba pada tahun 1962. Mereka juga telah mengubah perhitungan pemimpin nasional tentang bagaimana menanggapi agresi internasional, seperti yang saat ini terjadi dengan invasi Rusia ke Ukraina.

AI sama sekali tidak mendapatkan kemampuan untuk melakukan kerusakan semacam ini. Skenario klip kertas dan sejenisnya adalah fiksi ilmiah. Aplikasi AI yang ada menjalankan tugas tertentu daripada membuat penilaian luas. Teknologinya adalah jauh dari mampu memutuskan dan kemudian merencanakan tujuan dan tujuan bawahan yang diperlukan untuk mematikan lalu lintas agar Anda mendapat tempat duduk di restoran, atau meledakkan pabrik mobil untuk memuaskan rasa gatal Anda akan klip kertas.

Teknologi tidak hanya kekurangan kapasitas yang rumit untuk penilaian berlapis yang terlibat dalam skenario ini, tetapi juga tidak memiliki akses otonom ke bagian yang memadai dari infrastruktur penting kami untuk mulai menyebabkan kerusakan semacam itu.

Apa artinya menjadi manusia

Sebenarnya, ada bahaya eksistensial yang melekat dalam penggunaan AI, tetapi risiko itu lebih bersifat filosofis daripada apokaliptik. AI dalam bentuknya saat ini dapat mengubah cara orang memandang diri mereka sendiri. Itu dapat menurunkan kemampuan dan pengalaman yang dianggap penting oleh orang untuk menjadi manusia.

Misalnya, manusia adalah makhluk pembuat keputusan. Orang-orang secara rasional menimbang hal-hal khusus dan membuat penilaian harian di tempat kerja dan selama waktu senggang tentang siapa yang harus dipekerjakan, siapa yang harus mendapatkan pinjaman, apa yang harus ditonton, dan seterusnya. Tetapi semakin banyak penilaian ini menjadi otomatis dan bertani ke algoritma. Ketika itu terjadi, dunia tidak akan berakhir. Tetapi orang secara bertahap akan kehilangan kemampuan untuk membuat penilaian ini sendiri. Semakin sedikit dari mereka yang dibuat orang, semakin buruk kemungkinan mereka membuatnya.

Atau pertimbangkan peran peluang dalam kehidupan manusia. Manusia menghargai pertemuan kebetulan: menemukan tempat, orang, atau aktivitas secara tidak sengaja, terseret ke dalamnya, dan secara retrospektif menghargai peran yang dimainkan kebetulan dalam penemuan bermakna ini. Tetapi peran mesin rekomendasi algoritmik adalah untuk mengurangi kebetulan semacam itu dan menggantinya dengan perencanaan dan prediksi.

Terakhir, pertimbangkan kemampuan menulis ChatGPT. Teknologi sedang dalam proses menghilangkan peran tugas menulis dalam pendidikan tinggi. Jika demikian, pendidik akan kehilangan alat utama untuk mengajar siswa cara berpikir kritis.

Bukan mati tapi berkurang

Jadi, tidak, AI tidak akan meledakkan dunia. Tetapi pelukan yang semakin tidak kritis terhadapnya, dalam berbagai konteks sempit, berarti erosi bertahap dari beberapa keterampilan terpenting manusia. Algoritma telah melemahkan kapasitas orang untuk membuat penilaian, menikmati pertemuan yang kebetulan, dan mengasah pemikiran kritis.

Spesies manusia akan selamat dari kerugian tersebut. Tapi cara kita mengada akan menjadi miskin dalam prosesnya. Kecemasan luar biasa seputar bencana AI yang akan datang, singularitas, Skynet, atau apa pun yang Anda pikirkan, mengaburkan biaya yang lebih halus ini. Ingat kalimat penutup terkenal TS Eliot tentang “Pria Berongga”: “Beginilah cara dunia berakhir,” tulisnya, “bukan dengan keras tapi dengan rengekan.”Percakapan

Tentang Penulis

Nir Eisikovits, Profesor Filsafat dan Direktur, Pusat Etika Terapan, UMass Boston

Artikel ini diterbitkan kembali dari Percakapan di bawah lisensi Creative Commons. Membaca Artikel asli.