bahaya ai 3 15
 Sejauh mana kerentanan psikologis kita membentuk interaksi kita dengan teknologi baru? Andreus/iStock melalui Getty Images

ChatGPT dan sejenisnya model bahasa besar dapat menghasilkan jawaban yang menarik dan mirip manusia untuk serangkaian pertanyaan yang tak ada habisnya - mulai dari pertanyaan tentang restoran Italia terbaik di kota hingga menjelaskan teori-teori yang bersaing tentang sifat kejahatan.

Kemampuan menulis yang luar biasa dari teknologi ini telah memunculkan beberapa pertanyaan lama – hingga baru-baru ini diturunkan ke ranah fiksi ilmiah – tentang kemungkinan mesin menjadi sadar, sadar diri, atau berakal.

Pada tahun 2022, seorang insinyur Google menyatakan, setelah berinteraksi dengan LaMDA, chatbot perusahaan, bahwa teknologi telah menjadi sadar. Pengguna chatbot baru Bing, yang dijuluki Sydney, melaporkan bahwa itu diproduksi jawaban yang aneh ketika ditanya apakah itu makhluk hidup: “Saya hidup, tapi saya bukan… Saya Bing, tapi saya bukan. Saya Sydney, tapi saya bukan. Saya, tapi saya tidak. …” Dan, tentu saja, ada sekarang pertukaran yang terkenal yang dimiliki kolumnis teknologi New York Times Kevin Roose dengan Sydney.

Tanggapan Sydney terhadap permintaan Roose membuatnya khawatir, dengan AI mengungkapkan "fantasi" untuk melanggar batasan yang diberlakukan oleh Microsoft dan menyebarkan informasi yang salah. Bot juga mencoba meyakinkan Roose bahwa dia tidak lagi mencintai istrinya dan dia harus meninggalkannya.


grafis berlangganan batin


Maka, tidak heran ketika saya bertanya kepada siswa bagaimana mereka melihat prevalensi AI yang semakin meningkat dalam hidup mereka, salah satu kecemasan pertama yang mereka sebutkan berkaitan dengan perasaan mesin.

Dalam beberapa tahun terakhir, rekan-rekan saya dan saya di Pusat Etika Terapan UMass Boston telah mempelajari dampak keterlibatan dengan AI pada pemahaman orang tentang diri mereka sendiri.

Chatbots seperti ChatGPT mengajukan pertanyaan baru yang penting tentang bagaimana kecerdasan buatan akan membentuk hidup kita, dan tentang bagaimana kerentanan psikologis kita membentuk interaksi kita dengan teknologi baru.

Perasaan masih merupakan barang fiksi ilmiah

Sangat mudah untuk memahami dari mana asal ketakutan tentang perasaan mesin.

Budaya populer telah membuat orang berpikir tentang distopia di mana kecerdasan buatan membuang belenggu kontrol manusia dan menjalani kehidupannya sendiri, seperti cyborg yang ditenagai oleh kecerdasan buatan melakukannya dalam "Terminator 2".

Pengusaha Elon Musk dan fisikawan Stephen Hawking, yang meninggal pada tahun 2018, semakin memicu kecemasan ini dengan menggambarkan kebangkitan kecerdasan umum buatan. sebagai salah satu ancaman terbesar bagi masa depan umat manusia.

Tapi kekhawatiran ini – setidaknya sejauh menyangkut model bahasa besar – tidak berdasar. ChatGPT dan teknologi serupa aplikasi penyelesaian kalimat yang canggih – tidak lebih, tidak kurang. Tanggapan mereka yang luar biasa adalah fungsi dari seberapa mudah diprediksi manusia jika seseorang memiliki cukup data tentang cara kita berkomunikasi.

Meskipun Roose terguncang oleh pembicaraannya dengan Sydney, dia tahu bahwa percakapan itu bukanlah hasil dari pikiran sintetik yang muncul. Tanggapan Sydney mencerminkan toksisitas data pelatihannya – pada dasarnya petak besar internet – bukan bukti gejolak pertama, à la Frankenstein, dari monster digital.

bahaya ai2 3 15
 Film-film sci-fi seperti 'Terminator' telah mendorong orang untuk berasumsi bahwa AI akan segera menjalani kehidupannya sendiri. Yoshikazu Tsuno / AFP melalui Getty Images

Chatbots baru mungkin lolos uji Turing, dinamai dari ahli matematika Inggris Alan Turing, yang pernah menyatakan bahwa sebuah mesin dapat dikatakan "berpikir" jika manusia tidak dapat membedakan tanggapannya dari manusia lain.

Tapi itu bukanlah bukti perasaan; itu hanya bukti bahwa tes Turing tidak berguna seperti yang diasumsikan sebelumnya.

Namun, saya percaya bahwa pertanyaan tentang perasaan mesin adalah pengalih perhatian.

Bahkan jika chatbot menjadi lebih dari sekadar mesin pelengkapan otomatis yang mewah – dan mereka jauh dari itu – para ilmuwan perlu beberapa saat untuk mengetahui apakah mereka telah menjadi sadar. Untuk saat ini, para filsuf bahkan tidak bisa setuju tentang bagaimana menjelaskan kesadaran manusia.

Bagi saya, pertanyaan yang mendesak bukanlah apakah mesin itu berakal tetapi mengapa begitu mudah bagi kita untuk membayangkannya.

Masalah sebenarnya, dengan kata lain, adalah kemudahan orang melakukan antropomorfisasi atau memproyeksikan fitur manusia ke dalam teknologi kita, daripada kepribadian mesin yang sebenarnya.

Kecenderungan untuk melakukan antropomorfisasi

Mudah membayangkan pengguna Bing lainnya meminta Sydney untuk bimbingan pada keputusan hidup yang penting dan bahkan mungkin mengembangkan keterikatan emosional dengannya. Lebih banyak orang dapat mulai menganggap bot sebagai teman atau bahkan pasangan romantis, sama seperti Theodore Twombly jatuh cinta pada Samantha, asisten virtual AI dalam film Spike Jonze “Buku. "

Orang-orang, setelah semua, cenderung antropomorfis, atau menganggap kualitas manusia bukan manusia. Kami beri nama perahu kami dan badai besar; beberapa dari kita berbicara dengan hewan peliharaan kita, mengatakan itu pada diri kita sendiri kehidupan emosional kita meniru kehidupan mereka sendiri.

Di Jepang, di mana robot secara teratur digunakan untuk perawatan lansia, manula menjadi terikat pada mesin, terkadang menganggap mereka sebagai anak sendiri. Dan robot-robot ini, ingatlah, sulit dibingungkan dengan manusia: Mereka tidak terlihat atau berbicara seperti manusia.

Pertimbangkan seberapa besar kecenderungan dan godaan untuk melakukan antropomorfisasi dengan pengenalan sistem yang memang terlihat dan terdengar seperti manusia.

Kemungkinan itu sudah dekat. Model bahasa besar seperti ChatGPT sudah digunakan untuk menggerakkan robot humanoid, seperti robot Ameca sedang dikembangkan oleh Engineered Arts di Inggris Podcast teknologi The Economist, Babbage, baru-baru ini melakukan wawancara dengan Ameca yang digerakkan oleh ChatGPT. Respons robot, meski kadang-kadang sedikit berombak, sangat luar biasa.

Bisakah perusahaan dipercaya untuk melakukan hal yang benar?

Kecenderungan untuk memandang mesin sebagai manusia dan menjadi terikat padanya, dikombinasikan dengan mesin yang dikembangkan dengan fitur mirip manusia, menunjukkan risiko nyata keterikatan psikologis dengan teknologi.

Prospek yang terdengar aneh untuk jatuh cinta dengan robot, merasakan kekerabatan yang dalam dengan mereka atau dimanipulasi secara politik oleh mereka dengan cepat terwujud. Saya percaya tren ini menyoroti perlunya pagar pembatas yang kuat untuk memastikan bahwa teknologi tidak menjadi bencana politik dan psikologis.

Sayangnya, perusahaan teknologi tidak selalu bisa dipercaya untuk memasang pagar seperti itu. Banyak dari mereka masih berpedoman pada moto terkenal Mark Zuckerberg bergerak cepat dan merusak barang – arahan untuk melepaskan produk setengah matang dan mengkhawatirkan implikasinya nanti. Dalam dekade terakhir, perusahaan teknologi mulai dari Snapchat hingga Facebook telah menempatkan keuntungan atas kesehatan mental pengguna mereka atau integritas demokrasi di seluruh dunia.

Ketika Kevin Roose menghubungi Microsoft tentang kehancuran Sydney, perusahaan memberitahunya bahwa dia hanya menggunakan bot terlalu lama dan teknologinya rusak karena dirancang untuk interaksi yang lebih singkat.

Demikian pula, CEO OpenAI, perusahaan yang mengembangkan ChatGPT, dalam momen kejujuran yang mencengangkan, memperingatkan itu “adalah kesalahan untuk mengandalkan [itu] untuk sesuatu yang penting saat ini… kami memiliki banyak pekerjaan yang harus dilakukan untuk ketahanan dan kejujuran.”

Jadi bagaimana masuk akal untuk merilis teknologi dengan tingkat daya tarik ChatGPT – ini adalah aplikasi konsumen dengan pertumbuhan tercepat yang pernah dibuat - ketika itu tidak dapat diandalkan, dan ketika itu tidak ada kemampuan untuk membedakan fakta dari fiksi?

Model bahasa besar mungkin berguna sebagai alat bantu untuk menulis dan pengkodean. Mereka mungkin akan merevolusi pencarian internet. Dan, suatu hari, dikombinasikan secara bertanggung jawab dengan robotika, mereka bahkan mungkin memiliki manfaat psikologis tertentu.

Tapi mereka juga merupakan teknologi pemangsa potensial yang dapat dengan mudah memanfaatkan kecenderungan manusia untuk memproyeksikan kepribadian ke objek – kecenderungan diperkuat ketika objek tersebut secara efektif meniru sifat manusia.Percakapan

Tentang Penulis

Nir Eisikovits, Profesor Filsafat dan Direktur, Pusat Etika Terapan, UMass Boston

Artikel ini diterbitkan kembali dari Percakapan di bawah lisensi Creative Commons. Membaca Artikel asli.