chatGPT
Sekelompok ilmuwan komputer terkemuka dan tokoh industri teknologi lainnya menyerukan jeda enam bulan pada teknologi kecerdasan buatan. (Shutterstock)

Surat terbuka baru-baru ini oleh ilmuwan komputer dan pemimpin industri teknologi menyerukan larangan enam bulan pada pengembangan kecerdasan buatan memiliki mendapat perhatian luas secara online. Bahkan Menteri Inovasi Kanada François-Philippe Champagne telah menanggapi surat itu di Twitter.

Surat tersebut, yang diterbitkan oleh Future of Life Institute nirlaba, telah meminta semua laboratorium AI untuk menghentikan pelatihan sistem AI yang lebih kuat daripada GPT-4, model di belakang ChatGPT. Surat itu berpendapat bahwa AI telah "terkunci dalam perlombaan di luar kendali untuk mengembangkan dan menyebarkan pikiran digital yang semakin kuat yang tidak seorang pun — bahkan penciptanya — dapat memahami, memprediksi, atau mengendalikannya dengan andal."

Surat itu menganggap AI menjadi, atau bisa menjadi, "pikiran digital yang kuat" - a interpretasi jangka panjang dari perkembangan AI bahwa mengabaikan perdebatan penting tentang AI hari ini sebagai pengganti kekhawatiran di masa depan.

Jangka panjang dan AI

Jangka panjang adalah keyakinan bahwa kecerdasan buatan menimbulkan risiko jangka panjang atau eksistensial bagi masa depan umat manusia dengan menjadi superintelligence yang tidak terkendali.


innerself subscribe graphic


Kekhawatiran tentang AI superintelligent biasanya adalah fiksi ilmiah. fantasi AI adalah salah satu dari banyak ketakutan di Silicon Valley yang dapat menyebabkan ramalan kelam. Tapi seperti Meme siksaan Nexus, kekhawatiran ini diterjemahkan menjadi investasi besar bukan kehati-hatian. Sebagian besar perusahaan teknologi besar memilikinya memotong tim AI yang bertanggung jawab.

ChatGPT jelas bukan jalan menuju kecerdasan super. Surat terbuka tersebut melihat teknologi bahasa AI seperti ChatGPT sebagai terobosan kognitif — sesuatu yang memungkinkan AI bersaing dengan manusia dalam tugas-tugas umum. Tapi itu hanya satu pendapat.

Ada banyak orang lain yang melihat ChatGPT, model GPT-4-nya, dan model pembelajaran bahasa lainnya “burung beo stokastik” yang hanya mengulangi apa yang mereka pelajari secara online sehingga mereka muncul cerdas bagi manusia.

Titik buta superintelligence

Longtermism memiliki implikasi kebijakan langsung yang memprioritaskan superintelligence daripada masalah yang lebih mendesak seperti Ketidakseimbangan kekuatan AI. Beberapa pendukung longtermism bahkan menganggap regulasi untuk menghentikan superintelligence lebih mendesak daripada menangani darurat iklim.

Implikasi kebijakan AI bersifat langsung, tidak jauh. Karena GPT-4 dilatih di seluruh internet dan memiliki tujuan komersial yang tegas, itu menimbulkan pertanyaan tentang penggunaan yang adil dan penggunaan yang adil.

Kami masih tidak tahu apakah teks dan gambar yang dihasilkan AI dapat dilindungi hak cipta, karena mesin dan hewan tidak dapat memegang hak cipta.

Dan dalam hal privasi, pendekatan ChatGPT sulit dibedakan dari aplikasi AI lainnya, Tampilan jernih AI. Kedua model AI dilatih menggunakan sejumlah besar informasi pribadi yang dikumpulkan di internet terbuka. Otoritas perlindungan data Italia baru saja melarang ChatGPT karena masalah privasi.

Risiko langsung ini tidak disebutkan dalam surat terbuka, yang berayun antara filosofi liar dan solusi teknis, mengabaikan masalah yang ada di depan kita.

Menenggelamkan pragmatisme

Surat itu mengikuti dinamika lama yang saya dan rekan penulis saya identifikasi di a bab peer-review yang akan datang tentang tata kelola AI. Ada kecenderungan untuk memandang AI sebagai risiko eksistensial atau sesuatu yang biasa dan teknis.

Ketegangan antara dua ekstrem ini tergambar dalam surat terbuka tersebut. Surat itu dimulai dengan mengklaim "AI tingkat lanjut dapat mewakili perubahan besar dalam sejarah kehidupan di Bumi" sebelum menyerukan "pendanaan publik yang kuat untuk penelitian keamanan AI teknis." Yang terakhir menunjukkan bahaya sosial AI hanyalah proyek teknis yang harus diselesaikan.

Fokus pada dua ekstrem ini mengesampingkan suara-suara penting yang mencoba membahas secara pragmatis risiko langsung AI yang disebutkan di atas serta masalah tenaga kerja dan lainnya.

Perhatian yang diberikan kepada surat terbuka tersebut sangat bermasalah di Kanada karena dua surat lainnya, ditulis oleh seniman dan organisasi kebebasan sipil, belum mendapat perhatian yang sama. Surat-surat ini menyerukan reformasi dan pendekatan yang lebih kuat terhadap tata kelola AI untuk melindungi mereka yang terkena dampaknya.

Pengalih perhatian yang tidak dibutuhkan terhadap undang-undang AI

Tanggapan pemerintah terhadap surat terbuka tersebut menekankan bahwa Kanada memang memiliki undang-undang — Undang-Undang Kecerdasan Buatan dan Data (AIDA). Risiko jangka panjang AI digunakan untuk mempercepat undang-undang sekarang seperti AIDA.

AIDA adalah langkah penting menuju rezim tata kelola AI yang tepat, tetapi perlu lebih baik berkonsultasi dengan mereka yang terkena dampak AI sebelum diimplementasikan. Itu tidak bisa terburu-buru untuk menanggapi ketakutan jangka panjang yang dirasakan.

Seruan surat untuk mempercepat undang-undang AI mungkin pada akhirnya menguntungkan beberapa perusahaan yang sama yang mendorong penelitian AI hari ini. Tanpa waktu untuk berkonsultasi, meningkatkan literasi publik, dan mendengarkan mereka yang terkena dampak AI, AIDA berisiko meneruskan akuntabilitas dan audit AI ke institusi yang sudah memiliki posisi yang baik untuk memanfaatkan teknologi tersebut, menciptakan pasar untuk industri audit AI baru.

Nasib umat manusia mungkin tidak dipertaruhkan, tetapi tata kelola AI yang baik tentu saja.The Conversation

Tentang Penulis

Fenwick McKelvey, Guru Besar Madya dalam Kebijakan Teknologi Informasi dan Komunikasi, Concordia University

Artikel ini diterbitkan kembali dari Percakapan di bawah lisensi Creative Commons. Membaca Artikel asli.