Kecerdasan Buatan Sekarang Dapat Meniru Perilaku Manusia Dan Sebentar Lagi Akan Sangat BaikApakah wajah ini hanya kumpulan bit komputer? PHOTOCREO Michal Bednarek / Shutterstock.com

Ketika sistem kecerdasan buatan mulai menjadi kreatif, mereka dapat menciptakan hal-hal besar - dan yang menakutkan. Ambil, misalnya, program AI yang memungkinkan pengguna web menulis musik bersama dengan virtual Johann Sebastian Bach dengan memasukkan catatan ke dalam program yang menghasilkan harmoni seperti Bach untuk mencocokkannya.

Dijalankan oleh Google, aplikasi drew besar pujian karena menjadi terobosan dan menyenangkan untuk dimainkan. Itu juga menarik kritik, dan mengangkat keprihatinan tentang bahaya AI.

Pelajaran saya tentang bagaimana teknologi yang muncul mempengaruhi kehidupan masyarakat telah mengajari saya bahwa masalahnya melampaui keprihatinan yang diakui besar apakah algoritma benar-benar bisa buat musik atau seni secara umum. Beberapa keluhan tampak kecil, tetapi sebenarnya tidak, seperti pengamatan bahwa Google AI melanggar aturan dasar komposisi musik.

Bahkan, upaya untuk memiliki komputer meniru perilaku orang yang sebenarnya bisa membingungkan dan berpotensi berbahaya.


grafis berlangganan batin


Teknologi peniruan

Program Google menganalisis not dalam 306 karya musik Bach, menemukan hubungan antara melodi dan not yang memberikan harmoni. Karena Bach mengikuti aturan komposisi yang ketat, program ini secara efektif mempelajari aturan-aturan itu, sehingga bisa diterapkan ketika pengguna memberikan catatan mereka sendiri.

 Tim Google Doodle menjelaskan program Bach.

{youtube}XBfYPp6KF2g{/youtube}

Aplikasi Bach itu sendiri baru, tetapi teknologi yang mendasarinya tidak. Algoritma dilatih untuk mengenali pola dan membuat keputusan probabilistik sudah ada sejak lama. Beberapa algoritma ini sangat kompleks sehingga orang tidak selalu mengerti bagaimana mereka membuat keputusan atau menghasilkan hasil tertentu.

Sistem AI tidak sempurna - banyak dari mereka bergantung data yang tidak representatif dari seluruh populasi, atau yang dipengaruhi oleh bias manusia. Tidak sepenuhnya jelas yang mungkin bertanggung jawab secara hukum ketika sistem AI membuat kesalahan atau menyebabkan masalah.

Namun, sekarang, teknologi kecerdasan buatan semakin maju untuk dapat memperkirakan gaya menulis atau berbicara seseorang, dan bahkan ekspresi wajah. Ini tidak selalu buruk: AI yang cukup sederhana memberi Stephen Hawking kemampuan berkomunikasi lebih efisien dengan orang lain dengan memprediksi kata-kata yang paling akan dia gunakan.

Program yang lebih kompleks yang meniru suara manusia membantu para penyandang cacat - tetapi juga dapat digunakan untuk menipu pendengar. Misalnya, pembuat Lyrebird, program peniru suara, telah merilis a percakapan simulasi antara Barack Obama, Donald Trump dan Hillary Clinton. Ini mungkin terdengar nyata, tetapi pertukaran itu tidak pernah terjadi.

Dari baik ke buruk

Pada bulan Februari 2019, perusahaan nirlaba OpenAI membuat program yang menghasilkan teks hampir tidak bisa dibedakan dari teks ditulis oleh orang-orang. Itu bisa "menulis" pidato dengan gaya John F. Kennedy, JRR Tolkien di “The Lord of the Rings”Atau tulisan siswa tugas sekolah tentang Perang Sipil AS.

Teks yang dihasilkan oleh perangkat lunak OpenAI sangat dapat dipercaya bahwa perusahaan telah memilih tidak melepaskan program itu sendiri.

Teknologi serupa dapat mensimulasikan foto dan video. Pada awal 2018, misalnya, aktor dan pembuat film Jordan Peele membuat video yang tampaknya menunjukkan mantan Presiden AS Barack Obama mengatakan hal-hal yang Obama sebenarnya tidak pernah katakan untuk memperingatkan publik tentang bahaya yang ditimbulkan oleh teknologi ini.

Hati-hati dengan video apa yang Anda yakini.

{youtube}cQ54GDm1eL0{/youtube}

Di awal 2019, a foto telanjang palsu Rep. AS Alexandria Ocasio-Cortez beredar online. Video yang dibuat, sering dipanggil "deepfakes, "Diharapkan menjadi makin bekas dalam kampanye pemilihan.

Anggota Kongres sudah mulai melihat ke dalam masalah ini menjelang pemilihan 2020. Departemen Pertahanan AS mengajarkan masyarakat bagaimana cara menemukan video yang diolah dan audio. Organisasi berita suka Reuters mulai melatih jurnalis untuk mengenali deepfakes.

Tetapi, dalam pandangan saya, masih ada kekhawatiran yang lebih besar: Pengguna mungkin tidak dapat belajar cukup cepat untuk membedakan konten palsu karena teknologi AI menjadi lebih canggih. Sebagai contoh, ketika masyarakat mulai sadar akan deepfake, AI sudah digunakan untuk penipuan yang bahkan lebih maju. Sekarang ada program yang dapat menghasilkan wajah palsu dan sidik jari digital palsu, secara efektif menciptakan informasi yang diperlukan untuk memalsukan seluruh orang - setidaknya dalam catatan perusahaan atau pemerintah.

Mesin terus belajar

Saat ini, ada cukup potensi kesalahan dalam teknologi ini untuk memberi orang kesempatan mendeteksi fabrikasi digital. Google komposer Bach membuat beberapa kesalahan seorang ahli bisa mendeteksi. Misalnya, ketika saya mencobanya, program tersebut mengizinkan saya untuk masuk seperlima paralel, interval musik yang Bach rajin belajar. Aplikasi ini juga melanggar aturan musik berlawanan dengan menyelaraskan melodi pada tombol yang salah. Demikian pula, program penghasil teks OpenAI terkadang menulis frasa seperti “kebakaran terjadi di bawah air”Itu tidak masuk akal dalam konteks mereka.

Saat pengembang mengerjakan kreasi mereka, kesalahan ini akan menjadi lebih jarang. Secara efektif, teknologi AI akan berkembang dan belajar. Peningkatan kinerja berpotensi membawa banyak manfaat sosial - termasuk perawatan kesehatan yang lebih baik, karena program AI membantu mendemokratisasikan praktik kedokteran.

Memberikan kebebasan kepada para peneliti dan perusahaan untuk mengeksplorasi, dalam rangka mencari pencapaian positif dari sistem AI, berarti membuka risiko mengembangkan cara yang lebih maju untuk menciptakan penipuan dan masalah sosial lainnya. Sangat membatasi penelitian AI bisa mengekang kemajuan itu. Tetapi memberikan teknologi yang bermanfaat ruang untuk tumbuh datang tanpa biaya kecil - dan potensi penyalahgunaan, apakah untuk membuat musik "seperti Bach" yang tidak akurat atau untuk menipu jutaan orang, kemungkinan akan tumbuh dengan cara yang belum dapat diantisipasi orang.Percakapan

Tentang Penulis

Ana Santos Rutschman, Asisten Profesor Hukum, Universitas Saint Louis

Artikel ini diterbitkan kembali dari Percakapan di bawah lisensi Creative Commons. Membaca Artikel asli.

Buku terkait

at Pasar InnerSelf dan Amazon