percaya ai 7 20
 AI chatbot menjadi lebih kuat, tetapi bagaimana Anda tahu jika mereka bekerja untuk kepentingan terbaik Anda? 

Jika Anda bertanya kepada Alexa, sistem AI asisten suara Amazon, apakah Amazon adalah monopoli, jawabannya adalah mengatakan tidak tahu. Tidak perlu banyak untuk membuatnya mengecam raksasa teknologi lainnya, tetapi diam tentang kesalahan induk perusahaannya sendiri.

Ketika Alexa merespons dengan cara ini, jelas bahwa itu menempatkan kepentingan pengembangnya di atas kepentingan Anda. Namun, biasanya, tidak begitu jelas siapa yang dilayani oleh sistem AI. Agar tidak dieksploitasi oleh sistem ini, orang perlu belajar mendekati AI secara skeptis. Itu berarti dengan sengaja membangun masukan yang Anda berikan dan berpikir kritis tentang keluarannya.

Generasi model AI yang lebih baru, dengan respons yang lebih canggih dan tidak terlalu hafal, mempersulit untuk mengatakan siapa yang diuntungkan saat mereka berbicara. Perusahaan Internet yang memanipulasi apa yang Anda lihat untuk melayani kepentingan mereka bukanlah hal baru. Hasil pencarian Google dan umpan Facebook Anda adalah diisi dengan entri berbayar. Facebook, Tiktok dan yang lainnya memanipulasi umpan Anda untuk memaksimalkan waktu yang Anda habiskan di platform, yang berarti lebih banyak penayangan iklan, melebihi kesejahteraan Anda.

Apa yang membedakan sistem AI dari layanan internet lainnya adalah seberapa interaktif mereka, dan bagaimana interaksi ini akan semakin menjadi seperti hubungan. Tidak perlu banyak ekstrapolasi dari teknologi saat ini untuk membayangkan AI yang akan merencanakan perjalanan untuk Anda, bernegosiasi atas nama Anda, atau bertindak sebagai terapis dan pelatih kehidupan.


grafis berlangganan batin


Mereka cenderung bersama Anda 24/7, mengenal Anda secara dekat, dan dapat mengantisipasi kebutuhan Anda. Antarmuka percakapan semacam ini ke jaringan luas layanan dan sumber daya di web berada dalam kemampuan AI generatif yang ada seperti ChatGPT. Mereka berada di jalur untuk menjadi asisten digital yang dipersonalisasi.

Sebagai pakar keamanan dan ilmuwan data, kami percaya bahwa orang-orang yang mengandalkan AI ini harus memercayai mereka secara implisit untuk menjalani kehidupan sehari-hari. Itu berarti mereka perlu memastikan AI tidak diam-diam bekerja untuk orang lain. Di seluruh internet, perangkat dan layanan yang tampaknya bekerja untuk Anda diam-diam telah bekerja melawan Anda. TV pintar memata-mataimu. Aplikasi telepon mengumpulkan dan menjual data Anda. Banyak aplikasi dan situs web memanipulasi Anda melalui pola gelap, elemen desain itu sengaja menyesatkan, memaksa, atau menipu pengunjung situs web. Ini kapitalisme pengawasan, dan AI bersiap untuk menjadi bagian darinya. AI memainkan peran dalam pengawasan kapitalisme, yang bermuara pada memata-matai Anda untuk menghasilkan uang dari Anda.

Dalam gelap

Sangat mungkin, itu bisa jauh lebih buruk dengan AI. Agar asisten digital AI itu benar-benar berguna, ia harus benar-benar mengenal Anda. Lebih baik daripada ponsel Anda mengenal Anda. Lebih baik daripada pencarian Google mengenal Anda. Mungkin lebih baik daripada teman dekat Anda, pasangan intim, dan terapis mengenal Anda.

Anda tidak punya alasan untuk mempercayai alat AI generatif terkemuka saat ini. Sisihkan halusinasi, "fakta" buatan yang dihasilkan oleh GPT dan model bahasa besar lainnya. Kami berharap sebagian besar akan dibersihkan karena teknologi meningkat selama beberapa tahun ke depan.

Tetapi Anda tidak tahu bagaimana AI dikonfigurasikan: bagaimana mereka dilatih, informasi apa yang diberikan kepada mereka, dan instruksi apa yang diperintahkan untuk mereka ikuti. Misalnya peneliti mengungkap aturan rahasia yang mengatur perilaku chatbot Microsoft Bing. Mereka sebagian besar jinak tetapi dapat berubah kapan saja.

Membuat uang

Banyak dari AI ini dibuat dan dilatih dengan biaya yang sangat besar oleh beberapa monopoli teknologi terbesar. Mereka ditawarkan kepada orang-orang untuk digunakan secara gratis, atau dengan biaya yang sangat rendah. Perusahaan-perusahaan ini perlu memonetisasi mereka entah bagaimana. Dan, seperti halnya internet lainnya, hal itu kemungkinan besar mencakup pengawasan dan manipulasi.

Bayangkan meminta chatbot Anda untuk merencanakan liburan Anda berikutnya. Apakah ia memilih maskapai penerbangan atau jaringan hotel atau restoran tertentu karena itu yang terbaik untuk Anda atau karena pembuatnya mendapat suap dari bisnis? Seperti hasil berbayar di pencarian Google, iklan umpan berita di Facebook, dan penempatan berbayar di kueri Amazon, pengaruh berbayar ini cenderung semakin tersembunyi dari waktu ke waktu.

Jika Anda meminta informasi politik dari chatbot Anda, apakah hasilnya dibelokkan oleh politik korporasi pemilik chatbot tersebut? Atau kandidat yang membayarnya paling banyak? Atau bahkan pandangan demografis orang yang datanya digunakan untuk melatih model? Apakah agen AI Anda diam-diam adalah agen ganda? Saat ini, tidak ada cara untuk mengetahuinya.

Dapat dipercaya oleh hukum

Kami percaya bahwa orang harus berharap lebih dari teknologi dan bahwa perusahaan teknologi dan AI dapat menjadi lebih dapat dipercaya. Usulan Uni Eropa UU AI mengambil beberapa langkah penting, mensyaratkan transparansi tentang data yang digunakan untuk melatih model AI, mitigasi potensi bias, pengungkapan risiko yang dapat diperkirakan, dan pelaporan pengujian standar industri. Uni Eropa mendorong regulasi AI.

Sebagian besar AI yang ada gagal untuk mematuhi dengan mandat Eropa yang muncul ini, dan, meskipun demikian dorongan baru-baru ini dari Pemimpin Mayoritas Senat Chuck Schumer, AS tertinggal jauh dalam peraturan tersebut.

AI masa depan harus dapat dipercaya. Kecuali dan sampai pemerintah memberikan perlindungan konsumen yang kuat untuk produk AI, orang akan sendiri menebak potensi risiko dan bias AI, dan untuk mengurangi efek terburuknya pada pengalaman orang dengan AI.

Jadi, ketika Anda mendapatkan rekomendasi perjalanan atau informasi politik dari alat AI, dekati dengan mata skeptis yang sama dengan iklan billboard atau sukarelawan kampanye. Untuk semua keajaiban teknologinya, alat AI mungkin sedikit lebih dari sama.Percakapan

Tentang Penulis

Bruce Schneier, Ajun Dosen Kebijakan Publik, Harvard Kennedy School dan Natan Sanders, Afiliasi, Pusat Berkman Klein untuk Internet & Masyarakat, Harvard University

Artikel ini diterbitkan kembali dari Percakapan di bawah lisensi Creative Commons. Membaca Artikel asli.