deepfake voice scams 7 18
 Mengkloning suara seseorang lebih mudah dari sebelumnya. D-Keine/iStock melalui Getty Images

Anda baru saja pulang ke rumah setelah seharian bekerja dan hendak duduk untuk makan malam ketika tiba-tiba telepon Anda mulai berdengung. Di ujung lain adalah orang yang dicintai, mungkin orang tua, anak atau teman masa kecil, memohon agar Anda segera mengirimkan uang kepada mereka.

Anda mengajukan pertanyaan kepada mereka, mencoba untuk mengerti. Ada sesuatu yang aneh tentang jawaban mereka, yang entah samar atau keluar dari karakter, dan terkadang ada penundaan yang aneh, seolah-olah mereka berpikir terlalu lambat. Namun, Anda yakin bahwa orang yang Anda cintai yang berbicara: Itu adalah suara mereka yang Anda dengar, dan ID penelepon menunjukkan nomornya. Menimbulkan keanehan pada kepanikan mereka, Anda dengan patuh mengirim uang ke rekening bank yang mereka berikan kepada Anda.

Keesokan harinya, Anda menelepon mereka kembali untuk memastikan semuanya baik-baik saja. Orang yang Anda cintai tidak tahu apa yang Anda bicarakan. Itu karena mereka tidak pernah menelepon Anda – Anda telah ditipu oleh teknologi: voice deepfake. Ribuan orang ditipu dengan cara ini pada tahun 2022.

Kemampuan untuk mengkloning suara seseorang semakin mudah dijangkau oleh siapa saja yang memiliki komputer.


innerself subscribe graphic


 

As keamanan komputer peneliti, kami melihat bahwa kemajuan berkelanjutan dalam algoritme pembelajaran mendalam, pengeditan dan rekayasa audio, dan pembuatan suara sintetik berarti semakin mungkin untuk mensimulasikan suara seseorang secara meyakinkan.

Lebih buruk lagi, chatbot seperti ChatGPT mulai membuat skrip realistis dengan respons real-time adaptif. Oleh menggabungkan teknologi ini dengan generasi suara, deepfake berubah dari rekaman statis menjadi avatar yang hidup dan nyata yang dapat melakukan percakapan telepon dengan meyakinkan.

Mengkloning suara

Membuat deepfake berkualitas tinggi yang menarik, baik video maupun audio, bukanlah hal termudah untuk dilakukan. Ini membutuhkan banyak keterampilan artistik dan teknis, perangkat keras yang kuat, dan sampel suara target yang cukup besar.

Ada semakin banyak layanan yang ditawarkan kepada menghasilkan klon suara berkualitas sedang hingga tinggi dengan biaya tertentu, dan beberapa alat deepfake suara memerlukan sampel hanya satu menit, atau bahkan hanya beberapa detik, untuk menghasilkan tiruan suara yang cukup meyakinkan untuk membodohi seseorang. Namun, untuk meyakinkan orang yang dicintai – misalnya, untuk digunakan dalam penipuan peniruan identitas – kemungkinan akan membutuhkan sampel yang jauh lebih besar.

Para peneliti telah mampu mengkloning suara hanya dengan rekaman lima detik.

 

Melindungi dari penipuan dan disinformasi

Dengan semua yang dikatakan, kami di Proyek DeFake dari Rochester Institute of Technology, University of Mississippi dan Michigan State University, dan peneliti lain sedang bekerja keras untuk dapat mendeteksi video dan audio deepfake dan membatasi kerusakan yang ditimbulkannya. Ada juga tindakan langsung dan sehari-hari yang dapat Anda lakukan untuk melindungi diri sendiri.

Sebagai permulaan, phising suara, atau penipuan "vishing", seperti yang dijelaskan di atas adalah kemungkinan besar penipuan suara yang mungkin Anda temui dalam kehidupan sehari-hari, baik di tempat kerja maupun di rumah. Pada tahun 2019, sebuah perusahaan energi ditipu sebesar US$243,000 ketika penjahat mensimulasikan suara bos perusahaan induknya untuk memerintahkan seorang karyawan mentransfer dana ke pemasok. Pada tahun 2022, orang-orang ditipu dari sekitar $ 11 juta oleh suara simulasi, termasuk hubungan pribadi yang dekat.

Apa yang dapat Anda lakukan?

Berhati-hatilah dengan telepon tak terduga, bahkan dari orang yang Anda kenal baik. Ini bukan untuk mengatakan bahwa Anda perlu menjadwalkan setiap panggilan, tetapi membantu setidaknya mengirim email atau pesan teks terlebih dahulu. Juga, jangan mengandalkan ID penelepon, karena itu juga bisa dipalsukan. Misalnya, jika Anda menerima telepon dari seseorang yang mengaku mewakili bank Anda, tutup telepon dan hubungi bank secara langsung untuk mengonfirmasi keabsahan panggilan tersebut. Pastikan untuk menggunakan nomor yang telah Anda tulis, simpan di daftar kontak Anda atau yang dapat Anda temukan di Google.

Selain itu, berhati-hatilah dengan informasi pengenal pribadi Anda, seperti nomor Jaminan Sosial, alamat rumah, tanggal lahir, nomor telepon, nama tengah, dan bahkan nama anak dan hewan peliharaan Anda. Penipu dapat menggunakan informasi ini untuk menyamar sebagai Anda di bank, agen penjual, dan lainnya, memperkaya diri sendiri sambil membuat Anda bangkrut atau menghancurkan kredit Anda.

Ini nasihat lain: kenali dirimu sendiri. Secara khusus, ketahui bias dan kerentanan intelektual dan emosional Anda. Ini adalah nasihat hidup yang baik secara umum, tetapi ini adalah kunci untuk melindungi diri Anda agar tidak dimanipulasi. Scammers biasanya mencari untuk mencari tahu dan kemudian memangsa kecemasan finansial Anda, keterikatan politik Anda atau kecenderungan lainnya, apa pun itu.

Kewaspadaan ini juga merupakan pertahanan yang layak terhadap disinformasi yang menggunakan voice deepfake. Deepfake dapat digunakan untuk memanfaatkan Anda bias konfirmasi, atau apa yang cenderung Anda percayai tentang seseorang.

Jika Anda mendengar orang penting, baik dari komunitas Anda atau pemerintah, mengatakan sesuatu yang tampaknya sangat tidak biasa bagi mereka atau menegaskan kecurigaan terburuk Anda terhadap mereka, sebaiknya Anda berhati-hati.The Conversation

Tentang Penulis

Matthew Wright, Profesor Keamanan Komputasi, Rochester Institute of Technology dan Christopher Schwartz, Asosiasi Riset Pascadoktoral Keamanan Komputasi, Rochester Institute of Technology

Artikel ini diterbitkan kembali dari Percakapan di bawah lisensi Creative Commons. Membaca Artikel asli.