Pembuatan audio deep fake semakin mudah dilakukan, namun semakin sulit untuk dideteksi.
Deep fake audio getting easier to make, harder to detect https://dailyai.com/2024/01/deep-fake-audio-getting-easier-to-make-harder-to-detect/

By Sang Ruh 31 Jan 2024, 18:01:43 WIB | 👁 182 Programming
Pembuatan audio deep fake semakin mudah dilakukan, namun semakin sulit untuk dideteksi.

Keterangan Gambar : Pembuatan audio deep


Kloning suara AI telah menjadi berita karena adanya panggilan telepon otomatis "Biden" yang palsu, namun orang biasa juga terpengaruh karena teknologi ini semakin mudah diakses dan sulit dideteksi.

Dua minggu yang lalu, rekaman audio dari Kepala Sekolah Pikesville High, Eric Eiswert, dirilis yang terdengar seperti Eiswert membuat komentar rasial dan antisemit tentang staf dan siswa. Eiswert membantah keaslian audio tersebut, yang didukung oleh Billy Burke, direktur eksekutif Dewan Karyawan Administrasi dan Pengawasan, yang mewakili administrator Kabupaten Baltimore.

"Kami percaya bahwa itu dibuat oleh AI," kata Burke. "Dia tidak mengatakan itu."

Di era AI palsu, "dividen pembohong" memberikan alasan mudah bagi siapa pun untuk berteriak "Palsu!" ketika dalam situasi sulit. Pada saat yang sama, kloning suara AI dapat menyebabkan kerusakan reputasi yang besar bagi orang biasa seperti Eiswert.

Apa pendapat Anda? Palsu atau asli?

Entah audio tersebut asli dan dia harus dipecat, atau itu palsu dan seseorang harus dituntut. Dua minggu kemudian, tidak ada yang bisa mengatakan, sehingga pekerjaan dan reputasi Eiswert tetap dalam kebimbangan. Ini adalah bukti seberapa baik alat-alat kloning suara ini dan masalah-masalah kompleks yang ditimbulkannya.

Setahun yang lalu, kita mungkin telah menolak klaim Eiswert tentang kebohongan AI, dengan berargumen bahwa teknologi AI canggih seperti itu tidak ada. Sekarang, perusahaan seperti Eleven Labs atau alat murah seperti Parrot AI membuatnya mudah bagi siapa pun untuk membuat klon suara yang mengesankan.

OpenVoice, yang dirilis awal bulan ini, menggunakan hanya beberapa detik audio untuk mengkloning suara dan memungkinkan kontrol yang detail terhadap emosi, aksen, nada, ritme, dan lainnya.

Hany Farid, seorang profesor di University of California, Berkeley, yang mengkhususkan diri dalam forensik digital dan otentikasi media digital, ketika ditanya oleh seorang reporter WJZ untuk menganalisis klip tersebut, Farid mengatakan bahwa klip tersebut jelas telah diedit, tetapi selain itu, dia tidak dapat mengkonfirmasi apakah itu asli atau tidak.

Dalam wawancara dengan Scientific American, Farid mengatakan, "Saya telah menganalisis audio dengan beberapa alat kami, yang belum tersedia untuk umum. Saya pikir kemungkinan besar audio ini dibuat oleh AI... Secara keseluruhan, saya pikir bukti menunjukkan bahwa audio ini tidak otentik. Tetapi sebelum membuat penentuan akhir, kita perlu belajar lebih banyak."

Farid mengatakan bahwa mungkin ada 5 atau kurang laboratorium di seluruh dunia yang dapat dengan dapat diandalkan menentukan apakah audio tersebut palsu atau asli.

Klon AI yang dibuat oleh Dudesy dari George Carlin adalah contoh bagus bagaimana kloning suara AI semakin baik dalam mencocokkan intonasi dan emosi. Video tersebut sejak itu tidak tersedia.

Orang-orang di balik chatbot mysentient.ai telah membuat parodi debat Trump vs Biden. Hal-hal yang 'Trump' dan 'Biden' katakan sangat gila sehingga jelas dibuat untuk efek komedi, tetapi terdengar sangat bagus.

Seiring dengan semakin baiknya dan semakin bebasnya alat-alat ini, situasi seperti yang dihadapi kepala sekolah di Baltimore akan semakin mempengaruhi politisi dan orang biasa. Jika Anda pernah mengirim pesan suara WhatsApp atau meninggalkan pesan di layanan telepon, maka Anda mungkin berikutnya. Atau, jika seseorang merekam Anda mengucapkan sesuatu yang canggung, Anda bisa saja mengatakan itu palsu oleh AI. Tampaknya tidak ada yang bisa membuktikannya dengan pasti.

View all comments

Write a comment