- Tersangka Kasus Pelecehan Seksual Anak Ditemukan di Lumajang, Melibatkan Seorang Guru Honorer
- Kecelakaan Bus Ladju di Lumajang Akibat Sopir Meninggal Mendadak, Menabrak Pohon dan Masuk ke Pekarangan Warga
- Dukungan Terhadap Ranupani untuk Menjadi Desa Tangguh Bencana oleh Komisi B DPRD Lumajang
- Sosialisasi Sanitasi Aman di Lumajang: Penekanan pada Pentingnya Penyedotan Tinja Secara Berkala
- Penutupan Musim Tanam 2025 di Gunung Lemongan Lumajang Melalui Do'a Lintas Iman
- Pria di Lumajang Dilaporkan ke Polisi Terkait Dugaan Penipuan Gadai Mobil
- Selokambang: Ruang Pemulihan Alami yang Menjadi Tujuan Wisata Baru
- Warga Sumberwuluh Tingkatkan Kewaspadaan dan Kerja Sama Hadapi Ancaman Tanggul Terkikis oleh Lahar Dingin
- Operasi Pencarian Korban Kecelakaan Laut di Pantai Bambang Berakhir
- Pembentukan Desa Tangguh Bencana di Ranupani oleh BPBD Resmi Dilaksanakan
AI Sekaratkan Percakapan Audio dengan Kemampuannya
IBM Security shows how AI can hijack audio conversations https://dailyai.com/2024/02/ibm-security-shows-how-ai-can-hijack-audio-conversations/

Keterangan Gambar : AI Sekaratkan Percak
IBM Security telah mempublikasikan penelitian mereka di blog Security Intelligence untuk menunjukkan bagaimana klon suara AI dapat disisipkan ke dalam percakapan langsung tanpa peserta menyadarinya. Seiring dengan peningkatan teknologi klon suara, kita telah melihat panggilan palsu yang mengaku sebagai Joe Biden dan panggilan penipuan yang berpura-pura menjadi anggota keluarga yang membutuhkan uang.
Audio dalam panggilan-panggilan ini terdengar bagus, namun panggilan penipuan seringkali dapat dicegah dengan mudah dengan mengajukan beberapa pertanyaan pribadi untuk mengidentifikasi penelepon sebagai penipu. Dalam serangan konsep bukti lanjutan mereka, para peneliti keamanan IBM Security menunjukkan bahwa LLM yang dipasangkan dengan klon suara dapat bertindak sebagai man-in-the-middle untuk mencuri hanya bagian penting dari percakapan, bukan seluruh panggilan.
Serangan ini dapat disampaikan melalui malware yang terpasang di ponsel korban atau layanan Voice over IP (VoIP) yang terkompromi. Setelah terpasang, program tersebut memantau percakapan dan hanya memerlukan 3 detik audio untuk dapat mengkloning kedua suara.
Generator ucapan-ke-teks memungkinkan LLM untuk memantau percakapan untuk memahami konteks pembicaraan. Program tersebut diinstruksikan untuk meneruskan audio percakapan apa adanya tetapi memodifikasi audio panggilan ketika seseorang meminta rincian rekening bank.
Ketika orang tersebut merespons untuk memberikan rincian rekening bank mereka, klon suara memodifikasi audio untuk memberikan rincian bank penipu. Latensi dalam audio selama modifikasi ditutupi dengan beberapa ucapan pengisi.
Karena LLM meneruskan audio yang tidak dimodifikasi untuk sebagian besar panggilan, sangat sulit untuk mengetahui bahwa ancaman sedang terjadi. Para peneliti mengatakan bahwa serangan yang sama "juga dapat memodifikasi informasi medis, seperti golongan darah dan alergi dalam percakapan; dapat memerintahkan seorang analis untuk menjual atau membeli saham; dapat memerintahkan seorang pilot untuk mengalihkan rute."
Para peneliti mengatakan bahwa "membangun PoC ini sangat mudah dan menakutkan." Ketika intonasi dan emosi klon suara meningkat dan ketika perangkat keras yang lebih baik mengurangi latensi, jenis serangan seperti ini akan sangat sulit dideteksi atau dicegah.
Memperluas konsep di luar mencuri percakapan audio, para peneliti mengatakan bahwa dengan "model-model yang ada yang dapat mengonversi teks menjadi video, secara teoritis memungkinkan untuk menyusup ke video yang ditayangkan langsung, seperti berita di TV, dan menggantikan konten asli dengan yang dimanipulasi."
Mungkin lebih aman untuk hanya percaya pada mata dan telinga Anda ketika Anda berada di dekat fisik dari orang yang Anda ajak bicara.