Kenaikan dividen pembohong karena deep fake AI terus meresahkan.
The rise of “liar’s dividend” as AI deep fakes continue to trouble https://dailyai.com/2024/01/the-rise-of-liars-dividend-as-ai-generated-deep-fakes-continue-to-trouble/

By Sang Ruh 24 Jan 2024, 07:55:56 WIB | 👁 226 Programming
Kenaikan dividen pembohong karena deep fake AI terus meresahkan.

Keterangan Gambar : Kenaikan dividen pem


Peringatan Mengenai Deep Fake dan Dampaknya terhadap Kebenaran

Saat ini, kita tengah menuju pemilihan penting di tahun ini, terutama Pemilu AS, dan kita menyaksikan kemunculan bahaya dari manipulasi informasi yang menggunakan teknologi deep fake, yang disebut sebagai "dividen pembohong."

Deep fake merujuk kepada hasil produksi kecerdasan buatan yang sangat realistis dalam bentuk audio, video, atau gambar.

Sudah banyak contoh dampak deep fake terhadap masyarakat, mulai dari gambar AI yang menggambarkan Pentagon yang berdampak nyata pada bursa saham tahun lalu, hingga suara rekaman robot yang meniru Presiden Biden pekan ini.

Namun, deep fake tidak hanya bermanfaat untuk memanipulasi kebenaran - tetapi juga sangat efektif untuk menolak kebenaran itu sendiri. Hal ini disebut sebagai "dividen pembohong," yang menggambarkan manfaat seseorang dari mengklaim konten otentik sebagai palsu.

Sebagai contoh, Presiden sebelumnya Donald Trump menuduh bahwa iklan Fox News yang menampilkan kesalahan umumnya tahun lalu sebagai hasil produksi AI.

Namun, proyek Lincoln kemudian membantah klaim Trump, dengan menunjukkan bahwa video tersebut berisi kejadian-kejadian yang terdokumentasi dengan baik dari masa kepresidenannya.

Analisis dari penyedia data Graphika, Libby Lange, menegaskan kekhawatiran akan dividen pembohong ini, menyatakan bahwa "AI mengganggu konsep kebenaran itu sendiri. Jika segala sesuatu bisa dipalsukan, dan jika semua orang mengklaim segala sesuatu adalah palsu atau dimanipulasi dengan cara tertentu, maka tidak ada kebenaran yang pasti."

Di berbagai belahan dunia, politisi kini sering menggunakan AI sebagai kambing hitam untuk menolak kebenaran. Sebagai contoh, sebuah video kontroversial dari seorang politisi Taiwan yang menyarankan hubungan gelap cepat dianggap sebagai mungkin hasil produksi AI.

Demikian pula, seorang politisi di negara bagian India, Tamil Nadu, menolak sebuah rekaman audio yang bocor sebagai "dibuat oleh mesin," meskipun keasliannya masih belum pasti.

Kita juga melihat adanya deep fake mengenai kejahatan perang di Israel, Palestina, dan Ukraina, seperti gambar bayi yang terbakar, yang dibagikan oleh Ben Shapiro kepada jutaan pengikutnya sebelum akhirnya diklarifikasi sebagai palsu.

Tidak hanya di ranah politik, contoh-contoh lain juga ada, seperti klip suara yang diduga berasal dari seorang kepala sekolah di Baltimore County yang membuat pernyataan rasial. Klaim bahwa klip tersebut dihasilkan oleh AI sulit dikonfirmasi tanpa konteks lebih lanjut.

Meskipun perdebatan mengenai deep fake menjadi topik hangat di World Economic Forum baru-baru ini, upaya untuk mengatasi masalah ini hingga saat ini belum memadai. Perusahaan teknologi sedang menyelidiki cara untuk secara otomatis memverifikasi konten AI, namun hanya ahli yang mampu dengan dapat memastikan keaslian dari media yang terbentuk dari kecerdasan buatan.

Bahkan para ahli pun kadang-kadang salah, karena terdapat kasus di mana detektor AI mengenai kesimpulan kontroversial mengenai keaslian sebuah gambar.

Bayangkan jika gambar-gambar tersebut kemudian "resmi" diklasifikasikan sebagai asli atau palsu, dan keputusan ini ternyata salah - bisa jadi hal tersebut akan menimbulkan kekacauan yang sangat serius.

View all comments

Write a comment