- Penangkapan Lima Tersangka Kasus Ganja oleh Satresnarkoba di Lumajang
- Proyek Pembangunan Pasar Agropolitan di Gerbang Wisata Senduro Lumajang Hampir Rampung
- Pelantikan Resmi Indah-Yudha, Janji Mewujudkan Pemerintahan Lumajang Tanpa Korupsi
- Pengaktifan Kembali KUD di Lumajang untuk Memperkuat Perekonomian Desa
- Persiapan Mencetak Generasi Emas oleh Lembaga Parenting di Lumajang
- Aliansi BEM se-Lumajang Protes Program Efisiensi yang Dinilai Tidak Memenuhi Kebutuhan Dasar di DPRD
- Begal Mengintai di Klakah Lumajang Saat Hujan Turun
- Cek Kesehatan Gratis Dimulai di Lumajang, Simak Keuntungannya
- Dukungan Terhadap Penerapan P3K Paruh Waktu di Pemkab Lumajang dari Komisi A DPRD
- Wisuda Akbar Seribu Santri Madin Digelar di Pendopo Arya Wiraraja oleh FKDT Lumajang
Kenaikan dividen pembohong karena deep fake AI terus meresahkan.
The rise of “liar’s dividend” as AI deep fakes continue to trouble https://dailyai.com/2024/01/the-rise-of-liars-dividend-as-ai-generated-deep-fakes-continue-to-trouble/

Keterangan Gambar : Kenaikan dividen pem
Peringatan Mengenai Deep Fake dan Dampaknya terhadap Kebenaran
Saat ini, kita tengah menuju pemilihan penting di tahun ini, terutama Pemilu AS, dan kita menyaksikan kemunculan bahaya dari manipulasi informasi yang menggunakan teknologi deep fake, yang disebut sebagai "dividen pembohong."
Deep fake merujuk kepada hasil produksi kecerdasan buatan yang sangat realistis dalam bentuk audio, video, atau gambar.
Sudah banyak contoh dampak deep fake terhadap masyarakat, mulai dari gambar AI yang menggambarkan Pentagon yang berdampak nyata pada bursa saham tahun lalu, hingga suara rekaman robot yang meniru Presiden Biden pekan ini.
Namun, deep fake tidak hanya bermanfaat untuk memanipulasi kebenaran - tetapi juga sangat efektif untuk menolak kebenaran itu sendiri. Hal ini disebut sebagai "dividen pembohong," yang menggambarkan manfaat seseorang dari mengklaim konten otentik sebagai palsu.
Sebagai contoh, Presiden sebelumnya Donald Trump menuduh bahwa iklan Fox News yang menampilkan kesalahan umumnya tahun lalu sebagai hasil produksi AI.
Namun, proyek Lincoln kemudian membantah klaim Trump, dengan menunjukkan bahwa video tersebut berisi kejadian-kejadian yang terdokumentasi dengan baik dari masa kepresidenannya.
Analisis dari penyedia data Graphika, Libby Lange, menegaskan kekhawatiran akan dividen pembohong ini, menyatakan bahwa "AI mengganggu konsep kebenaran itu sendiri. Jika segala sesuatu bisa dipalsukan, dan jika semua orang mengklaim segala sesuatu adalah palsu atau dimanipulasi dengan cara tertentu, maka tidak ada kebenaran yang pasti."
Di berbagai belahan dunia, politisi kini sering menggunakan AI sebagai kambing hitam untuk menolak kebenaran. Sebagai contoh, sebuah video kontroversial dari seorang politisi Taiwan yang menyarankan hubungan gelap cepat dianggap sebagai mungkin hasil produksi AI.
Demikian pula, seorang politisi di negara bagian India, Tamil Nadu, menolak sebuah rekaman audio yang bocor sebagai "dibuat oleh mesin," meskipun keasliannya masih belum pasti.
Kita juga melihat adanya deep fake mengenai kejahatan perang di Israel, Palestina, dan Ukraina, seperti gambar bayi yang terbakar, yang dibagikan oleh Ben Shapiro kepada jutaan pengikutnya sebelum akhirnya diklarifikasi sebagai palsu.
Tidak hanya di ranah politik, contoh-contoh lain juga ada, seperti klip suara yang diduga berasal dari seorang kepala sekolah di Baltimore County yang membuat pernyataan rasial. Klaim bahwa klip tersebut dihasilkan oleh AI sulit dikonfirmasi tanpa konteks lebih lanjut.
Meskipun perdebatan mengenai deep fake menjadi topik hangat di World Economic Forum baru-baru ini, upaya untuk mengatasi masalah ini hingga saat ini belum memadai. Perusahaan teknologi sedang menyelidiki cara untuk secara otomatis memverifikasi konten AI, namun hanya ahli yang mampu dengan dapat memastikan keaslian dari media yang terbentuk dari kecerdasan buatan.
Bahkan para ahli pun kadang-kadang salah, karena terdapat kasus di mana detektor AI mengenai kesimpulan kontroversial mengenai keaslian sebuah gambar.
Bayangkan jika gambar-gambar tersebut kemudian "resmi" diklasifikasikan sebagai asli atau palsu, dan keputusan ini ternyata salah - bisa jadi hal tersebut akan menimbulkan kekacauan yang sangat serius.