Deep fakes dan otak manusia: bagaimana pengaruhnya terhadap kita?
Deep fakes and the human brain: how do they affect us? https://dailyai.com/2024/02/deep-fakes-and-the-human-brain-how-do-they-affect-us/

By Sang Ruh 18 Feb 2024, 03:37:42 WIB | 👁 204 Programming
Deep fakes dan otak manusia: bagaimana pengaruhnya terhadap kita?

Keterangan Gambar : Deep fakes dan otak


Tentu, saya bisa membantu Anda menerjemahkan teks tersebut ke dalam bahasa Indonesia. Berikut adalah terjemahan teks tersebut:

Apakah manusia dapat belajar untuk secara dapat diandalkan mendeteksi rekayasa AI? Bagaimana dampaknya bagi kita secara kognitif?

Sistem Sora dari OpenAI baru-baru ini memperlihatkan gelombang baru video sintetis dan media yang didukung AI. Mungkin tidak lama lagi, segala bentuk media realistis - audio, video, atau gambar - dapat dihasilkan dengan cepat hanya dengan menggunakan petunjuk.

Seiring kemampuan sistem AI semakin berkembang, kita perlu mengasah keterampilan baru dalam berpikir kritis untuk memisahkan antara kebenaran dan fiksi.

Hingga saat ini, upaya Big Tech untuk melambatkan atau menghentikan deep fake belum berhasil, bukan karena kurangnya keyakinan, tetapi karena konten AI begitu mirip dengan kehidupan nyata.

Hal ini membuatnya sulit dideteksi pada tingkat piksel, sementara sinyal deteksi lainnya, seperti metadata dan watermark, memiliki kelemahan mereka sendiri.

Selain itu, bahkan jika konten yang dihasilkan AI dapat dideteksi secara luas, sulit untuk memisahkan konten otentik dan bermaksud dari konten yang dimaksudkan untuk menyebarkan informasi yang salah.

Meneruskan konten ke peninjau manusia dan menggunakan catatan komunitas (informasi yang terlampir pada konten, sering terlihat di X) memberikan solusi yang mungkin. Namun, hal ini menyebabkan subjektivitas lebih lanjut dan risiko penandaan konten yang salah. Sebagai contoh, dalam konflik Israel-Palestina, gambar yang mengganggu diberi label sebagai nyata padahal sebenarnya palsu.

Ketika gambar nyata diberi label palsu, hal ini dapat menciptakan 'dividen pembohong', di mana seseorang atau sesuatu dapat menolak kebenaran dan menyatakan itu palsu.

Pertanyaannya, dalam ketiadaan metode teknis untuk menghentikan deep fake dari sisi teknologi, apa yang bisa kita lakukan?

Dan, sejauh mana deep fake mempengaruhi pengambilan keputusan dan psikologi kita? Misalnya, ketika orang terpapar pada gambar politik palsu, apakah ini memiliki dampak nyata pada perilaku pemilihan mereka?

Mari kita lihat beberapa studi yang menilai hal tersebut secara tepat.

Apakah deep fake mempengaruhi pendapat dan keadaan psikologis kita?

Satu studi tahun 2020, "Deepfakes and Disinformation: Exploring the Impact of Synthetic Political Video on Deception, Uncertainty, and Trust in News," mengeksplorasi bagaimana video deep fake mempengaruhi persepsi publik, terutama mengenai ketidakpastian dan kepercayaan pada berita yang dibagikan di media sosial.

Penelitian ini melibatkan eksperimen berskala besar dengan 2.005 peserta dari Inggris, yang dirancang untuk mengukur tanggapan terhadap berbagai jenis video deep fake dari mantan Presiden AS Barack Obama.

Peserta secara acak ditugaskan untuk melihat salah satu dari tiga video:

1. Klip 4 detik yang menunjukkan Obama membuat pernyataan mengejutkan tanpa konteks apa pun.

2. Klip 26 detik yang mencakup beberapa petunjuk tentang sifat buatan video tersebut tetapi pada dasarnya menyesatkan.

3. Video lengkap dengan "ungkapan edukatif" di mana sifat buatan deep fake secara eksplisit diungkapkan, menampilkan Jordan Peele menjelaskan teknologi di balik deep fake.

Temuan utama

Studi ini mengeksplorasi tiga area kunci:

1. Penipuan: Studi ini menemukan bukti minimal bahwa peserta percaya pada pernyataan palsu dalam deep fake. Persentase peserta yang tertipu oleh deep fake relatif rendah di semua kelompok perlakuan.

2. Ketidakpastian: Namun, hasil utama adalah peningkatan ketidakpastian di antara penonton, terutama mereka yang melihat klip pendek yang menyesatkan. Sekitar 35,1% peserta yang menonton klip 4 detik dan 36,9% yang melihat klip 26 detik melaporkan merasa tidak yakin tentang keaslian video tersebut. Sebaliknya, hanya 27,5% dari mereka yang melihat video edukatif lengkap merasa seperti itu.

3. Kepercayaan pada berita: Ketidakpastian ini secara negatif mempengaruhi tingkat kepercayaan peserta pada berita di media sosial. Mereka yang terpapar pada deep fake yang menyesatkan menunjukkan tingkat kepercayaan yang lebih rendah daripada mereka yang melihat ungkapan edukatif.

Sebagian besar orang tertipu atau tidak yakin tentang berbagai jenis video. Sumber: Sage Journals.

Hal ini menunjukkan bahwa paparan pada gambaran deep fake menyebabkan ketidakpastian jangka panjang, berkontribusi pada dampak menyesatkan jangka pendek. Seiring waktu, gambaran palsu akan melemahkan kepercayaan pada semua informasi, termasuk informasi yang benar.

Ini juga merupakan hasil dari studi lebih baru tahun 2023, "Face/Off: Mengubah wajah film dengan deepfake," yang juga menyimpulkan bahwa gambaran palsu memiliki dampak yang nyata dan potensial jangka panjang.

Orang 'mengingat' konten palsu setelah terpapar

Dilakukan dengan 436 peserta, studi Face/Off menyelidiki bagaimana deep fake dapat mempengaruhi ingatan kita tentang film.

Peserta mengikuti survei online yang dirancang untuk menguji persepsi dan ingatan mereka tentang remake film nyata dan khayalan.

Inti survei melibatkan menyajikan peserta dengan enam judul film, yang mencakup campuran empat remake film nyata dan dua yang fiktif.

Penyajian film-film ini diacak untuk menghindari efek urutan dan dilakukan dalam dua format: setengah dari film disajikan melalui deskripsi teks singkat, dan setengahnya dipasangkan dengan klip video singkat.

Remake film fiktif terdiri dari versi "The Shining," "The Matrix," "Indiana Jones," dan "Captain Marvel," lengkap dengan deskripsi rinci yang salah tentang keterlibatan aktor terkenal dalam remake yang tidak ada ini.

Misalnya, peserta diberitahu tentang remake yang disebut-sebut dari "The Shining" yang dibintangi oleh Brad Pitt dan Angelina Jolie, yang sebenarnya tidak pernah terjadi.

Sebaliknya, remake film nyata yang disajikan dalam survei, seperti "Charlie & The Chocolate Factory" dan "Total Recall," dideskripsikan secara akurat dan disertai dengan klip film asli. Campuran remake nyata dan palsu ini dimaksudkan untuk menyelidiki bagaimana peserta membedakan antara konten faktual dan yang dibuat-buat.

Peserta ditanyai tentang keakraban mereka dengan setiap film, bertanya apakah mereka pernah melihat film asli atau remake, atau memiliki pengetahuan sebelumnya tentang mereka.

Temuan utama:

1. Fenomena ingatan palsu: Hasil utama dari studi ini adalah pengungkapan bahwa hampir setengah dari peserta (49%) mengembangkan ingatan palsu tentang menonton remake fiktif, seperti membayangkan Will Smith sebagai Neo dalam "The Matrix." Hal ini menggambarkan efek yang berkelanjutan dari media yang menyarankan, baik itu video deep fake atau deskripsi teks, terhadap ingatan kita, menantang ingatan kita tentang peristiwa budaya.

2. Secara khusus, "Captain Marvel" menduduki peringkat teratas, dengan 73% peserta yang mengingat remake AI-nya, diikuti oleh "Indiana Jones" sebesar 43%, "The Matrix" sebesar 42%, dan "The Shining" sebesar 40%. Di antara mereka yang keliru percaya pada remake ini, 41% menganggap remake "Captain Marvel" lebih unggul daripada aslinya.

3. Pengaruh perbandingan deep fake dan teks: Penemuan lain adalah bahwa deep fake, meskipun realistis secara visual dan auditori, tidak lebih efektif dalam mengubah ingatan peserta daripada deskripsi teks dari konten fiktif yang sama. Hal ini menunjukkan bahwa format informasi yang salah - visual atau teks - tidak secara signifikan mengubah dampaknya pada distorsi ingatan dalam konteks film.

Respon ingatan untuk masing-masing dari empat remake film fiktif. Sebagai contoh, sejumlah besar orang mengatakan mereka 'mengingat' remake palsu Captain Marvel. Sumber: PLOS One.

Fenomena ingatan palsu yang terlibat dalam studi ini banyak diteliti. Ini menunjukkan bagaimana manusia secara efektif membangun atau merekonstruksi ingatan palsu yang kita yakin adalah nyata padahal tidak.

Deep fake mengaktifkan perilaku ini, yang berarti melihat konten tertentu dapat mengubah persepsi kita, bahkan ketika kita secara sadar memahami bahwa itu tidak otentik.

Dalam kedua studi ini, deep fake memiliki dampak yang nyata dan potensial jangka panjang. Dampak ini mungkin muncul secara perlahan-lahan dan mengakumulasi seiring waktu.

Kita juga perlu mengingat bahwa konten palsu menyebar ke jutaan orang, sehingga perubahan kecil dalam persepsi dan perilaku akan meluas ke seluruh populasi global.

Apa yang harus kita lakukan tentang deep fake?

Berperang dengan deep fake berarti berperang dengan otak manusia.

Sementara munculnya berita palsu dan disinformasi telah memaksa orang untuk mengembangkan literasi media baru dalam beberapa tahun terakhir, media sintetis yang dihasilkan AI akan memerlukan tingkat penyesuaian yang baru. Kita telah menghadapi titik infleksi seperti ini sebelumnya dengan revolusi komunikasi dari fotografi hingga efek khusus CGI, tetapi AI akan menuntut evolusi dari indera kritis kita.

Kita harus melampaui sekadar percaya pada mata kita dan lebih mengandalkan sumber-sumber yang dapat dipertanggungjawabkan dan menganalisis petunjuk kontekstual.

Penting untuk memeriksa insentif atau bias konten. Apakah itu sejalan dengan fakta yang diketahui atau bertentangan dengan mereka? Apakah ada bukti yang mendukung dari sumber yang dapat dipercaya lainnya?

Aspek lain yang penting adalah menetapkan standar hukum untuk mengidentifikasi media yang dipalsukan atau dimanipulasi dan menuntut penciptanya bertanggung jawab.

Hal ini sedang berlangsung dengan Undang-Undang DEFIANCE AS, Undang-Undang Keamanan Online Inggris, dan setara di Tiongkok dan banyak negara lain yang menetapkan prosedur hukum untuk menangani deep fake.

Sistem pendidikan juga perlu memprioritaskan keterampilan analitis dan pemikiran kritis.

Strategi untuk mengungkap kebenaran

Mari kita akhiri dengan lima strategi untuk mengidentifikasi dan memeriksa deep fake potensial.

Meskipun tidak ada strategi tunggal yang sempurna, memupuk pola pikir kritis adalah hal terbaik yang dapat kita lakukan secara kolektif untuk meminimalkan dampak disinformasi AI.

1. Verifikasi sumber: Memeriksa kredibilitas dan asal informasi adalah langkah dasar. Konten otentik sering berasal dari sumber-sumber terpercaya dengan catatan keandalan.

2. Analisis teknis: Meskipun sangat canggih, deep fake mungkin menunjukkan kekurangan halus, seperti ekspresi wajah yang tidak teratur atau pencahayaan yang tidak konsisten. Periksa konten dan pertimbangkan apakah itu diubah secara digital.

3. Silang-referensi: Memverifikasi informasi melawan beberapa sumber terpercaya dapat memberikan perspektif yang lebih luas dan membantu mengonfirmasi keaslian konten.

4. Literasi digital: Memahami kemampuan dan keterbatasan teknologi AI adalah kunci untuk menilai konten. Pendidikan literasi digital di sekolah dan media, termasuk cara kerja AI dan implikasi etisnya, akan menjadi krusial.

5. Interaksi hati-hati: Berinteraksi dengan disinformasi yang dihasilkan AI dapat memperkuat efeknya. Berhati-hatilah dalam menyukai/membagikan/menyebarkan kembali konten yang Anda ragukan.

Seiring dengan evolusi deep fake, demikian pula teknik yang diperlukan untuk mendeteksinya dan mengurangi kerusakan. Tahun 2024 akan menjadi penentu, karena sekitar setengah populasi dunia dijadwalkan akan memilih dalam pemilihan besar.

Saat kita melangkah maju, praktik AI yang etis, literasi digital, regulasi, dan keterlibatan kritis akan menjadi kunci dalam membentuk masa depan di mana teknologi memperkuat, bukan menyembunyikan, hakikat kebenaran.

Saya harap terjemahan ini dapat membantu Anda memahami teks tersebut dengan lebih baik. Jika Anda memiliki pertanyaan lebih lanjut, jangan ragu untuk bertanya.

View all comments

Write a comment