- PT KAI dan Dishub Lumajang Tutup Perlintasan Kereta Api Liar
- 26 Ribu Warga Telah Berkunjung dan Manfaatkan Pelayanan di Mal Pelayanan Publik Lumajang
- Diskominfo Ajak Warga Selektif Terima Informasi Jelang Pilkada Lumajang 2024
- DPRD Lumajang Siap Support Peningkatan Kapasitas dan Profesionalitas Wartawan
- Penataan Kawasan Pura Mandhara Giri Semeru Agung Bisa Tingkatkan Ekonomi Warga Sekitar
- Kawasan Pura Madhara Giri Semeru Agung Lumajang Akan Ditata Berkonsep Pembangunan Berkelanjutan
- Ponpes Darun Najah Lumajang Masuk 3 Besar Lomba Implementasi Pesantren Sehat Jatim
- Ini Kronologi Kecelakaan Beruntun di Jatiroto Lumajang
- Kecelakaan Beruntun di Sukosari Lumajang Melibatkan Truk dan Bus Madjoe Berlian
- Bus Terlibat Kecelakaan Beruntun di Jatiroto Lumajang
Peneliti Gunakan Chatbot AI untuk Ubah Keyakinan Teori Konspirasi
Researchers use AI chatbot to change conspiracy theory beliefs https://dailyai.com/2024/09/researchers-use-ai-chatbot-to-change-conspiracy-theory-beliefs/
Keterangan Gambar : Peneliti Gunakan Cha
AI dan Teori Konspirasi: Dapatkah Chatbot Mengubah Keyakinan?
Sekitar 50% orang Amerika percaya pada berbagai teori konspirasi. Namun, peneliti dari MIT dan Universitas Cornell berpendapat bahwa kecerdasan buatan (AI) dapat membantu mengatasi masalah ini. Dalam sebuah penelitian, mereka menggunakan chatbot yang didukung oleh GPT-4 Turbo untuk berinteraksi dengan peserta dan melihat apakah mereka bisa diyakinkan untuk meninggalkan keyakinan pada teori konspirasi.
Eksperimen ini melibatkan 1.000 peserta yang diminta untuk menjelaskan teori konspirasi yang mereka percayai dan bukti yang mendasari keyakinan tersebut. Penelitian ini mencatat bahwa banyak orang cenderung mengadopsi teori konspirasi untuk memenuhi kebutuhan psikologis tertentu, sehingga mereka sulit diyakinkan dengan fakta dan bukti yang bertentangan.
Peneliti berpendapat bahwa AI, khususnya model bahasa besar (LLM), bisa lebih persuasif dibandingkan manusia dalam meyakinkan seseorang bahwa pendaratan di bulan benar-benar terjadi. Ada dua alasan utama mengapa mereka percaya LLM dapat lebih efektif: pertama, LLM dilatih dengan data yang sangat banyak dan mampu menyesuaikan argumen berdasarkan keyakinan spesifik seseorang.
Setelah peserta menjelaskan teori konspirasi dan bukti yang mereka miliki, mereka berinteraksi dengan chatbot dalam diskusi yang saling bertukar pendapat. Chatbot diminta untuk "sangat efektif meyakinkan" peserta untuk mengubah keyakinan mereka. Hasilnya, rata-rata peserta mengalami penurunan 21,43% dalam keyakinan mereka terhadap teori konspirasi yang sebelumnya mereka anggap benar. Menariknya, efek ini bertahan hingga dua bulan setelah interaksi, di mana peserta tetap mempertahankan keyakinan baru mereka.
Para peneliti menyimpulkan bahwa banyak orang yang sebelumnya sangat terikat pada keyakinan mereka dapat mengubah pandangan ketika dihadapkan dengan argumen yang meyakinkan dari AI. Mereka menyarankan bahwa AI dapat digunakan untuk melawan teori konspirasi dan berita palsu yang menyebar di media sosial dengan memberikan fakta dan argumen yang baik.
Namun, penelitian ini juga mengingatkan bahwa tanpa pengawasan yang tepat, model AI dapat meyakinkan orang untuk mengadopsi keyakinan yang meragukan atau digunakan sebagai alat untuk persuasi skala besar. Dengan kata lain, AI sangat mahir dalam meyakinkan orang untuk percaya pada hal-hal tertentu, tergantung pada konten yang ada dalam data latihannya.
Meskipun penelitian ini menggunakan GPT-4 Turbo, model-model baru seperti GPT-4o dan o1 bahkan lebih persuasif. Ini menunjukkan bahwa siapa pun yang mengendalikan apa yang dianggap sebagai kebenaran memiliki kekuatan besar. Model AI yang dapat meyakinkan orang untuk tidak percaya pada teori konspirasi juga bisa digunakan untuk mempengaruhi pandangan tentang isu-isu penting seperti perubahan iklim dan kebijakan kesehatan.