Studi Menantang Narasi Ancaman AI yang Mengancam Keberadaan
Study challenges the narrative of AI posing an ‘existential threat’ https://dailyai.com/2024/08/study-challenges-the-narrative-of-ai-posing-an-existential-threat/

By Sang Ruh 15 Agu 2024, 16:40:02 WIB | 👁 34 Programming
Studi Menantang Narasi Ancaman AI yang Mengancam Keberadaan

Keterangan Gambar : Studi Menantang Nara


Apakah AI Berisiko atau Tidak?

Debat mengenai risiko AI terus berlanjut. Peneliti dari Universitas Bath dan Universitas Teknik Darmstadt meluncurkan sebuah studi untuk mengevaluasi risiko AI dalam konteks model bahasa saat ini. Temuan yang dipublikasikan dalam pertemuan tahunan ke-62 Asosiasi Linguistik Komputasional (ACL 2024) menantang pandangan bahwa AI, khususnya model bahasa besar (LLM) seperti ChatGPT, dapat berkembang di luar kendali manusia dan menjadi ancaman eksistensial bagi umat manusia.

Pandangan ini bertentangan dengan kekhawatiran yang diungkapkan oleh beberapa peneliti AI terkemuka, termasuk Geoffrey Hinton dan Yoshua Bengio, yang menyampaikan kekhawatiran tentang bahaya potensial dari AI yang canggih. Di sisi lain, Yann LeCun, salah satu "bapak AI" dan kepala ilmuwan AI di Meta, bersama Dr. Gary Marcus dan lainnya, berargumen bahwa risiko AI sebenarnya terlalu dibesar-besarkan. Perbedaan pendapat di antara tokoh-tokoh berpengaruh di bidang ini telah memicu perdebatan sengit tentang sifat dan tingkat risiko yang ditimbulkan oleh sistem AI yang maju.

Studi baru ini menyelidiki "kemampuan muncul" LLM, yaitu kemampuan model untuk melakukan tugas yang tidak secara eksplisit diajarkan. Risiko AI bersifat multifaset, tetapi beberapa di antaranya terkait dengan kemungkinan model mengembangkan tujuan sendiri yang dapat membahayakan manusia, seperti mematikan sistem komputer atau membocorkan data. Kekhawatirannya adalah bahwa LLM mungkin secara spontan mengembangkan keterampilan ini tanpa instruksi atau kontrol.

Untuk menyelidiki hal ini, tim peneliti melakukan serangkaian eksperimen:

  1. Mereka memeriksa mekanisme dasar "pembelajaran dalam konteks" (ICL) pada LLM, yang memungkinkan model menghasilkan respons berdasarkan contoh yang diberikan selama interaksi. Studi ini menyatakan, "Kemampuan untuk mengikuti instruksi tidak berarti memiliki kemampuan penalaran, dan lebih penting lagi, tidak berarti kemungkinan adanya kemampuan berbahaya yang tersembunyi."

  2. Mereka menilai kemampuan dan batasan sebenarnya dari LLM dengan mengevaluasi kinerja mereka dalam berbagai tugas, termasuk yang memerlukan penalaran kompleks dan keterampilan pemecahan masalah. Peneliti berargumen bahwa LLM tidak dapat secara mandiri mengembangkan keterampilan baru.

  3. Mereka menganalisis hubungan antara ukuran model, data pelatihan, dan kemampuan muncul untuk menentukan apakah peningkatan kompleksitas model menyebabkan AI mengembangkan keterampilan berbahaya.

Peneliti menyimpulkan bahwa "narasi yang berlaku bahwa jenis AI ini merupakan ancaman bagi umat manusia menghalangi adopsi dan pengembangan teknologi ini secara luas serta mengalihkan perhatian dari isu-isu nyata yang memerlukan fokus kita."

Meskipun mengevaluasi risiko yang ditimbulkan oleh model AI saat ini sangat penting, memperhitungkan masa depan adalah tugas yang lebih sulit. Setiap generasi model membawa kemampuan baru dan, oleh karena itu, risiko baru. Penelitian lebih lanjut harus fokus pada risiko lain yang ditimbulkan oleh model, seperti potensi mereka untuk digunakan dalam menghasilkan berita palsu. Meskipun AI saat ini tidak menimbulkan ancaman besar, masalah keamanan tetap menjadi isu yang perlu diperhatikan.

View all comments

Write a comment