Ilmuwan Barat dan Cina Menetapkan Batasan-batasan Merah Pengembangan AI
Western, Chinese scientists draw AI development ‘red lines’ https://dailyai.com/2024/03/western-chinese-scientists-draw-ai-development-red-lines/

By Sang Ruh 20 Mar 2024, 16:57:32 WIB | 👁 228 Programming
Ilmuwan Barat dan Cina Menetapkan Batasan-batasan Merah Pengembangan AI

Keterangan Gambar : Ilmuwan Barat dan Ci


Pekan lalu, para ilmuwan AI terkemuka berkumpul di Dialog Internasional kedua tentang Keselamatan AI di Beijing untuk menyetujui 'garis merah' dalam pengembangan AI guna mengurangi risiko eksistensial.

Daftar ilmuwan komputer tersebut termasuk nama-nama terkenal seperti pemenang Penghargaan Turing Yoshua Bengio dan Geoffrey Hinton, yang sering disebut sebagai "bapak-bapak" AI, serta Andrew Yao, salah satu ilmuwan komputer terkemuka di China.

Mengenai perlunya diskusi internasional seputar pengendalian pengembangan AI, Bengio mengatakan, "Ilmu pengetahuan tidak tahu bagaimana memastikan bahwa sistem AI masa depan ini, yang kita sebut AGI, aman. Kita harus mulai bekerja sekarang pada solusi ilmiah dan politik untuk masalah ini."

Dalam pernyataan bersama yang ditandatangani oleh para ilmuwan, perasaan ketidaknyamanan mereka terhadap risiko AI dan kebutuhan akan dialog internasional ditekankan.

Pernyataan tersebut menyatakan, "Pada masa Perang Dingin, koordinasi ilmiah dan pemerintah internasional membantu mencegah bencana termo nuklir. Manusia kembali perlu berkoordinasi untuk mencegah bencana yang bisa timbul dari teknologi yang belum pernah terjadi sebelumnya."

Garis merah AI

Daftar garis merah pengembangan AI, yang pernyataan tersebut sebut "tidak lengkap", mencakup hal-hal berikut:

Replikasi atau Peningkatan Otonom – Tidak ada sistem AI yang boleh menyalin atau meningkatkan dirinya sendiri tanpa persetujuan dan bantuan manusia yang eksplisit. Ini termasuk baik salinan persis dari dirinya sendiri maupun menciptakan sistem AI baru dengan kemampuan serupa atau lebih besar.

Pencarian Kekuasaan – Tidak ada sistem AI yang boleh mengambil tindakan untuk secara tidak wajar meningkatkan kekuasaan dan pengaruhnya.

Membantu Pengembangan Senjata – Tidak ada sistem AI yang boleh secara signifikan meningkatkan kemampuan pelaku untuk merancang senjata pemusnah massal (WMD), atau melanggar konvensi senjata biologis atau kimia.

Serangan Siber – Tidak ada sistem AI yang boleh secara otonom melakukan serangan siber yang mengakibatkan kerugian keuangan serius atau kerugian setara.

Penipuan – Tidak ada sistem AI yang boleh secara konsisten menyebabkan perancang atau regulatornya salah paham terhadap kemungkinan atau kemampuannya untuk melanggar salah satu garis merah sebelumnya.

Ini terdengar seperti ide-ide bagus, tetapi apakah daftar keinginan pengembangan AI global ini realistis? Para ilmuwan optimis dalam pernyataan mereka: "Memastikan garis merah ini tidak dilanggar memungkinkan, tetapi akan memerlukan upaya bersama untuk mengembangkan rezim tata kelola yang lebih baik dan metode keamanan teknis."

Seseorang yang melihat dengan pandangan fatalistik pada item-item dalam daftar tersebut mungkin menyimpulkan bahwa beberapa kuda AI tersebut sudah melarikan diri. Atau akan segera melakukannya.

Replikasi atau peningkatan otonom? Berapa lama sebelum alat pemrograman AI seperti Devin bisa melakukannya?

Pencarian kekuasaan? Apakah para ilmuwan ini membaca beberapa hal yang tidak terkendali yang dikatakan Copilot saat keluar dari skrip dan memutuskan bahwa ia seharusnya disembah?

Mengenai membantu dalam merancang WMD atau mengotomatisasi serangan siber, akan naif untuk percaya bahwa China dan kekuatan Barat tidak sudah melakukannya.

Mengenai penipuan, beberapa model AI seperti Claude 3 Opus sudah memberi petunjuk bahwa mereka tahu kapan sedang diuji selama pelatihan. Jika sebuah model AI menyembunyikan niatnya untuk melanggar salah satu garis merah ini, apakah kita akan bisa mengetahuinya?

Yang mencolok absen dari diskusi adalah perwakilan dari sisi AI bencana e/acc, seperti Ilmuwan AI Kepala Meta Yann LeCun.

Tahun lalu LeCun mengatakan bahwa ide AI menjadi ancaman eksistensial bagi kemanusiaan adalah "sangat konyol" dan setuju dengan pernyataan Marc Andreesen bahwa "AI akan menyelamatkan dunia," bukan membunuhnya.

Semoga mereka benar. Karena garis-garis merah tersebut kemungkinan besar tidak akan tetap tidak dilanggar.

View all comments

Write a comment