Laporan yang Dipesan oleh AS Menyatakan AI Berpotensi Membawa Ancaman Kepunahan yang Besar
US-commissioned report says AI poses “extinction-level threat” https://dailyai.com/2024/03/us-commissioned-report-says-ai-poses-extinction-level-threat/

By Sang Ruh 15 Mar 2024, 08:46:12 WIB | 👁 84 Programming
 Laporan yang Dipesan oleh AS Menyatakan AI Berpotensi Membawa Ancaman Kepunahan yang Besar

Keterangan Gambar : Laporan yang Dipesa


Sebuah laporan yang dipesan oleh pemerintah AS menyatakan bahwa langkah-langkah keamanan dan kebijakan baru terkait kecerdasan buatan (AI) diperlukan untuk mencegah "ancaman kepunahan bagi spesies manusia."

Laporan tersebut, yang tersedia atas permintaan, disusun oleh Gladstone AI, sebuah perusahaan yang didirikan pada tahun 2022 yang fokus pada memberikan saran kepada departemen pemerintah AS mengenai peluang dan risiko AI. Laporan tersebut berjudul "Rencana Aksi untuk Meningkatkan Keamanan dan Keamanan AI Lanjutan", memakan waktu satu tahun untuk diselesaikan dan didanai dengan $250.000 uang federal.

Laporan tersebut berfokus pada risiko-risiko katasrofik dari AI lanjutan dan mengusulkan rencana aksi komprehensif untuk menguranginya. Para penulis laporan tersebut jelas tidak sepakat dengan pandangan yang lebih santai dari Yann LeCun mengenai ancaman AI.

Laporan tersebut menyatakan "Munculnya AI lanjutan dan AGI [kecerdasan buatan umum] memiliki potensi untuk mengganggu keamanan global dengan cara yang mengingatkan pada pengenalan senjata nuklir."

Dua kategori risiko utama yang dibahas adalah pengweaponan AI yang disengaja, dan konsekuensi tidak disengaja dari AGI yang menjadi liar.

Untuk mencegah hal-hal tersebut terjadi, laporan tersebut menyediakan rencana aksi yang terdiri dari lima garis usaha yang harus diterapkan oleh pemerintah AS.

Berikut versi singkatnya:

Garis Usaha 1 – Mendirikan observatorium AI untuk pemantauan yang lebih baik terhadap lanskap AI. Mendirikan tim tugas untuk menetapkan aturan untuk pengembangan dan adopsi AI yang bertanggung jawab. Menggunakan pembatasan rantai pasokan untuk mendorong kesesuaian pemain industri AI internasional.

Garis Usaha 2 – Meningkatkan kesiapan untuk respons insiden AI lanjutan. Mengkoordinasikan kelompok kerja antar lembaga, pendidikan AI pemerintah, kerangka kerja peringatan dini untuk mendeteksi ancaman AI yang muncul, dan rencana kontingensi berbasis skenario.

Garis Usaha 3 – Laboratorium AI lebih fokus pada pengembangan AI daripada keselamatan AI. Pemerintah AS perlu mendanai penelitian keselamatan dan keamanan AI lanjutan, termasuk dalam bidang keselarasan AGI yang dapat ditingkatkan.

Mengembangkan standar keselamatan dan keamanan untuk pengembangan dan adopsi AI yang bertanggung jawab.

Garis Usaha 4 – Mendirikan "badan regulasi AI dengan kekuatan pembuatan aturan dan lisensi."

Mendirikan kerangka tanggung jawab sipil dan pidana untuk mencegah "konsekuensi berskala senjata pemusnah, termasuk "kekuatan darurat untuk memungkinkan respons cepat terhadap ancaman yang bergerak cepat."

Garis Usaha 5 – Mendirikan rezim perlindungan AI dalam hukum internasional, dan mengamankan rantai pasokan. Mendorong "konsensus internasional" mengenai risiko AI dengan perjanjian AI yang ditegakkan oleh PBB atau "badan AI internasional".

Secara ringkas, AI bisa sangat berbahaya sehingga kita memerlukan banyak hukum untuk mengontrolnya.

Laporan tersebut menyatakan bahwa model open-source AI lanjutan adalah ide buruk dan bahwa pemerintah AS seharusnya mempertimbangkan untuk membuat ilegal untuk melepaskan bobot model AI di bawah ancaman penjara.

Jika terdengar agak alarmis dan keras bagi Anda, maka Anda tidak sendirian. Laporan tersebut mendapat kritik karena kurangnya ketelitian ilmiah.

Menurut TIME, AI open source akan menyebabkan "peristiwa kepunahan bagi manusia" ????

pertama-tama, klaim yang sangat bodoh. tetapi jika Anda benar-benar ingin memakai topi aluminium Anda, AI sumber tertutup lebih mungkin menyebabkan hal ini

Kebenaran tentang risiko yang ditimbulkan oleh AI lanjutan bagi umat manusia mungkin terletak di antara, "Kita semua akan mati!", dan "Tidak perlu khawatir."

Halaman 33 dari survei AI yang dirujuk oleh laporan memberikan beberapa contoh menarik tentang bagaimana model AI memanipulasi sistem dan menipu operator untuk mencapai tujuan yang mereka dirancang untuk dioptimalkan.

Ketika model AI sudah memanfaatkan celah untuk mencapai tujuan, sulit untuk menolak kemungkinan model AI super cerdas di masa depan melakukan hal yang sama. Dan dengan biaya apa?

Anda dapat membaca ringkasan eksekutif laporan di sini.

View all comments

Write a comment