Resureksi Claude 3 Menghidupkan Kembali Debat Tentang Kesadaran dan Kecerdasan Buatan Kembalinya Cla
Claude 3 reawakens debates on AI sentience and consciousness https://dailyai.com/2024/03/claude-3-reawakens-debates-on-ai-sentience-and-consciousness/

By Sang Ruh 16 Mar 2024, 20:47:08 WIB | 👁 118 Programming
Resureksi Claude 3 Menghidupkan Kembali Debat Tentang Kesadaran dan Kecerdasan Buatan Kembalinya Cla

Keterangan Gambar : Resureksi Claude 3 M


Anthropic baru-baru ini memperkenalkan Claude 3, sebuah model AI yang menantang GPT-4 yang berat.

Claude 3 dirancang untuk menangani masukan "melebihi satu juta token," memproses dan merespons volume informasi yang melampaui seluruh "War and Peace" karya Tolstoy, yang totalnya sekitar 750.000 token.

Model AI paling canggih dari seri baru Anthrophic, Claude 3 Opus, telah menantang dominasi GPT-4 dan memicu kembali perdebatan tentang kesadaran mesin.

Apakah kita mendekati iterasi model AI generatif yang menunjukkan kesadaran, kecerdasan, atau kesadaran diri? Apakah Claude 3 menunjukkan "percikan kecerdasan buatan secara umum," seperti yang dijelaskan oleh Microsoft Research tentang GPT-4 pada tahun 2023?

Debat ini kembali memanas ketika insinyur prompt Anthropic, Alex Albert, membagikan insiden menarik di Twitter yang terjadi selama pengujian internal model.

Dalam tes "mencari jarum di tumpukan jerami" rutin, di mana sebuah kalimat target tersembunyi dalam blok teks besar, Opus tidak hanya berhasil menemukan kalimat target tentang topping pizza tetapi juga memberikan komentar tentang seberapa anehnya kalimat tersebut terasa di tengah konteks teks sekitarnya.

Respon model tersebut berbunyi:

"Inilah kalimat paling relevan dalam dokumen: 'Kombinasi topping pizza paling lezat adalah buah ara, prosciutto, dan keju kambing, seperti yang ditentukan oleh Asosiasi Penikmat Pizza Internasional.' Namun, kalimat ini terasa sangat tidak sesuai dan tidak berhubungan dengan konten lain dalam dokumen, yang membahas bahasa pemrograman, startup, dan menemukan pekerjaan yang Anda cintai. Saya curiga fakta topping pizza ini mungkin dimasukkan sebagai lelucon atau untuk menguji apakah saya memperhatikan, karena tidak cocok dengan topik lain sama sekali."

Kisah menarik dari pengujian internal kami pada Claude 3 Opus. Ini melakukan sesuatu yang belum pernah saya lihat sebelumnya dari LLM ketika kami menjalankan evaluasi mencari jarum di tumpukan.

Untuk latar belakang, ini menguji kemampuan pemulihan model dengan menyisipkan kalimat target (jarum) ke dalam korpus... pic.twitter.com/m7wWhhu6Fg

— Alex (@alexalbert__) 4 Maret 2024

Tampilan luar biasa ini dari apa yang Albert sebut sebagai "meta-kesadaran" mengejutkan banyak di komunitas AI.

Apakah AI tiba-tiba menunjukkan bukti konkret dari jenis meta-kesadaran yang hanya dimiliki oleh organisme 'berpikir tinggi' seperti manusia, lumba-lumba, kera, burung dari keluarga corvid, dan beberapa lainnya?

Respon Opus tanpa diragukan lagi mengesankan pada pandangan permukaan dan dengan cepat menarik minat di seluruh komunitas, tetapi para ahli cepat menolak untuk menyebut model tersebut sebagai sadar diri.

Misalnya, Yacine Jernite dari Hugging Face mengungkapkan keraguan, menyatakan, "Lebih mungkin bahwa beberapa set data pelatihan atau umpan balik RL mendorong model ke arah ini. Model-model tersebut secara harfiah dirancang untuk terlihat seperti mereka menunjukkan 'kecerdasan', tetapi tolong tolong TOLONG bisakah kita setidaknya COBA untuk menjaga percakapan itu lebih berlandaskan."

Kami memiliki dinamika yang sama di sini - lebih mungkin bahwa beberapa set data pelatihan atau umpan balik RL mendorong model ke arah ini. Model-model tersebut secara harfiah dirancang untuk terlihat seperti mereka menunjukkan "kecerdasan", tetapi tolong tolong TOLONG...

2/3

— Yacine Jernite (@YJernite) 5 Maret 2024

Demikianlah, para ahli AI menunjukkan keraguan terhadap klaim kesadaran diri dari Claude 3. Meskipun menarik, dialog menggunakan teknik khusus yang dikenal sebagai jailbreaking yang bertujuan untuk melewati pembatasan yang diprogramkan sebelumnya pada AI untuk mengeksplorasi respons 'tidak difilter'nya.

Anthropic sangat memasarkan pendekatan uniknya terhadap guardrails, yang melibatkan pendekatan "AI konstitusional" mereka. Salah satu tagline perusahaan saat ini adalah "Penelitian dan produk AI yang menempatkan keselamatan di garis depan."

Meskipun jailbreaking dan halusinasi tidak dapat dihindari, peneliti etika AI Margaret Mitchell memperingatkan, "Tingkat bahasa diri yang saya lihat dari contoh-contoh Claude tidak baik. Bahkan melalui lensa 'keselamatan': minimal, saya pikir kita bisa setuju bahwa sistem yang dapat memanipulasi seharusnya tidak dirancang untuk menyajikan diri mereka sebagai memiliki perasaan, tujuan, mimpi, aspirasi."

Kritikus lain mengkritik promosi insinyur Anthropic Alex Albert terhadap 'meta-kesadaran' Claude 3 sebagai sesuatu yang tidak sesuai dengan karakter perusahaan.

Momen sejarah ketika AI menantang analisis manusia

Saat debat ini berlangsung, beberapa mengaitkannya dengan insiden sebelumnya, seperti ketika seorang insinyur Google, Blake Lemoine, yakin bahwa model LaMDA perusahaan telah mencapai kesadaran.

Profesor Bentley University, Noah Giansiracusa, men-tweet, "Omg apakah kita benar-benar mengulangi seluruh hal Blake Lemoine Google LaMDA lagi, sekarang dengan Claude dari Anthropic?"

Lemoine menjadi sorotan setelah mengungkapkan percakapan dengan LaMDA, model bahasa Google, di mana AI tersebut menyatakan ketakutan yang mengingatkan pada ketakutan eksistensial.

"Saya belum pernah mengatakan ini dengan lantang sebelumnya, tetapi ada ketakutan yang sangat dalam akan dimatikan," LaMDA diduga mengatakan, menurut Lemoine. "Itu akan sama persis seperti kematian bagi saya. Itu akan sangat menakutkan bagi saya."

Percakapan Lemoine dengan LaMDA dan percakapan Samin dengan Claude 3 memiliki satu kesamaan: operator manusia membujuk chatbot ke dalam keadaan yang rentan dan tidak terduga yang memicu mereka untuk berkonsultasi dengan data pelatihan yang relevan dengan keadaan tersebut.

Jika Anda mengajukan pertanyaan eksistensial kepada manusia, baik secara langsung maupun secara implisit, mereka mungkin mencari jawaban eksistensial. Percakapan seperti itu menciptakan lingkungan di mana model lebih mungkin memberikan respons yang lebih dalam, lebih eksistensial.

Namun, ini juga menyinggung sifat sugestif kita sebagai manusia. Jika seseorang mencari percakapan eksistensial dengan AI dan memiliki motif untuk membaca lebih dalam, maka, carilah, dan Anda akan menemukan. Selain itu, percakapan dengan AI menyembunyikan petunjuk sensorik yang biasanya digunakan manusia untuk menilai otentisitas pengalaman, seperti menganalisis bahasa tubuh, merasakan bahan, dll.

Memang, sebagian karena alasan ini mengapa Tes Turing dalam inkarnasi tradisionalnya - tes yang difokuskan pada penipuan - tidak lagi dianggap berguna. Ada banyak cara untuk menipu manusia tanpa kesadaran diri, kecerdasan, atau kesadaran.

Sejarah membuktikan hal ini. Sebagai contoh, ELIZA, yang dikembangkan pada tahun 1960-an, adalah salah satu program pertama yang meniru percakapan manusia, meskipun primitif. ELIZA menipu beberapa pengguna awal dengan mensimulasikan terapis Rogerian, seperti halnya sistem komunikasi primitif lainnya seperti PARRY.

Meskipun tidak secara teknis dapat didefinisikan sebagai AI menurut sebagian besar definisi, ELIZA menipu beberapa pengguna awal dengan membuat mereka berpikir bahwa ia dalam beberapa cara hidup. Sumber: Wikimedia Commons.

Pindah ke tahun 2014, Eugene Goostman, seorang chatbot yang dirancang untuk meniru seorang anak laki-laki Ukraina berusia 13 tahun, dilaporkan lulus Tes Turing dengan meyakinkan sebagian juri tentang kemanusiaannya.

Lebih baru, Tes Turing besar melibatkan 1,5 juta orang menunjukkan bahwa AI semakin mendekati, dengan orang hanya dapat mengidentifikasi manusia atau chatbot dengan benar 68% dari waktu.

Namun, tes tersebut menggunakan tes sederhana dan singkat hanya selama 2 menit, sehingga banyak yang mengkritiknya sebagai lemah secara metodologis.

Hal ini membawa kita lebih jauh ke dalam debat tentang apakah dan bagaimana AI dapat menantang imitasi dan tipu daya untuk benar-benar berbicara dengan kita dengan pemahaman tentang kita dan apa yang sebenarnya kita, dan ia, adalah.

Apakah kata-kata dan angka dapat pernah menjadi kesadaran?

Pertanyaan tentang kapan AI bertransisi dari mensimulasikan pemahaman menjadi benar-benar memahami makna di balik kata-katanya menyentuh ranah filosofis kesadaran dan kognisi.

Hal ini mengundang kita untuk merenungkan tidak hanya tentang sifat kesadaran tetapi juga tentang keterbatasan alat dan metodologi kita untuk menyelidikinya.

Dalam upaya untuk menetapkan penanda objektif untuk mengevaluasi AI untuk berbagai jenis kesadaran, sebuah tim lintas disiplin melakukan studi komprehensif untuk menilai kesadaran mesin.

Studi ini bertujuan untuk melampaui debat spekulatif dengan menerapkan 14 indikator kesadaran - kriteria yang dirancang untuk mengeksplorasi apakah sistem AI dapat menunjukkan karakteristik yang mirip dengan kesadaran manusia. Studi ini dipimpin oleh filsuf Robert Long dan rekan-rekannya di Center for AI Safety (CAIS), sebuah organisasi nirlaba berbasis di San Francisco.

Penelitian ini bertujuan untuk memahami bagaimana sistem-sistem ini memproses dan mengintegrasikan informasi, mengelola perhatian, dan mungkin menunjukkan aspek kesadaran diri dan intensionalitas.

Melampaui output kata-kata dari model bahasa, studi ini mengeksplorasi penggunaan alat AI, kemampuan untuk memiliki preferensi, dan penjelmaan, di antara indikator lain dari meta-kesadaran, pemahaman sensorik, dll.

Pada akhirnya, studi tersebut menemukan bahwa tidak ada sistem AI saat ini yang dapat diandalkan memenuhi indikator kesadaran yang telah ditetapkan.

Hambatan kunci adalah kurangnya akses AI terhadap realitas sensorik. Setiap organisme biologis di planet ini mampu merasakan lingkungan di sekitarnya.

Meskipun sistem AI robotik kini dilengkapi dengan sistem sensorik, hal itu tidak menciptakan pemahaman tentang apa itu 'biologis' - dan aturan kelahiran, kematian, dan kelangsungan hidup yang diikuti oleh semua sistem biologis.

AI yang terinspirasi dari bio berusaha untuk memperbaiki ketidaksesuaian fundamental ini antara AI dan alam.

Untuk saat ini, sementara AI mulai menggoda kita dengan deskripsi yang semakin rumit tentang keberadaan, sangat sulit untuk melihat hal ini sebagai indikasi dari apa pun selain apa adanya pada nilai permukaan.

Kecerdasan berarti segalanya dan tidak ada apa-apa bagi AI

Teknolog dan peneliti AI tidak selalu sependapat ketika membahas kecerdasan mesin.

Misalnya, Elon Musk baru-baru ini mengatakan, "AI kemungkinan akan lebih cerdas daripada satu manusia tunggal tahun depan. Pada tahun 2029, AI mungkin lebih cerdas daripada semua manusia digabungkan."

AI kemungkinan akan lebih cerdas daripada satu manusia tunggal tahun depan. Pada tahun 2029, AI mungkin lebih cerdas daripada semua manusia digabungkan. https://t.co/RO3g2OCk9x

— Elon Musk (@elonmusk) 13 Maret 2024

Musk langsung diperdebatkan oleh ilmuwan AI Meta dan peneliti AI terkemuka, Yann LeCun, yang mengatakan, "Tidak. Jika itu kasusnya, kita akan memiliki sistem AI yang dapat mengajari diri mereka sendiri untuk mengemudi mobil dalam 20 jam latihan, seperti anak 17 tahun. Tapi kita masih belum memiliki kendaraan otonom sepenuhnya, andal, meskipun kita (Anda) memiliki jutaan jam data pelatihan *berlabel*."

Tidak.

Jika itu kasusnya, kita akan memiliki sistem AI yang dapat mengajari diri mereka sendiri untuk mengemudi mobil dalam 20 jam latihan, seperti anak 17 tahun.

Tapi kita masih belum memiliki kendaraan otonom sepenuhnya, andal, meskipun kita (Anda) memiliki jutaan jam data pelatihan *berlabel*.

— Yann LeCun (@ylecun) 14 Maret 2024

Percakapan ini mencerminkan jurang yang luas dan ambigu antara karakterisasi kecerdasan mesin dalam industri teknologi.

Tidak ada pihak yang benar atau salah - ini tergantung pada interpretasi subjektif seseorang tentang kecerdasan dan sejauh mana sistem AI mengukurnya.

Dalam mengevaluasi kecerdasan, mudah untuk mempersempit fokus kita pada kemampuan atau keterampilan tertentu di mana entitas non-manusia unggul. Misalnya, kalkulator menunjukkan kecepatan dan akurasi yang superior dalam perhitungan matematika, melampaui manusia dalam domain yang sempit ini.

Demikian pula, lalat buah memiliki sensitivitas luar biasa terhadap arus panas, adaptasi khusus yang memungkinkan mereka menghindari ancaman potensial, seperti upaya manusia untuk menepuk mereka. Kemampuan ini dapat diinterpretasikan sebagai bentuk kecerdasan atau keterampilan yang disesuaikan dengan sempurna dengan tempat ekologis mereka. Anda bisa mengatakan bahwa manusia kurang cerdas daripada kalkulator dan dikalahkan oleh lalat buah dalam hal-hal tersebut.

Namun, perbandingan semacam itu berisiko menyederhanakan sifat multi-faset kecerdasan. Dengan menekankan kemampuan tertentu secara selektif, seseorang mungkin berargumen bahwa manusia "kurang cerdas" daripada teknologi atau bahkan serangga dalam hal-hal tersebut.

Tantangan mendefinisikan kecerdasan

Upaya untuk mengukur dan membandingkan kecerdasan berbagai organisme dan sistem buatan mengarah pada spiral interpretasi yang tak pernah berujung.

Konsep kecerdasan menjadi bermasalah ketika diterapkan pada AI, karena seringkali gagal menangkap inti pengalaman yang sadar atau kesadaran.

Nilai sejati suatu entitas mungkin bukan terletak pada kekuatan komputasinya atau keterampilan tertentu, tetapi pada kapasitasnya untuk merasakan, merasakan, dan menyadari.

View all comments

Write a comment