Para Ilmuwan Mendesak Pedoman Etika saat LLM Berperan Lebih Luas dalam Layanan Kesehatan
Scientists urge for ethical guidelines as LLMs play wider roles in healthcare https://dailyai.com/2024/07/scientists-urge-for-ethical-guidelines-as-llms-play-wider-roles-in-healthcare/

By Sang Ruh 12 Jul 2024, 08:34:05 WIB | 👁 35 Programming
Para Ilmuwan Mendesak Pedoman Etika saat LLM Berperan Lebih Luas dalam Layanan Kesehatan

Keterangan Gambar : Para Ilmuwan Mendesa


Menurut sebuah studi terbaru, pedoman etika secara mencolok absen saat kecerdasan buatan terus mengubah dunia kesehatan, mulai dari penemuan obat hingga analisis citra medis. Studi yang dilakukan oleh Joschka Haltaufderheide dan Robert Ranisch dari Universitas Potsdam, yang dipublikasikan di njp Digital Communications, menganalisis 53 artikel untuk memetakan lanskap etika seputar model bahasa besar (LLMs) dalam kedokteran dan kesehatan.

Studi tersebut menemukan bahwa kecerdasan buatan sudah digunakan di berbagai domain kesehatan, termasuk interpretasi citra diagnostik, pengembangan dan penemuan obat, perencanaan pengobatan personal, triase pasien dan penilaian risiko, serta penelitian medis dan analisis literatur.

Dampak terbaru kecerdasan buatan dalam kesehatan dan kedokteran sungguh luar biasa. Baru-baru ini, peneliti berhasil membangun model untuk deteksi dini Alzheimer yang dapat memprediksi dengan akurasi 80% apakah seseorang akan didiagnosis dengan penyakit tersebut dalam enam tahun. Obat-obatan pertama yang dihasilkan oleh kecerdasan buatan sudah menuju uji klinis, dan tes darah berbasis kecerdasan buatan dapat mendeteksi kanker dari molekul DNA tunggal.

Namun, meskipun luar biasa, kemajuan ini menimbulkan rasa vertigo. Mungkin risiko-risiko tersebut terlewatkan?

Studi ini menyoroti kekhawatiran etika yang terkait dengan LLMs, dengan mengatakan bahwa "Meskipun ada manfaat potensial, para peneliti telah menekankan berbagai implikasi etika." Manfaat menggunakan LLMs termasuk kapasitas mereka dalam analisis data, penyediaan informasi, dukungan dalam pengambilan keputusan, atau mengurangi kehilangan informasi dan meningkatkan akses informasi.

Namun, mereka juga menyoroti kekhawatiran etika utama, seperti keadilan, bias, ketidakberbahayaan, transparansi, dan privasi. Kekhawatiran khusus adalah kecenderungan untuk menghasilkan konten yang merugikan atau meyakinkan namun tidak akurat.

Masalah "halusinasi," di mana LLMs menghasilkan informasi yang masuk akal namun tidak faktual, sangat mengkhawatirkan dalam konteks kesehatan. Pengembang kecerdasan buatan seringkali tidak dapat menjelaskan bagaimana model-model mereka bekerja, yang dikenal sebagai "masalah kotak hitam," sehingga perilaku-perilaku yang salah ini sangat sulit untuk diperbaiki.

Studi ini menimbulkan kekhawatiran yang mengkhawatirkan tentang bias dalam LLMs, dengan mencatat bahwa "Model-model yang bias dapat mengakibatkan perlakuan yang tidak adil terhadap kelompok yang kurang beruntung, menyebabkan disparitas dalam akses, memperburuk ketimpangan yang ada, atau merugikan orang melalui akurasi yang selektif."

Mereka mengutip contoh spesifik dari ChatGPT dan Foresight NLP yang menunjukkan bias rasial terhadap pasien kulit hitam. Studi Yale terbaru menemukan bias rasial dalam penanganan gambar radiografi oleh ChatGPT ketika diberikan informasi rasial tentang pemindaian tersebut.

Bias LLM terhadap kelompok minoritas sudah dikenal dan dapat memiliki konsekuensi yang merugikan dalam konteks kesehatan. Kekhawatiran privasi juga merupakan risiko lainnya, dengan pertimbangan etika tentang kerahasiaan, privasi, dan keamanan data.

Dalam mengatasi risiko-risiko ini, pengawasan manusia sangat penting. Para peneliti juga menyerukan pengembangan pedoman etika universal tentang kecerdasan buatan dalam kesehatan untuk mencegah terjadinya skenario yang merugikan.

Lanskap etika kecerdasan buatan dalam kesehatan berkembang dengan cepat seiring dengan terus berdatangnya terobosan-terobosan. Baru-baru ini, lebih dari 100 ilmuwan terkemuka meluncurkan inisiatif sukarela yang menetapkan aturan keselamatan untuk desain protein kecerdasan buatan, menekankan bagaimana teknologi seringkali bergerak terlalu cepat bagi keselamatan untuk mengikuti.

View all comments

Write a comment