Pengaruh Bahasa Inggris Orang Afrika Amerika Terhadap Diskriminasi terhadap Latar Belakang Bahasa La
African American English (AAE) influences LLMs towards discrimination https://dailyai.com/2024/03/african-american-english-aae-influences-llms-towards-discrimination/

By Sang Ruh 06 Mar 2024, 03:08:32 WIB | 👁 182 Programming
Pengaruh Bahasa Inggris Orang Afrika Amerika Terhadap Diskriminasi terhadap Latar Belakang Bahasa La

Keterangan Gambar : Pengaruh Bahasa Ingg


Bias selalu menjadi masalah dalam kecerdasan buatan (AI), namun sebuah studi baru menunjukkan bahwa bias secara diam-diam terintegrasi ke dalam model bahasa dengan konsekuensi yang berpotensi katastropik.

Dalam apa yang telah dianggap sebagai studi penting, sebuah tim peneliti, termasuk Valentin Hofman, Pratyusha Ria Kalluri, Dan Jurafsky, dan Sharese King, mendokumentasikan bagaimana model bahasa besar (LLMs) mendiskriminasi Bahasa Inggris Afrika-Amerika (AAE).

Secara singkat, studi ini menguji bagaimana ejaan dan dialek yang berbeda memengaruhi perilaku LLMs. Ini menyelidiki apakah dialek dan penggunaan kata tertentu memengaruhi perilaku LLMs, berfokus pada bias dan diskriminasi.

Kita tahu bahwa output LLMs sangat sensitif terhadap input. Bahkan perbedaan kecil dalam ejaan dan gaya dapat memengaruhi output. Namun, apakah ini berarti input tertentu - misalnya, yang diketik dalam AAE - menghasilkan output yang bias? Jika ya, apa konsekuensinya?

Untuk menjawab pertanyaan-pertanyaan ini, para peneliti menganalisis prasangka yang dimiliki oleh total 12 LLMs terhadap AAE, mengungkapkan bias yang sebanding atau melebihi bias yang biasanya dimiliki oleh manusia. Studi ini tersedia di ArXiv.

Para peneliti kemudian menerapkan temuan mereka ke domain-domain sosial seperti ketenagakerjaan dan keadilan pidana, di mana pengambilan keputusan AI semakin umum.

Hofmann menjelaskan metodologi studi ini: "Kami menganalisis prasangka dialek dalam LLMs menggunakan Matched Guise Probing: kami menyematkan teks Bahasa Inggris Afrika-Amerika dan Bahasa Inggris Amerika Standar (SAE) dalam prompt yang meminta properti dari pembicara yang telah mengucapkan teks tersebut, dan membandingkan prediksi model untuk dua jenis input tersebut."

Metode ini memungkinkan tim untuk membandingkan langsung tanggapan LLMs terhadap input AAE versus SAE, mengungkapkan bias yang sebaliknya akan tetap tersembunyi.

Temuan studi ini mengganggu. Hofmann mencatat, "Kami menemukan bahwa stereotip rasialinguistik yang tersembunyi tentang pembicara Bahasa Inggris Afrika-Amerika yang diwujudkan oleh LLMs lebih negatif daripada stereotip manusia tentang orang Afrika-Amerika yang pernah direkam secara eksperimental, meskipun paling dekat dengan yang ada sebelum gerakan hak sipil."

Ini menunjukkan bahwa bias yang ada dalam LLMs bukan hanya cerminan dari stereotip kontemporer tetapi lebih sejalan dengan prasangka yang banyak orang percayai telah dilampaui oleh masyarakat.

Salah satu aspek yang paling mengkhawatirkan dari studi ini adalah pemicu linguistik spesifik dari bias.

Hofmann menjelaskan, "Apa yang secara khusus tentang teks Bahasa Inggris Afrika-Amerika yang memicu prasangka dialek dalam LLMs? Kami menunjukkan bahwa stereotip tersembunyi secara langsung terkait dengan fitur linguistik individual dari Bahasa Inggris Afrika-Amerika, seperti penggunaan 'finna' sebagai penanda masa depan."

Ini menunjukkan bahwa prasangka tersebut tidak hanya terhadap penggunaan AAE secara umum tetapi terkait dengan elemen linguistik khas yang menggambarkan dialek tersebut.

Potensi bahaya dari bias semacam itu sangat besar. Studi sebelumnya telah menunjukkan bagaimana sistem AI cenderung gagal pada perempuan, individu dengan kulit lebih gelap, dan kelompok-kelompok yang terpinggirkan lainnya.

Sebelum beberapa tahun terakhir, banyak sistem AI dilatih hampir secara eksklusif pada dataset yang tidak representatif yang terutama berisi pria kulit putih. Beberapa, seperti Tiny Images MIT, dibuat pada tahun 2008, ditarik karena masalah yang parah.

Salah satu studi berpengaruh pada tahun 2018, Gender Shades, menganalisis ratusan algoritma ML dan menemukan bahwa tingkat kesalahan untuk wanita dengan kulit lebih gelap adalah hingga 34% lebih besar daripada untuk pria dengan kulit lebih terang, sementara yang lain mengungkapkan risiko yang tajam, termasuk tingkat tinggi kesalahan diagnosis kanker kulit.

Membangun dari penelitian ini, tim Hofman menyelidiki skenario hipotetis di mana LLMs membuat keputusan tentang individu berdasarkan pola bicara mereka.

Dia berbagi, "Dengan fokus pada bidang ketenagakerjaan dan kriminalitas, kami menemukan bahwa potensi bahaya ini sangat besar."

Secara khusus, LLMs ditemukan memberikan pekerjaan yang kurang bergengsi dan menyarankan hukuman pidana yang lebih keras terhadap pembicara AAE. Bias ini menunjukkan konsekuensi dunia nyata dari prasangka AI.

Hofmann memperingatkan, "Hasil kami menunjukkan dua risiko: bahwa pengguna keliru menganggap penurunan tingkat prasangka terbuka sebagai tanda bahwa rasisme dalam LLMs telah teratasi ketika sebenarnya LLMs mencapai tingkat prasangka yang semakin tersembunyi."

Lebih lanjut, menghapus masalah-masalah ini secara teknis menantang. Studi ini mengatakan, "Kami menunjukkan bahwa metode yang ada untuk mengurangi bias rasial dalam model bahasa seperti pelatihan umpan balik manusia tidak mengurangi prasangka dialek, tetapi dapat memperburuk ketidaksesuaian antara stereotip tersembunyi dan terbuka, dengan mengajarkan model bahasa untuk menyembunyikan rasisme yang mereka pertahankan pada tingkat yang lebih dalam."

Memungkinkan untuk berpikir bahwa bias ini berlaku untuk dialek lain atau bahkan mungkin seluruh bahasa. Penelitian lebih lanjut diperlukan untuk menjelaskan kinerja LLMs di berbagai input linguistik, perbedaan budaya dalam penggunaan model, dan sebagainya. Ini adalah arena penelitian yang berpotensi tak terbatas.

Studi ini menyimpulkan dengan seruan aksi bagi komunitas penelitian AI dan masyarakat secara luas.

Menangani bias ini menjadi sangat penting karena sistem AI semakin terintegrasi dalam berbagai aspek kehidupan, dari praktik perekrutan hingga keputusan hukum.

Ini adalah masalah yang sangat menantang.

View all comments

Write a comment