Mengenal Nightshade, Senjata untuk Melawan Praktik Data Tidak Etis
Sebuah kelompok pengembang berbasis di Chicago telah memberikan senjata kepada para seniman melalui Nightshade, sebuah metode untuk melawan praktik tidak etis dalam penggunaan data. Nightshade adalah alat canggih yang dirancang untuk melindungi karya seni digital dari penggunaan yang tidak sah dalam pelatihan kecerdasan buatan dengan memperkenalkan sampel ‘racun’. Perubahan ini tidak terlihat oleh mata manusia namun mengganggu proses pembelajaran AI, sehingga menghasilkan asosiasi dan respons yang tidak tepat.
Nightshade bukanlah hanya berguna bagi para seniman, tetapi juga dapat digunakan oleh siapa pun. Sebuah harapan untuk teknologi ini terus berkembang, dan mungkin akan ada cara-cara yang serupa untuk menyesatkan dan meracuni model bahasa? Kombinasi teknologi dengan pertempuran etis dan hukum ini bisa memasuki masa yang tidak stabil bagi kecerdasan buatan. Ini akan menjadi tahun yang besar untuk teknologi ini.