- Penangkapan Lima Tersangka Kasus Ganja oleh Satresnarkoba di Lumajang
- Proyek Pembangunan Pasar Agropolitan di Gerbang Wisata Senduro Lumajang Hampir Rampung
- Pelantikan Resmi Indah-Yudha, Janji Mewujudkan Pemerintahan Lumajang Tanpa Korupsi
- Pengaktifan Kembali KUD di Lumajang untuk Memperkuat Perekonomian Desa
- Persiapan Mencetak Generasi Emas oleh Lembaga Parenting di Lumajang
- Aliansi BEM se-Lumajang Protes Program Efisiensi yang Dinilai Tidak Memenuhi Kebutuhan Dasar di DPRD
- Begal Mengintai di Klakah Lumajang Saat Hujan Turun
- Cek Kesehatan Gratis Dimulai di Lumajang, Simak Keuntungannya
- Dukungan Terhadap Penerapan P3K Paruh Waktu di Pemkab Lumajang dari Komisi A DPRD
- Wisuda Akbar Seribu Santri Madin Digelar di Pendopo Arya Wiraraja oleh FKDT Lumajang
Kelompok Big Tech AI Bergabung dengan CoSAI untuk Keamanan AI
Big Tech AI names join the Coalition for Secure AI (CoSAI) https://dailyai.com/2024/07/big-tech-ai-names-join-the-coalition-for-secure-ai-cosai/

Keterangan Gambar : Kelompok Big Tech AI
Para pemain besar di Big Tech telah bergabung untuk mendirikan Koalisi untuk Kecerdasan Buatan yang Aman (CoSAI).
Standar global untuk praktik pengembangan kecerdasan buatan yang aman belum ada, dengan langkah-langkah keamanan kecerdasan buatan saat ini terfragmentasi dan seringkali dipegang oleh perusahaan yang menciptakan model kecerdasan buatan.
CoSAI adalah inisiatif sumber terbuka yang dihosting oleh badan standar global OASIS yang bertujuan untuk menstandarisasi dan berbagi praktik terbaik terkait pengembangan dan implementasi kecerdasan buatan yang aman.
Para pemain besar di perusahaan Big Tech yang mendukung inisiatif ini termasuk Google, IBM, Intel, Microsoft, NVIDIA, dan PayPal. Sponsor pendiri tambahan termasuk Amazon, Anthropic, Cisco, Chainguard, Cohere, GenLab, OpenAI, dan Wiz.
Yang mencolok absen adalah Apple dan Meta.
CoSAI bertujuan untuk mengembangkan dan berbagi langkah-langkah keamanan komprehensif yang mengatasi risiko seperti:
mencuri model
keracunan data dari data pelatihan
menyuntikkan input jahat melalui injeksi prompt
pencegahan penyalahgunaan berskala
serangan inferensi keanggotaan
serangan inversi model atau serangan inversi gradien untuk menyimpulkan informasi pribadi
mengambil informasi rahasia dari data pelatihan
Piagam CoSAI menyatakan bahwa "proyek tidak memandang topik-topik berikut sebagai dalam cakupan: misinformasi, halusinasi, konten yang membenci atau abusive, bias, pembuatan malware, pembuatan konten phishing, atau topik lain dalam domain keamanan konten."
Google sudah memiliki Kerangka Keamanan AI Google (SAIF) dan OpenAI memiliki proyek penyesuaian yang sedang berjuang. Namun, sebelum CoSAI, belum ada forum untuk menggabungkan praktik terbaik keamanan kecerdasan buatan yang telah dikembangkan oleh pemain industri secara independen.
Kita telah melihat startup kecil seperti Mistral mengalami lonjakan pesat dengan model kecerdasan buatan yang mereka hasilkan tetapi banyak dari perusahaan-perusahaan kecil ini tidak memiliki sumber daya untuk mendanai tim keamanan kecerdasan buatan.
CoSAI akan menjadi sumber praktik terbaik keamanan kecerdasan buatan yang berharga bagi pemain-pemain kecil dan besar di industri ini.
Heather Adkins, Wakil Presiden dan Pejabat Ketahanan Keamanan Siber di Google mengatakan, "Kami telah menggunakan kecerdasan buatan selama bertahun-tahun dan melihat potensi berkelanjutan bagi para pembela, tetapi juga mengakui peluangnya bagi lawan.
"CoSAI akan membantu organisasi, besar dan kecil, untuk mengintegrasikan kecerdasan buatan secara aman dan bertanggung jawab - membantu mereka memanfaatkan manfaatnya sambil memitigasi risiko."
Nick Hamilton, Kepala Tata Kelola, Risiko, dan Kepatuhan di OpenAI mengatakan, "Mengembangkan dan menerapkan teknologi kecerdasan buatan yang aman dan dapat dipercaya adalah inti dari misi OpenAI.
"Kami percaya bahwa mengembangkan standar dan praktik yang kokoh sangat penting untuk memastikan penggunaan kecerdasan buatan yang aman dan bertanggung jawab dan kami berkomitmen untuk berkolaborasi di seluruh industri untuk melakukannya.
"Melalui partisipasi kami di CoSAI, kami bertujuan untuk menyumbangkan keahlian dan sumber daya kami untuk membantu menciptakan ekosistem kecerdasan buatan yang aman yang bermanfaat bagi semua orang."
Semoga orang-orang seperti Ilya Sutskever dan yang lainnya yang meninggalkan OpenAI karena kekhawatiran keamanan bersedia memberikan masukan mereka kepada CoSAI.