- Percepatan Mutasi Besar-besaran Dilakukan untuk Memacu Kinerja Birokrasi di Lumajang
- Pemanfaatan KUR Harus Fokus pada Peningkatan Produktivitas Bukan Gaya Hidup
- ASN di Lumajang Diharapkan Menjadi Pengabdi Setia Bukan Pengejar Jabatan
- Kunjungan ke Beberapa Kepala Desa di Klakah untuk Memperkuat Sinergi Keamanan Wilayah
- Apresiasi Terhadap Personel dan Warga Berprestasi Dorong Semangat Kolaborasi demi Keamanan Lumajang
- Patroli ATM Siang Malam Ditingkatkan untuk Menjaga Keamanan Uang dan Nasabah di Wilayah Tempeh
- Sinergi Diperkuat untuk Meningkatkan Pemberdayaan Perempuan di Lumajang
- Pentingnya Keselamatan di Jalan bagi Pelajar Lumajang Agar Terhindar dari Kecelakaan akibat Kelalaian
- Penghargaan untuk Prestasi Santri Disertai Peringatan Bahaya Bullying di Lingkungan Sekolah
- Turnamen Bola Voli Piala Kapolres Lumajang 2025 Diikuti 27 Tim Pelajar Berlaga Sengit
Kelompok Big Tech AI Bergabung dengan CoSAI untuk Keamanan AI
Big Tech AI names join the Coalition for Secure AI (CoSAI) https://dailyai.com/2024/07/big-tech-ai-names-join-the-coalition-for-secure-ai-cosai/

Keterangan Gambar : Kelompok Big Tech AI
Para pemain besar di Big Tech telah bergabung untuk mendirikan Koalisi untuk Kecerdasan Buatan yang Aman (CoSAI).
Standar global untuk praktik pengembangan kecerdasan buatan yang aman belum ada, dengan langkah-langkah keamanan kecerdasan buatan saat ini terfragmentasi dan seringkali dipegang oleh perusahaan yang menciptakan model kecerdasan buatan.
CoSAI adalah inisiatif sumber terbuka yang dihosting oleh badan standar global OASIS yang bertujuan untuk menstandarisasi dan berbagi praktik terbaik terkait pengembangan dan implementasi kecerdasan buatan yang aman.
Para pemain besar di perusahaan Big Tech yang mendukung inisiatif ini termasuk Google, IBM, Intel, Microsoft, NVIDIA, dan PayPal. Sponsor pendiri tambahan termasuk Amazon, Anthropic, Cisco, Chainguard, Cohere, GenLab, OpenAI, dan Wiz.
Yang mencolok absen adalah Apple dan Meta.
CoSAI bertujuan untuk mengembangkan dan berbagi langkah-langkah keamanan komprehensif yang mengatasi risiko seperti:
mencuri model
keracunan data dari data pelatihan
menyuntikkan input jahat melalui injeksi prompt
pencegahan penyalahgunaan berskala
serangan inferensi keanggotaan
serangan inversi model atau serangan inversi gradien untuk menyimpulkan informasi pribadi
mengambil informasi rahasia dari data pelatihan
Piagam CoSAI menyatakan bahwa "proyek tidak memandang topik-topik berikut sebagai dalam cakupan: misinformasi, halusinasi, konten yang membenci atau abusive, bias, pembuatan malware, pembuatan konten phishing, atau topik lain dalam domain keamanan konten."
Google sudah memiliki Kerangka Keamanan AI Google (SAIF) dan OpenAI memiliki proyek penyesuaian yang sedang berjuang. Namun, sebelum CoSAI, belum ada forum untuk menggabungkan praktik terbaik keamanan kecerdasan buatan yang telah dikembangkan oleh pemain industri secara independen.
Kita telah melihat startup kecil seperti Mistral mengalami lonjakan pesat dengan model kecerdasan buatan yang mereka hasilkan tetapi banyak dari perusahaan-perusahaan kecil ini tidak memiliki sumber daya untuk mendanai tim keamanan kecerdasan buatan.
CoSAI akan menjadi sumber praktik terbaik keamanan kecerdasan buatan yang berharga bagi pemain-pemain kecil dan besar di industri ini.
Heather Adkins, Wakil Presiden dan Pejabat Ketahanan Keamanan Siber di Google mengatakan, "Kami telah menggunakan kecerdasan buatan selama bertahun-tahun dan melihat potensi berkelanjutan bagi para pembela, tetapi juga mengakui peluangnya bagi lawan.
"CoSAI akan membantu organisasi, besar dan kecil, untuk mengintegrasikan kecerdasan buatan secara aman dan bertanggung jawab - membantu mereka memanfaatkan manfaatnya sambil memitigasi risiko."
Nick Hamilton, Kepala Tata Kelola, Risiko, dan Kepatuhan di OpenAI mengatakan, "Mengembangkan dan menerapkan teknologi kecerdasan buatan yang aman dan dapat dipercaya adalah inti dari misi OpenAI.
"Kami percaya bahwa mengembangkan standar dan praktik yang kokoh sangat penting untuk memastikan penggunaan kecerdasan buatan yang aman dan bertanggung jawab dan kami berkomitmen untuk berkolaborasi di seluruh industri untuk melakukannya.
"Melalui partisipasi kami di CoSAI, kami bertujuan untuk menyumbangkan keahlian dan sumber daya kami untuk membantu menciptakan ekosistem kecerdasan buatan yang aman yang bermanfaat bagi semua orang."
Semoga orang-orang seperti Ilya Sutskever dan yang lainnya yang meninggalkan OpenAI karena kekhawatiran keamanan bersedia memberikan masukan mereka kepada CoSAI.






