Kelompok Big Tech AI Bergabung dengan CoSAI untuk Keamanan AI
Big Tech AI names join the Coalition for Secure AI (CoSAI) https://dailyai.com/2024/07/big-tech-ai-names-join-the-coalition-for-secure-ai-cosai/

By Sang Ruh 19 Jul 2024, 18:19:08 WIB | 👁 60 Programming
Kelompok Big Tech AI Bergabung dengan CoSAI untuk Keamanan AI

Keterangan Gambar : Kelompok Big Tech AI


Para pemain besar di Big Tech telah bergabung untuk mendirikan Koalisi untuk Kecerdasan Buatan yang Aman (CoSAI).

Standar global untuk praktik pengembangan kecerdasan buatan yang aman belum ada, dengan langkah-langkah keamanan kecerdasan buatan saat ini terfragmentasi dan seringkali dipegang oleh perusahaan yang menciptakan model kecerdasan buatan.

CoSAI adalah inisiatif sumber terbuka yang dihosting oleh badan standar global OASIS yang bertujuan untuk menstandarisasi dan berbagi praktik terbaik terkait pengembangan dan implementasi kecerdasan buatan yang aman.

Para pemain besar di perusahaan Big Tech yang mendukung inisiatif ini termasuk Google, IBM, Intel, Microsoft, NVIDIA, dan PayPal. Sponsor pendiri tambahan termasuk Amazon, Anthropic, Cisco, Chainguard, Cohere, GenLab, OpenAI, dan Wiz.

Yang mencolok absen adalah Apple dan Meta.

CoSAI bertujuan untuk mengembangkan dan berbagi langkah-langkah keamanan komprehensif yang mengatasi risiko seperti:

mencuri model

keracunan data dari data pelatihan

menyuntikkan input jahat melalui injeksi prompt

pencegahan penyalahgunaan berskala

serangan inferensi keanggotaan

serangan inversi model atau serangan inversi gradien untuk menyimpulkan informasi pribadi

mengambil informasi rahasia dari data pelatihan

Piagam CoSAI menyatakan bahwa "proyek tidak memandang topik-topik berikut sebagai dalam cakupan: misinformasi, halusinasi, konten yang membenci atau abusive, bias, pembuatan malware, pembuatan konten phishing, atau topik lain dalam domain keamanan konten."

Google sudah memiliki Kerangka Keamanan AI Google (SAIF) dan OpenAI memiliki proyek penyesuaian yang sedang berjuang. Namun, sebelum CoSAI, belum ada forum untuk menggabungkan praktik terbaik keamanan kecerdasan buatan yang telah dikembangkan oleh pemain industri secara independen.

Kita telah melihat startup kecil seperti Mistral mengalami lonjakan pesat dengan model kecerdasan buatan yang mereka hasilkan tetapi banyak dari perusahaan-perusahaan kecil ini tidak memiliki sumber daya untuk mendanai tim keamanan kecerdasan buatan.

CoSAI akan menjadi sumber praktik terbaik keamanan kecerdasan buatan yang berharga bagi pemain-pemain kecil dan besar di industri ini.

Heather Adkins, Wakil Presiden dan Pejabat Ketahanan Keamanan Siber di Google mengatakan, "Kami telah menggunakan kecerdasan buatan selama bertahun-tahun dan melihat potensi berkelanjutan bagi para pembela, tetapi juga mengakui peluangnya bagi lawan.

"CoSAI akan membantu organisasi, besar dan kecil, untuk mengintegrasikan kecerdasan buatan secara aman dan bertanggung jawab - membantu mereka memanfaatkan manfaatnya sambil memitigasi risiko."

Nick Hamilton, Kepala Tata Kelola, Risiko, dan Kepatuhan di OpenAI mengatakan, "Mengembangkan dan menerapkan teknologi kecerdasan buatan yang aman dan dapat dipercaya adalah inti dari misi OpenAI.

"Kami percaya bahwa mengembangkan standar dan praktik yang kokoh sangat penting untuk memastikan penggunaan kecerdasan buatan yang aman dan bertanggung jawab dan kami berkomitmen untuk berkolaborasi di seluruh industri untuk melakukannya.

"Melalui partisipasi kami di CoSAI, kami bertujuan untuk menyumbangkan keahlian dan sumber daya kami untuk membantu menciptakan ekosistem kecerdasan buatan yang aman yang bermanfaat bagi semua orang."

Semoga orang-orang seperti Ilya Sutskever dan yang lainnya yang meninggalkan OpenAI karena kekhawatiran keamanan bersedia memberikan masukan mereka kepada CoSAI.

View all comments

Write a comment