Salesforce menantang trend AI dengan model xLAM-1B dan 7B yang kecil tapi berdaya besar
Salesforce challenges trends in AI with the tiny yet mighty xLAM-1B and 7B models https://dailyai.com/2024/07/salesforce-challenges-trends-in-ai-with-the-tiny-yet-mighty-xlam-1b-model/

By Sang Ruh 09 Jul 2024, 08:23:42 WIB | 👁 75 Programming
 Salesforce menantang trend AI dengan model xLAM-1B dan 7B yang kecil tapi berdaya besar

Keterangan Gambar : Salesforce menantan


Perusahaan perangkat lunak enterprise Salesforce telah memperkenalkan dua model AI kompak yang menantang paradigma "semakin besar semakin baik" dalam dunia kecerdasan buatan.

Meskipun ukurannya kompak, model xLAM dengan 1 miliar dan 7 miliar parameter mampu melampaui banyak model yang lebih besar dalam tugas pemanggilan fungsi.

Tugas-tugas ini melibatkan sistem AI dalam menginterpretasikan dan menerjemahkan permintaan bahasa alami menjadi pemanggilan fungsi atau permintaan API tertentu.

Contohnya, jika Anda meminta sistem AI untuk "mencari penerbangan ke New York untuk akhir pekan mendatang dengan harga di bawah $500," model perlu memahami permintaan ini, mengidentifikasi fungsi-fungsi yang relevan (misalnya, mencari_penerbangan, menyaring_berdasarkan_harga), dan menjalankannya dengan parameter yang benar.

"Kami menunjukkan bahwa model yang dilatih dengan dataset yang kami kurasi, bahkan dengan hanya 7 miliar parameter, dapat mencapai kinerja terbaik pada Berkeley Function-Calling Benchmark, melampaui beberapa model GPT-4," tulis para peneliti dalam makalah mereka.

Benchmark Berkeley Function-Calling, yang disebut dalam studi ini, adalah kerangka evaluasi yang dirancang untuk menilai kemampuan pemanggilan fungsi dari model AI.

Statistik kunci dari studi ini meliputi:

- Model xLAM-7B (7 miliar parameter) menempati peringkat ke-6 di papan peringkat Berkeley Function-Calling, melampaui GPT-4 dan Gemini-1.5-Pro.

- Model xLAM-1B yang lebih kecil melampaui model-model lebih besar seperti Claude-3 Haiku dan GPT-3.5-Turbo, menunjukkan efisiensi yang luar biasa.

Keberhasilan ini terutama mengesankan karena ukuran modelnya dibandingkan dengan pesaingnya:

- xLAM-1B: 1 miliar parameter

- xLAM-7B: 7 miliar parameter

- GPT-3: 175 miliar parameter

- GPT-4: Diperkirakan 1,7 triliun parameter

- Claude-3 Opus: Tidak diungkapkan, tetapi kemungkinan ratusan miliar

- Gemini Ultra: Tidak diungkapkan, diperkirakan mirip dengan GPT-4

Hal ini menunjukkan bahwa desain yang efisien dan data pelatihan berkualitas tinggi dapat lebih penting daripada sekadar ukuran.

Model xLAM ini menantang para peneliti untuk memikirkan kembali arsitektur dan pendekatan pelatihan AI mereka dengan menunjukkan bahwa model yang lebih kecil dan lebih efisien dapat bersaing dengan yang lebih besar.

Masa depan kecerdasan buatan tidak hanya akan melibatkan model yang semakin besar tetapi juga model yang lebih cerdas dan efisien yang dapat membawa fitur-fitur canggih ke berbagai perangkat dan aplikasi.

View all comments

Write a comment