Google mengumumkan Gemma, LLM yang terbuka dan dapat berjalan secara lokal.
​​Google announces Gemma, its open LLMs that can run locally https://dailyai.com/2024/02/google-announces-gemma-its-open-llms-that-can-run-locally/

By Sang Ruh 26 Feb 2024, 17:03:04 WIB | 👁 166 Programming
Google mengumumkan Gemma, LLM yang terbuka dan dapat berjalan secara lokal.

Keterangan Gambar : Google mengumumkan G


Google telah merilis dua model dari keluarga model ringan dan terbuka yang disebut Gemma.

Sementara model Gemini dari Google adalah model propietary atau tertutup, model Gemma telah dirilis sebagai "model terbuka" dan tersedia secara gratis bagi para pengembang.

Google merilis model Gemma dalam dua ukuran, yaitu 2B dan 7B parameter, dengan varian yang sudah dilatih dan disesuaikan dengan instruksi untuk masing-masingnya. Google merilis bobot model serta seperangkat alat untuk para pengembang agar dapat menyesuaikan model-model tersebut sesuai kebutuhan mereka.

Google mengatakan bahwa model Gemma dibangun menggunakan teknologi yang sama dengan model unggulannya, Gemini. Beberapa perusahaan telah merilis model 7B dalam upaya untuk memberikan LLM yang tetap berfungsi dengan baik sambil mungkin berjalan secara lokal daripada di cloud.

Llama-2-7B dan Mistral-7B adalah pesaing yang patut diperhatikan dalam hal ini, namun Google mengatakan "Gemma secara signifikan melampaui model yang lebih besar dalam uji benchmark kunci," dan menawarkan perbandingan benchmark ini sebagai bukti.

Hasil benchmark Gemma-7B vs Llama-2-7B dan Llama-2-12B. Sumber: Google

Hasil benchmark menunjukkan bahwa Gemma bahkan mengalahkan versi 12B dari Llama 2 dalam semua kemampuannya.

Hal yang benar-benar menarik tentang Gemma adalah prospek untuk menjalankannya secara lokal. Google telah bermitra dengan NVIDIA untuk mengoptimalkan Gemma untuk GPU NVIDIA. Jika Anda memiliki PC dengan salah satu GPU RTX dari NVIDIA, Anda dapat menjalankan Gemma di perangkat Anda.

NVIDIA mengatakan bahwa mereka memiliki basis pengguna lebih dari 100 juta GPU RTX NVIDIA. Hal ini membuat Gemma menjadi pilihan menarik bagi para pengembang yang mencoba memutuskan model ringan mana yang akan digunakan sebagai dasar produk mereka.

NVIDIA juga akan menambahkan dukungan untuk Gemma pada platform Chat with RTX mereka, sehingga memudahkan untuk menjalankan LLMs pada PC RTX.

Meskipun secara teknis bukan open-source, hanya pembatasan penggunaan dalam perjanjian lisensi yang mencegah model Gemma memiliki label tersebut. Kritikus model terbuka menunjukkan risiko yang melekat dalam menjaga konsistensinya, namun Google mengatakan bahwa mereka melakukan uji red-teaming yang ekstensif untuk memastikan bahwa Gemma aman.

Google mengatakan bahwa mereka menggunakan "penyetelan halus yang ekstensif dan pembelajaran penguatan dari umpan balik manusia (RLHF) untuk menyelaraskan model-model yang disesuaikan dengan instruksi kami dengan perilaku yang bertanggung jawab." Mereka juga merilis Responsible Generative AI Toolkit untuk membantu para pengembang menjaga konsistensi Gemma setelah disesuaikan.

Model-model ringan yang dapat disesuaikan seperti Gemma mungkin menawarkan lebih banyak manfaat bagi para pengembang daripada model-model yang lebih besar seperti GPT-4 atau Gemini Pro. Kemampuan untuk menjalankan LLM secara lokal tanpa biaya komputasi cloud atau panggilan API menjadi lebih mudah diakses setiap hari.

Dengan Gemma tersedia secara terbuka bagi para pengembang, akan menarik untuk melihat berbagai aplikasi yang didukung kecerdasan buatan yang mungkin segera berjalan di PC kita.

View all comments

Write a comment