Connect with us

Kecerdasan buatan

Kekuatan Berukuran Saku: Mengungkap Microsoft’s Phi-3, Model Bahasa yang Muat di Ponsel Anda

mm

Dalam bidang kecerdasan buatan yang berkembang pesat, sementara tren sering cenderung menuju model yang lebih besar dan lebih kompleks, Microsoft mengadopsi pendekatan yang berbeda dengan Phi-3 Mininya. Model bahasa kecil (SLM) ini, yang sekarang berada pada generasi ketiganya, mengemas kemampuan yang kuat dari model yang lebih besar ke dalam kerangka yang sesuai dengan keterbatasan sumber daya yang ketat pada smartphone. Dengan 3,8 miliar parameter, Phi-3 Mini mencocokkan kinerja model bahasa besar (LLM) di berbagai tugas, termasuk pemrosesan bahasa, penalaran, pengkodean, dan matematika, dan dirancang untuk beroperasi secara efisien pada perangkat mobile melalui kuantisasi.

Tantangan Model Bahasa Besar

Pengembangan SLM Phi Microsoft merupakan respon terhadap tantangan signifikan yang ditimbulkan oleh LLM, yang memerlukan lebih banyak daya komputasi daripada yang biasanya tersedia pada perangkat konsumen. Permintaan tinggi ini mempersulit penggunaannya pada komputer standar dan perangkat mobile, menimbulkan kekhawatiran lingkungan karena konsumsi energi selama pelatihan dan operasi, dan berisiko memperkuat bias dengan dataset pelatihan yang besar dan kompleks. Faktor-faktor ini juga dapat mengganggu responsivitas model dalam aplikasi waktu nyata dan membuat pembaruan lebih menantang.

Phi-3 Mini: Mengalirkan AI pada Perangkat Pribadi untuk Privasi dan Efisiensi yang Ditingkatkan

Phi-3 Mini dirancang secara strategis untuk menawarkan alternatif yang efektif biaya dan efisien untuk mengintegrasikan AI canggih langsung ke perangkat pribadi seperti ponsel dan laptop. Desain ini memfasilitasi respons yang lebih cepat dan lebih langsung, meningkatkan interaksi pengguna dengan teknologi dalam skenario sehari-hari.

Phi-3 Mini memungkinkan fungsi AI yang canggih diproses langsung pada perangkat mobile, yang mengurangi ketergantungan pada layanan cloud dan meningkatkan pengolahan data waktu nyata. Kemampuan ini sangat penting untuk aplikasi yang memerlukan pengolahan data segera, seperti perawatan kesehatan mobile, terjemahan bahasa waktu nyata, dan pendidikan yang dipersonalisasi, memfasilitasi kemajuan dalam bidang-bidang ini. Biaya-efisiensi model ini tidak hanya mengurangi biaya operasional tetapi juga memperluas potensi integrasi AI di berbagai industri, termasuk pasar yang muncul seperti teknologi yang dapat dikenakan dan otomasi rumah. Phi-3 Mini memungkinkan pengolahan data langsung pada perangkat lokal yang meningkatkan privasi pengguna. Ini bisa sangat penting untuk mengelola informasi sensitif dalam bidang seperti kesehatan pribadi dan layanan keuangan. Selain itu, kebutuhan energi yang rendah dari model ini menyumbang pada operasi AI yang berkelanjutan secara lingkungan, sejalan dengan upaya keberlanjutan global.

Filsafat Desain dan Evolusi Phi

Filsafat desain Phi didasarkan pada konsep curriculum learning, yang mengambil inspirasi dari pendekatan pendidikan di mana anak-anak belajar melalui contoh yang semakin menantang. Ide utama adalah memulai pelatihan AI dengan contoh yang lebih mudah dan secara bertahap meningkatkan kompleksitas data pelatihan seiring proses pembelajaran. Microsoft telah menerapkan strategi pendidikan ini dengan membangun dataset dari buku pelajaran, seperti yang dijelaskan dalam studi “Textbooks Are All You Need.” Seri Phi diluncurkan pada Juni 2023, dimulai dengan Phi-1, model kompak yang memiliki 1,3 miliar parameter. Model ini dengan cepat menunjukkan efektivitasnya, terutama dalam tugas pengkodean Python, di mana ia mengungguli model yang lebih besar dan lebih kompleks. Membangun pada kesuksesan ini, Microsoft kemudian mengembangkan Phi-1.5, yang mempertahankan jumlah parameter yang sama tetapi memperluas kemampuannya dalam bidang seperti penalaran umum dan pemahaman bahasa. Seri ini bersinar dengan dirilisnya Phi-2 pada Desember 2023. Dengan 2,7 miliar parameter, Phi-2 menunjukkan keterampilan yang mengesankan dalam penalaran dan pemahaman bahasa, memposisikannya sebagai pesaing kuat melawan model yang jauh lebih besar.

Phi-3 vs. Model Bahasa Kecil Lainnya

Membangun pada kemajuan pendahulunya, Phi-3 Mini memperluas kemajuan Phi-2 dengan mengungguli SLM lainnya, seperti Gemma Google, Mistral Mistral, Llama3-Instruct Meta, dan GPT 3.5, dalam berbagai aplikasi industri. Aplikasi ini termasuk pemahaman bahasa dan inferensi, pengetahuan umum, penalaran umum, masalah matematika kata sekolah dasar, dan menjawab pertanyaan medis, menunjukkan kinerja unggul dibandingkan dengan model-model ini. Phi-3 Mini juga telah menjalani pengujian offline pada iPhone 14 untuk berbagai tugas, termasuk pembuatan konten dan memberikan saran kegiatan yang disesuaikan dengan lokasi tertentu. Untuk tujuan ini, Phi-3 Mini telah dikompresi menjadi 1,8GB menggunakan proses yang disebut kuantisasi, yang mengoptimalkan model untuk perangkat dengan sumber daya terbatas dengan mengonversi data numerik model dari angka titik mengambang 32-bit ke format yang lebih kompak seperti integer 4-bit. Ini tidak hanya mengurangi jejak memori model tetapi juga meningkatkan kecepatan pemrosesan dan efisiensi daya, yang sangat penting untuk perangkat mobile. Pengembang biasanya menggunakan kerangka kerja seperti TensorFlow Lite atau PyTorch Mobile, yang mengintegrasikan alat kuantisasi bawaan untuk mengautomasi dan memperhalus proses ini.

Perbandingan Fitur: Phi-3 Mini vs. Phi-2 Mini

Di bawah, kami membandingkan beberapa fitur Phi-3 dengan pendahulunya Phi-2.

  • Arsitektur Model: Phi-2 beroperasi pada arsitektur berbasis transformer yang dirancang untuk memprediksi kata berikutnya. Phi-3 Mini juga menggunakan arsitektur decoder transformer tetapi lebih sejalan dengan struktur model Llama-2, menggunakan tokenizer yang sama dengan ukuran kosakata 320.641. Kompatibilitas ini memastikan bahwa alat yang dikembangkan untuk Llama-2 dapat dengan mudah disesuaikan untuk digunakan dengan Phi-3 Mini.
  • Panjang Konteks: Phi-3 Mini mendukung panjang konteks 8.000 token, yang jauh lebih besar daripada 2.048 token Phi-2. Ini memungkinkan Phi-3 Mini untuk mengelola interaksi yang lebih rinci dan memproses teks yang lebih panjang.
  • Berjalan Lokal pada Perangkat Mobile: Phi-3 Mini dapat dikompresi menjadi 4-bit, menduduki sekitar 1,8GB memori, serupa dengan Phi-2. Ini diuji berjalan offline pada iPhone 14 dengan chip A16 Bionic, di mana mencapai kecepatan pemrosesan lebih dari 12 token per detik, mencocokkan kinerja Phi-2 di bawah kondisi serupa.
  • Ukuran Model: Dengan 3,8 miliar parameter, Phi-3 Mini memiliki skala yang lebih besar daripada Phi-2, yang memiliki 2,7 miliar parameter. Ini mencerminkan kemampuan yang ditingkatkan.
  • Data Pelatihan: Tidak seperti Phi-2, yang dilatih pada 1,4 triliun token, Phi-3 Mini telah dilatih pada set yang jauh lebih besar yaitu 3,3 triliun token, memungkinkannya untuk mencapai pemahaman yang lebih baik tentang pola bahasa yang kompleks.

Mengatasi Keterbatasan Phi-3 Mini

Meskipun Phi-3 Mini menunjukkan kemajuan signifikan dalam ranah model bahasa kecil, ini tidak tanpa keterbatasannya. Salah satu keterbatasan utama Phi-3 Mini, mengingat ukurannya yang lebih kecil dibandingkan dengan model bahasa besar, adalah kapasitas terbatas untuk menyimpan pengetahuan faktual yang luas. Ini dapat memengaruhi kemampuannya untuk menangani kueri secara mandiri yang memerlukan kedalaman data faktual spesifik atau pengetahuan ahli yang terperinci. Ini dapat dimitigasi dengan mengintegrasikan Phi-3 Mini dengan mesin pencari. Dengan cara ini, model dapat mengakses rentang informasi yang lebih luas secara waktu nyata, secara efektif mengkompensasi keterbatasan pengetahuan bawaannya. Integrasi ini memungkinkan Phi-3 Mini untuk berfungsi seperti seorang pembicara yang sangat kompeten yang, meskipun memiliki pemahaman bahasa dan konteks yang komprehensif, mungkin terkadang perlu “mencari” informasi untuk memberikan respons yang akurat dan terkini.

Ketersediaan

Phi-3 sekarang tersedia pada beberapa platform, termasuk Microsoft Azure AI Studio, Hugging Face, dan Ollama. Pada Azure AI, model ini mengintegrasikan alur kerja deploy-evaluate-finetune, dan pada Ollama, dapat dijalankan secara lokal pada laptop. Model ini telah disesuaikan untuk ONNX Runtime dan mendukung Windows DirectML, memastikan bahwa model ini bekerja dengan baik di berbagai jenis perangkat keras seperti GPU, CPU, dan perangkat mobile. Selain itu, Phi-3 ditawarkan sebagai layanan mikro melalui NVIDIA NIM, dilengkapi dengan API standar untuk penerapan yang mudah di berbagai lingkungan dan dioptimalkan khusus untuk GPU NVIDIA. Microsoft berencana untuk lebih memperluas seri Phi-3 di masa depan dengan menambahkan model Phi-3-kecil (7B) dan Phi-3-medium (14B), memberikan pengguna pilihan tambahan untuk menyeimbangkan kualitas dan biaya.

Ringkasan

Phi-3 Mini Microsoft membuat kemajuan signifikan dalam bidang kecerdasan buatan dengan mengadaptasi kekuatan model bahasa besar untuk penggunaan mobile. Model ini meningkatkan interaksi pengguna dengan perangkat melalui pemrosesan waktu nyata yang lebih cepat dan fitur privasi yang ditingkatkan. Ini meminimalkan kebutuhan akan layanan berbasis cloud, mengurangi biaya operasional, dan memperluas cakupan aplikasi AI di bidang seperti perawatan kesehatan dan otomasi rumah. Dengan fokus pada mengurangi bias melalui pembelajaran kurikulum dan mempertahankan kinerja yang kompetitif, Phi-3 Mini berkembang menjadi alat kunci untuk AI mobile yang efisien dan berkelanjutan, secara halus mengubah cara kita berinteraksi dengan teknologi sehari-hari.

Dr. Tehseen Zia adalah Profesor Asosiasi Tetap di COMSATS University Islamabad, memegang gelar PhD di AI dari Vienna University of Technology, Austria. Mengkhususkan diri dalam Kecerdasan Buatan, Pembelajaran Mesin, Ilmu Data, dan Penglihatan Komputer, ia telah membuat kontribusi signifikan dengan publikasi di jurnal ilmiah terkemuka. Dr. Tehseen juga telah memimpin berbagai proyek industri sebagai Penyelidik Utama dan menjabat sebagai Konsultan AI.