potongan Pembangkit Tenaga Listrik Seukuran Saku: Memperkenalkan Phi-3 dari Microsoft, Model Bahasa yang Cocok untuk Ponsel Anda - Unite.AI
Terhubung dengan kami

Kecerdasan Buatan

Pembangkit Tenaga Listrik Seukuran Saku: Memperkenalkan Microsoft Phi-3, Model Bahasa yang Sesuai dengan Ponsel Anda

mm
Updated on

Di bidang kecerdasan buatan yang berkembang pesat, meskipun trennya sering kali mengarah ke model yang lebih besar dan kompleks, Microsoft mengadopsi pendekatan berbeda dengan Phi-3 Mini-nya. Ini model bahasa kecil (SLM), yang kini memasuki generasi ketiga, mengemas kemampuan tangguh dari model yang lebih besar ke dalam kerangka kerja yang sesuai dengan keterbatasan sumber daya yang dimiliki ponsel pintar. Dengan 3.8 miliar parameter, Phi-3 Mini menyamai kinerja model bahasa besar (LLM) dalam berbagai tugas termasuk pemrosesan bahasa, penalaran, pengkodean, dan matematika, dan disesuaikan untuk pengoperasian yang efisien pada perangkat seluler melalui kuantisasi.

Tantangan Model Bahasa Besar

Pengembangan Phi SLM dari Microsoft merupakan respons terhadap tantangan signifikan yang ditimbulkan oleh LLM, yang memerlukan daya komputasi lebih besar daripada yang biasanya tersedia pada perangkat konsumen. Permintaan yang tinggi ini mempersulit penggunaannya pada komputer standar dan perangkat seluler, meningkatkan permasalahan lingkungan karena konsumsi energi selama pelatihan dan pengoperasian, dan berisiko melanggengkan bias dengan kumpulan data pelatihan yang besar dan kompleks. Faktor-faktor ini juga dapat mengganggu respons model dalam aplikasi real-time dan membuat pembaruan menjadi lebih menantang.

Phi-3 Mini: Menyederhanakan AI pada Perangkat Pribadi untuk Meningkatkan Privasi dan Efisiensi

Grafik Phi-3Mini dirancang secara strategis untuk menawarkan alternatif yang hemat biaya dan efisien untuk mengintegrasikan AI tingkat lanjut langsung ke perangkat pribadi seperti ponsel dan laptop. Desain ini memfasilitasi respons yang lebih cepat dan cepat, sehingga meningkatkan interaksi pengguna dengan teknologi dalam skenario sehari-hari.

Phi-3 Mini memungkinkan fungsionalitas AI yang canggih untuk diproses secara langsung di perangkat seluler, sehingga mengurangi ketergantungan pada layanan cloud dan meningkatkan penanganan data secara real-time. Kemampuan ini sangat penting untuk aplikasi yang memerlukan pemrosesan data segera, seperti layanan kesehatan seluler, terjemahan bahasa real-time, dan pendidikan yang dipersonalisasi, sehingga memfasilitasi kemajuan di bidang ini. Efisiensi biaya model ini tidak hanya mengurangi biaya operasional tetapi juga memperluas potensi integrasi AI di berbagai industri, termasuk pasar negara berkembang seperti teknologi wearable dan otomatisasi rumah. Phi-3 Mini memungkinkan pemrosesan data langsung pada perangkat lokal yang meningkatkan privasi pengguna. Hal ini penting untuk mengelola informasi sensitif di berbagai bidang seperti kesehatan pribadi dan layanan keuangan. Selain itu, kebutuhan energi yang rendah pada model ini berkontribusi pada pengoperasian AI yang ramah lingkungan, selaras dengan upaya keberlanjutan global.

Filosofi Desain dan Evolusi Phi

Filosofi desain Phi didasarkan pada konsep pembelajaran kurikulum, yang mengambil inspirasi dari pendekatan pendidikan di mana anak-anak belajar melalui contoh-contoh yang semakin menantang. Ide utamanya adalah memulai pelatihan AI dengan contoh yang lebih mudah dan secara bertahap meningkatkan kompleksitas data pelatihan seiring berjalannya proses pembelajaran. Microsoft telah menerapkan strategi pendidikan ini dengan membangun kumpulan data dari buku teks, sebagaimana dirinci dalam studi mereka “Hanya Buku Teks yang Anda Butuhkan.” Seri Phi diluncurkan pada Juni 2023, dimulai dengan Phi-1, model ringkas yang memiliki 1.3 miliar parameter. Model ini dengan cepat menunjukkan keampuhannya, khususnya dalam tugas pengkodean Python, yang kinerjanya mengungguli model yang lebih besar dan lebih kompleks. Membangun kesuksesan ini, Microsoft belakangan mengembangkannya Fi-1.5, yang mempertahankan jumlah parameter yang sama tetapi memperluas kemampuannya di berbagai bidang seperti penalaran akal sehat dan pemahaman bahasa. Serial ini menjadi lebih cemerlang dengan dirilisnya Fi-2 pada bulan Desember 2023. Dengan 2.7 miliar parameter, Phi-2 menunjukkan keterampilan yang mengesankan dalam penalaran dan pemahaman bahasa, memposisikannya sebagai pesaing kuat terhadap model yang jauh lebih besar.

Phi-3 vs. Model Bahasa Kecil Lainnya

Memperluas pendahulunya, Phi-3 Mini memperluas kemajuan Phi-2 dengan melampaui SLM lainnya, seperti Permata Google, Mistral itu Mistral, Llama3-Instruksikan Meta, dan GPT3.5, dalam berbagai aplikasi industri. Aplikasi ini mencakup pemahaman dan inferensi bahasa, pengetahuan umum, penalaran akal sehat, soal kata matematika sekolah dasar, dan menjawab pertanyaan medis, yang menunjukkan kinerja yang lebih unggul dibandingkan dengan model-model ini. Phi-3 Mini juga telah menjalani pengujian offline pada iPhone 14 untuk berbagai tugas, termasuk pembuatan konten dan memberikan saran aktivitas yang disesuaikan dengan lokasi tertentu. Untuk tujuan ini, Phi-3 Mini telah diringkas menjadi 1.8GB menggunakan proses yang disebut kuantisasi, yang mengoptimalkan model untuk perangkat dengan sumber daya terbatas dengan mengonversi data numerik model dari angka floating-point 32-bit ke format yang lebih ringkas seperti bilangan bulat 4-bit. Hal ini tidak hanya mengurangi jejak memori model namun juga meningkatkan kecepatan pemrosesan dan efisiensi daya, yang sangat penting untuk perangkat seluler. Pengembang biasanya menggunakan kerangka kerja seperti TensorFlow Lite or Ponsel PyTorch, menggabungkan alat kuantisasi bawaan untuk mengotomatisasi dan menyempurnakan proses ini.

Perbandingan Fitur: Phi-3 Mini vs. Phi-2 Mini

Di bawah ini kami membandingkan beberapa fitur Phi-3 dengan pendahulunya Phi-2.

  • Arsitektur Model: Phi-2 beroperasi pada arsitektur berbasis transformator yang dirancang untuk memprediksi kata berikutnya. Phi-3 Mini juga menggunakan arsitektur decoder transformator tetapi lebih selaras dengan struktur model Llama-2, menggunakan tokenizer yang sama dengan ukuran kosakata 320,641. Kompatibilitas ini memastikan bahwa alat yang dikembangkan untuk Llama-2 dapat dengan mudah diadaptasi untuk digunakan dengan Phi-3 Mini.
  • Panjang Konteks: Phi-3 Mini mendukung panjang konteks 8,000 token, yang jauh lebih besar dari 2 token Phi-2,048. Peningkatan ini memungkinkan Phi-3 Mini mengelola interaksi yang lebih detail dan memproses teks yang lebih panjang.
  • Berjalan Secara Lokal di Perangkat Seluler: Phi-3 Mini dapat dikompresi menjadi 4-bit, menempati memori sekitar 1.8 GB, mirip dengan Phi-2. Ini diuji berjalan offline pada iPhone 14 dengan chip A16 Bionic, yang mencapai kecepatan pemrosesan lebih dari 12 token per detik, menyamai kinerja Phi-2 dalam kondisi serupa.
  • Ukuran Model: Dengan 3.8 miliar parameter, Phi-3 Mini memiliki skala yang lebih besar dibandingkan Phi-2 yang memiliki 2.7 miliar parameter. Hal ini mencerminkan peningkatan kemampuannya.
  • Data pelatihan: Tidak seperti Phi-2, yang dilatih dengan 1.4 triliun token, Phi-3 Mini telah dilatih dengan kumpulan token yang jauh lebih besar yaitu 3.3 triliun, sehingga memungkinkannya untuk lebih memahami pola bahasa yang kompleks.

Mengatasi Keterbatasan Phi-3 Mini

Meskipun Phi-3 Mini menunjukkan kemajuan signifikan dalam bidang model bahasa kecil, hal ini bukannya tanpa keterbatasan. Kendala utama Phi-3 Mini, mengingat ukurannya yang lebih kecil dibandingkan model bahasa yang masif, adalah terbatasnya kapasitas untuk menyimpan pengetahuan faktual yang luas. Hal ini dapat memengaruhi kemampuannya untuk menangani pertanyaan secara mandiri yang memerlukan data faktual spesifik yang mendalam atau pengetahuan ahli yang mendetail. Namun hal ini dapat diatasi dengan mengintegrasikan Phi-3 Mini dengan mesin pencari. Dengan cara ini model dapat mengakses informasi yang lebih luas secara real-time, sehingga secara efektif mengimbangi keterbatasan pengetahuan yang melekat pada model tersebut. Integrasi ini memungkinkan Phi-3 Mini berfungsi seperti seorang pembicara berkemampuan tinggi yang, meskipun memahami bahasa dan konteks secara komprehensif, terkadang perlu “mencari” informasi untuk memberikan tanggapan yang akurat dan terkini.

Ketersediaan

Phi-3 kini tersedia di beberapa platform, termasuk Microsoft Azure AI Studio, Wajah Memeluk, dan Ollama. Di Azure AI, model ini menggabungkan alur kerja penerapan-evaluasi-penyempurnaan, dan di Ollama, model ini dapat dijalankan secara lokal di laptop. Modelnya telah disesuaikan Runtime ONNX dan mendukung Windows DirectML, memastikannya berfungsi dengan baik di berbagai jenis perangkat keras seperti GPU, CPU, dan perangkat seluler. Selain itu, Phi-3 ditawarkan sebagai layanan mikro melalui NVIDIA NIM, dilengkapi dengan API standar untuk kemudahan penerapan di berbagai lingkungan dan dioptimalkan secara khusus untuk GPU NVIDIA. Microsoft berencana untuk lebih memperluas seri Phi-3 dalam waktu dekat dengan menambahkan model Phi-3-small (7B) dan Phi-3-medium (14B), memberikan pengguna pilihan tambahan untuk menyeimbangkan kualitas dan biaya.

The Bottom Line

Phi-3 Mini dari Microsoft membuat kemajuan signifikan di bidang kecerdasan buatan dengan mengadaptasi kekuatan model bahasa besar untuk penggunaan seluler. Model ini meningkatkan interaksi pengguna dengan perangkat melalui pemrosesan yang lebih cepat dan real-time serta fitur privasi yang ditingkatkan. Hal ini meminimalkan kebutuhan akan layanan berbasis cloud, mengurangi biaya operasional, dan memperluas cakupan aplikasi AI di berbagai bidang seperti layanan kesehatan dan otomatisasi rumah. Dengan fokus pada pengurangan bias melalui pembelajaran kurikulum dan mempertahankan kinerja kompetitif, Phi-3 Mini berkembang menjadi alat utama untuk AI seluler yang efisien dan berkelanjutan, yang secara halus mengubah cara kita berinteraksi dengan teknologi setiap hari.

Dr. Tehseen Zia adalah Associate Professor Tetap di COMSATS University Islamabad, memegang gelar PhD di bidang AI dari Vienna University of Technology, Austria. Mengkhususkan diri dalam Kecerdasan Buatan, Pembelajaran Mesin, Ilmu Data, dan Visi Komputer, ia telah memberikan kontribusi yang signifikan dengan publikasi di jurnal ilmiah terkemuka. Dr. Tehseen juga memimpin berbagai proyek industri sebagai Penyelidik Utama dan menjabat sebagai Konsultan AI.