Connect with us

Pemimpin pemikiran

Bagaimana Model Bahasa Besar (LLM) Akan Memperkuat Aplikasi Masa Depan

mm

Generative AI dan khususnya rasa bahasa – ChatGPT ada di mana-mana. Teknologi Model Bahasa Besar (LLM) akan memainkan peran penting dalam pengembangan aplikasi masa depan. LLM sangat baik dalam memahami bahasa karena pelatihan pra-extensif yang telah dilakukan untuk model dasar pada triliunan baris teks domain publik, termasuk kode. Metode seperti fine-tuning terawasi dan pembelajaran dengan umpan balik manusia (RLHF) membuat LLM ini lebih efisien dalam menjawab pertanyaan spesifik dan berinteraksi dengan pengguna. Ketika kita memasuki fase berikutnya dari aplikasi AI yang ditenagai oleh LLM – komponen kunci berikut akan sangat penting untuk aplikasi generasi berikutnya. Gambar di bawah menunjukkan progres ini, dan ketika Anda memindahkan ke atas rantai, Anda membangun lebih banyak kecerdasan dan otonomi dalam aplikasi Anda. Mari kita lihat berbagai tingkat ini.

Panggilan LLM:

Ini adalah panggilan langsung ke model penyelesaian atau percakapan oleh penyedia LLM seperti Azure OpenAI atau Google PaLM atau Amazon Bedrock. Panggilan ini memiliki prompt yang sangat dasar dan sebagian besar menggunakan memori internal LLM untuk menghasilkan output.

Contoh: Mengajukan pertanyaan dasar seperti “ceritakan lelucon” kepada model seperti “text-davinci”. Anda memberikan sangat sedikit konteks dan model bergantung pada memori pra-terlatih internalnya untuk menghasilkan jawaban (ditandai dengan warna hijau pada gambar di bawah – menggunakan Azure OpenAI).

Prompt:

Tingkat kecerdasan berikutnya adalah dengan menambahkan lebih banyak konteks ke dalam prompt. Ada teknik untuk rekayasa prompt yang dapat diterapkan pada LLM yang dapat membuat mereka memberikan respons yang disesuaikan. Misalnya, ketika menghasilkan email kepada pengguna, beberapa konteks tentang pengguna, pembelian sebelumnya, dan pola perilaku dapat berfungsi sebagai prompt untuk lebih mengustomisasi email. Pengguna yang familiar dengan ChatGPT akan mengetahui metode yang berbeda untuk mempromosikan seperti memberikan contoh yang digunakan oleh LLM untuk membangun respons. Prompt melengkapi memori internal LLM dengan konteks tambahan. Contoh ada di bawah.

Embedding:

Embedding membawa prompt ke tingkat berikutnya dengan mencari toko pengetahuan untuk konteks dan mendapatkan konteks tersebut dan menambahkannya ke prompt. Di sini, langkah pertama adalah membuat toko dokumen besar dengan teks tidak terstruktur yang dapat dicari dengan mengindeks teks dan mempopulasikan basis data vektor. Untuk ini, model embedding seperti ‘ada’ oleh OpenAI digunakan yang mengambil potongan teks dan mengubahnya menjadi vektor n-dimensi. Embedding ini menangkap konteks teks, sehingga kalimat yang serupa akan memiliki embedding yang dekat satu sama lain dalam ruang vektor. Ketika pengguna memasukkan pertanyaan, pertanyaan itu juga diubah menjadi embedding dan vektor itu dicocokkan dengan vektor di database. Dengan demikian, kita mendapatkan 5 atau 10 potongan teks yang paling cocok untuk pertanyaan yang membentuk konteks. Pertanyaan dan konteks dipindahkan ke LLM untuk menjawab pertanyaan dengan cara yang manusiawi.

Rantai:

Hari ini Rantai adalah teknologi paling maju dan matang yang tersedia yang secara luas digunakan untuk membangun aplikasi LLM. Rantai adalah deterministik di mana urutan panggilan LLM dihubungkan bersama dengan output dari satu mengalir ke satu atau lebih LLM. Misalnya, kita bisa memiliki panggilan LLM yang mengquery database SQL dan mendapatkan daftar alamat email pelanggan dan mengirim daftar itu ke LLM lain yang akan menghasilkan email pribadi kepada Pelanggan. Rantai LLM ini dapat diintegrasikan ke dalam aliran aplikasi yang ada untuk menghasilkan hasil yang lebih berharga. Dengan menggunakan rantai, kita bisa melengkapi panggilan LLM dengan input eksternal seperti panggilan API dan integrasi dengan grafik pengetahuan untuk memberikan konteks. Selain itu, hari ini dengan beberapa penyedia LLM yang tersedia seperti OpenAI, AWS Bedrock, Google PaLM, MosaicML, dll. kita bisa mencampur dan mencocokkan panggilan LLM ke dalam rantai. Untuk elemen rantai dengan kecerdasan terbatas, LLM yang lebih rendah seperti ‘gpt3.5-turbo’ bisa digunakan sementara untuk tugas yang lebih maju ‘gpt4’ bisa digunakan. Rantai memberikan abstraksi untuk data, aplikasi, dan panggilan LLM.

Agen:

Agen adalah topik banyak debat online terutama dengan respect kepada kecerdasan buatan umum (AGI). Agen menggunakan LLM yang maju seperti ‘gpt4’ atau ‘PaLM2’ untuk merencanakan tugas daripada memiliki rantai yang telah ditentukan sebelumnya. Jadi sekarang ketika ada permintaan pengguna, berdasarkan pertanyaan, agen memutuskan set tugas apa yang harus dipanggil dan secara dinamis membangun rantai. Misalnya, ketika kita mengkonfigurasi agen dengan perintah seperti “beritahu pelanggan ketika APR pinjaman berubah karena pembaruan peraturan pemerintah”. Kerangka agen membuat panggilan LLM untuk memutuskan langkah-langkah apa yang harus diambil atau rantai yang harus dibangun. Di sini itu akan melibatkan memanggil aplikasi yang mengambil data dari situs web regulasi dan mengekstrak APR terbaru, kemudian panggilan LLM mencari database dan mengekstrak alamat email pelanggan yang terkena dampak dan akhirnya email yang dihasilkan untuk memberitahu semua orang.

Pemikiran Akhir

LLM adalah teknologi yang sangat berkembang dan model serta aplikasi yang lebih baik diluncurkan setiap minggu. Dari LLM ke Agen adalah tangga kecerdasan dan ketika kita memindahkan ke atas, kita membangun aplikasi otonom yang kompleks. Model yang lebih baik akan berarti agen yang lebih efektif dan aplikasi generasi berikutnya akan ditenagai oleh ini. Waktu akan menunjukkan seberapa maju aplikasi generasi berikutnya akan dan pola apa yang akan ditenagai.

Dattaraj Rao, Chief Data Scientist di Persistent Systems, adalah penulis buku “Keras to Kubernetes: The Journey of a Machine Learning Model to Production.” Di Persistent Systems, Dattaraj memimpin AI Research Lab yang menjelajahi algoritma terbaru di Computer Vision, Natural Language Understanding, Probabilistic programming, Reinforcement Learning, Explainable AI, dll. dan menunjukkan keterapan di bidang Healthcare, Banking dan Industrial. Dattaraj memiliki 11 paten di Machine Learning dan Computer Vision.