Rekayasa Cepat
Zero to Advanced Prompt Engineering dengan Langchain di Python

Aspek penting dari Model Bahasa Besar (LLM) adalah jumlah parameter yang digunakan model ini untuk pembelajaran. Semakin banyak parameter yang dimiliki model, semakin baik ia dapat memahami hubungan antara kata dan frasa. Ini berarti model dengan miliaran parameter memiliki kapasitas untuk menghasilkan berbagai format teks kreatif dan menjawab pertanyaan terbuka dan menantang dengan cara yang informatif.
LLM seperti ChatGPT, yang memanfaatkan model Transformer, mahir dalam memahami dan menghasilkan bahasa manusia, menjadikannya berguna untuk aplikasi yang membutuhkan pemahaman bahasa alami. Namun, mereka bukannya tanpa keterbatasan, yang meliputi pengetahuan yang sudah ketinggalan zaman, ketidakmampuan untuk berinteraksi dengan sistem eksternal, kurangnya pemahaman konteks, dan kadang-kadang menghasilkan tanggapan yang terdengar masuk akal tetapi salah atau tidak masuk akal, antara lain.
Mengatasi keterbatasan ini membutuhkan pengintegrasian LLM dengan sumber dan kemampuan data eksternal, yang dapat menghadirkan kerumitan dan menuntut keterampilan pengkodean dan penanganan data yang ekstensif. Ini, ditambah dengan tantangan untuk memahami konsep AI dan algoritme kompleks, berkontribusi pada kurva pembelajaran yang terkait dengan pengembangan aplikasi menggunakan LLM.
Namun demikian, integrasi LLM dengan alat lain untuk membentuk aplikasi bertenaga LLM dapat mengubah lanskap digital kami. Potensi aplikasi semacam itu sangat besar, termasuk meningkatkan efisiensi dan produktivitas, menyederhanakan tugas, meningkatkan pengambilan keputusan, dan memberikan pengalaman yang dipersonalisasi.
Pada artikel ini, kami akan mempelajari lebih dalam masalah ini, menjelajahi teknik canggih rekayasa cepat dengan Langchain, menawarkan penjelasan yang jelas, contoh praktis, dan petunjuk langkah demi langkah tentang cara menerapkannya.
Langchain, perpustakaan canggih, menghadirkan kemudahan dan fleksibilitas untuk merancang, mengimplementasikan, dan menyetel petunjuknya. Saat kami membongkar prinsip dan praktik rekayasa cepat, Anda akan mempelajari cara memanfaatkan fitur canggih Langchain untuk memanfaatkan kekuatan model SOTA Generatif AI seperti GPT-4.
Memahami Anjuran
Sebelum mendalami teknis prompt engineering, penting untuk memahami konsep prompt dan signifikansinya.
SEBUAH 'cepat' adalah urutan token yang digunakan sebagai input ke model bahasa, menginstruksikannya untuk menghasilkan jenis respons tertentu. Anjuran memainkan peran penting dalam mengarahkan perilaku model. Mereka dapat memengaruhi kualitas teks yang dihasilkan, dan jika dibuat dengan benar, dapat membantu model memberikan hasil yang berwawasan, akurat, dan sesuai konteks.
Rekayasa cepat adalah seni dan ilmu merancang petunjuk yang efektif. Tujuannya adalah untuk memperoleh output yang diinginkan dari model bahasa. Dengan hati-hati memilih dan menyusun prompt, seseorang dapat memandu model untuk menghasilkan respons yang lebih akurat dan relevan. Dalam praktiknya, ini melibatkan penyempurnaan frase input untuk memenuhi pelatihan model dan bias struktural.
Kecanggihan prompt engineering berkisar dari teknik sederhana, seperti memberi makan model dengan kata kunci yang relevan, hingga metode yang lebih maju yang melibatkan desain kompleks, petunjuk terstruktur yang menggunakan mekanisme internal model untuk keuntungannya.
Langchain: Alat Prompt dengan Pertumbuhan Tercepat
LangChain, diluncurkan pada Oktober 2022 oleh Harison Chase, telah menjadi salah satu kerangka kerja sumber terbuka yang paling berperingkat tinggi di GitHub pada tahun 2023. Ini menawarkan antarmuka yang disederhanakan dan distandarisasi untuk menggabungkan Model Bahasa Besar (LLM) ke dalam aplikasi. Ini juga menyediakan antarmuka yang kaya fitur untuk rekayasa cepat, memungkinkan pengembang untuk bereksperimen dengan berbagai strategi dan mengevaluasi hasil mereka. Dengan memanfaatkan Langchain, Anda dapat melakukan tugas-tugas teknik cepat dengan lebih efektif dan intuitif.
LangFlow berfungsi sebagai antarmuka pengguna untuk mengatur komponen LangChain menjadi diagram alur yang dapat dieksekusi, memungkinkan pembuatan prototipe dan eksperimen cepat.

LangChain mengisi celah penting dalam pengembangan AI untuk massa. Ini memungkinkan serangkaian aplikasi NLP seperti asisten virtual, pembuat konten, sistem penjawab pertanyaan, dan banyak lagi, untuk memecahkan berbagai masalah dunia nyata.
Alih-alih menjadi model atau penyedia mandiri, LangChain menyederhanakan interaksi dengan beragam model, memperluas kemampuan aplikasi LLM di luar batasan panggilan API sederhana.
Arsitektur LangChain
Komponen utama LangChain meliputi Model I/O, Templat Prompt, Memori, Agen, dan Rantai.
Model I / O
LangChain memfasilitasi koneksi tanpa batas dengan berbagai model bahasa dengan membungkusnya dengan antarmuka standar yang dikenal sebagai Model I/O. Ini memfasilitasi peralihan model yang mudah untuk pengoptimalan atau kinerja yang lebih baik. LangChain mendukung berbagai penyedia model bahasa, termasuk OpenAI, MemelukWajah, Biru langit, Kembang api, Dan banyak lagi.
Template Permintaan
Ini digunakan untuk mengelola dan mengoptimalkan interaksi dengan LLM dengan memberikan instruksi atau contoh singkat. Mengoptimalkan prompt meningkatkan kinerja model, dan fleksibilitasnya berkontribusi secara signifikan terhadap proses input.
Contoh sederhana template prompt:
from langchain.prompts import PromptTemplate prompt = PromptTemplate(input_variables=["subject"], template="What are the recent advancements in the field of {subject}?") print(prompt.format(subject="Natural Language Processing"))
Saat kami maju dalam kompleksitas, kami menemukan pola yang lebih canggih di LangChain, seperti pola Reason and Act (ReAct). ReAct adalah pola vital untuk eksekusi tindakan di mana agen menetapkan tugas ke alat yang sesuai, menyesuaikan input untuknya, dan mem-parsing outputnya untuk menyelesaikan tugas. Contoh Python di bawah menampilkan pola ReAct. Ini menunjukkan bagaimana prompt disusun dalam LangChain, menggunakan serangkaian pemikiran dan tindakan untuk bernalar melalui suatu masalah dan menghasilkan jawaban akhir:
PREFIX = """Answer the following question using the given tools:""" FORMAT_INSTRUCTIONS = """Follow this format: Question: {input_question} Thought: your initial thought on the question Action: your chosen action from [{tool_names}] Action Input: your input for the action Observation: the action's outcome""" SUFFIX = """Start! Question: {input} Thought:{agent_scratchpad}"""
Memori
Memori adalah konsep penting dalam LangChain, memungkinkan LLM dan alat untuk menyimpan informasi dari waktu ke waktu. Perilaku stateful ini meningkatkan kinerja aplikasi LangChain dengan menyimpan tanggapan sebelumnya, interaksi pengguna, keadaan lingkungan, dan tujuan agen. Strategi ConversationBufferMemory dan ConversationBufferWindowMemory masing-masing membantu melacak bagian lengkap atau terkini dari percakapan. Untuk pendekatan yang lebih canggih, strategi ConversationKGMemory memungkinkan penyandian percakapan sebagai grafik pengetahuan yang dapat diumpankan kembali ke prompt atau digunakan untuk memprediksi respons tanpa memanggil LLM.
Agen
Agen berinteraksi dengan dunia dengan melakukan tindakan dan tugas. Di LangChain, agen menggabungkan alat dan rantai untuk pelaksanaan tugas. Itu dapat membuat koneksi ke dunia luar untuk pengambilan informasi untuk menambah pengetahuan LLM, sehingga mengatasi keterbatasan bawaannya. Mereka dapat memutuskan untuk meneruskan perhitungan ke kalkulator atau juru bahasa Python tergantung pada situasinya.
Agen dilengkapi dengan subkomponen:
- Tools: Ini adalah komponen fungsional.
- Toolkit: Koleksi alat.
- Pelaksana Agen: Ini adalah mekanisme eksekusi yang memungkinkan pemilihan di antara alat.
Agen di LangChain juga mengikuti pola ReAct Zero-shot, di mana keputusan hanya didasarkan pada deskripsi alat. Mekanisme ini dapat diperpanjang dengan memori untuk memperhitungkan riwayat percakapan lengkap. Dengan ReAct, alih-alih meminta LLM untuk melengkapi teks Anda secara otomatis, Anda dapat memintanya untuk merespons dalam lingkaran pemikiran/tindakan/pengamatan.
Rantai
Rantai, seperti istilah yang disarankan, adalah urutan operasi yang memungkinkan perpustakaan LangChain memproses input dan output model bahasa dengan mulus. Komponen integral dari LangChain ini pada dasarnya terdiri dari tautan, yang dapat berupa rantai lain, atau primitif seperti petunjuk, model bahasa, atau utilitas.
Bayangkan sebuah rantai sebagai ban berjalan di sebuah pabrik. Setiap langkah di sabuk ini merepresentasikan operasi tertentu, yang bisa berupa menjalankan model bahasa, menerapkan fungsi Python ke teks, atau bahkan mendorong model dengan cara tertentu.
LangChain mengkategorikan rantainya menjadi tiga jenis: rantai Utilitas, rantai Generik, dan rantai Gabungkan Dokumen. Kami akan menyelami rantai Utilitas dan Generik untuk diskusi kami.
- Rantai Utilitas secara khusus dirancang untuk mengekstrak jawaban yang tepat dari model bahasa untuk tugas yang didefinisikan secara sempit. Sebagai contoh, mari kita lihat LLMMathChain. Rantai utilitas ini memungkinkan model bahasa untuk melakukan perhitungan matematis. Itu menerima pertanyaan dalam bahasa alami, dan model bahasa pada gilirannya menghasilkan potongan kode Python yang kemudian dieksekusi untuk menghasilkan jawabannya.
- Rantai Generik, di sisi lain, berfungsi sebagai blok penyusun untuk rantai lain tetapi tidak dapat langsung digunakan sendiri. Rantai ini, seperti LLMChain, merupakan dasar dan sering digabungkan dengan rantai lain untuk menyelesaikan tugas yang rumit. Misalnya, LLMChain sering digunakan untuk mengkueri objek model bahasa dengan memformat input berdasarkan template prompt yang disediakan dan kemudian meneruskannya ke model bahasa.
Implementasi Langkah-demi-langkah Teknik Cepat dengan Langchain
Kami akan memandu Anda melalui proses penerapan rekayasa cepat menggunakan Langchain. Sebelum melanjutkan, pastikan Anda telah menginstal perangkat lunak dan paket yang diperlukan.
Anda dapat memanfaatkan alat populer seperti Docker, Conda, Pip, dan Poetry untuk menyiapkan LangChain. File instalasi yang relevan untuk masing-masing metode ini dapat ditemukan di dalam repositori LangChain di https://github.com/benman1/generative_ai_with_langchain. Ini termasuk Dockerfile untuk Docker, a requirement.txt untuk Pip, a proyek py.toml untuk Puisi, dan a langchain_ai.yml file untuk Conda.
Dalam artikel kami, kami akan menggunakan Pip, pengelola paket standar untuk Python, untuk memfasilitasi penginstalan dan pengelolaan pustaka pihak ketiga. Jika tidak termasuk dalam distribusi Python Anda, Anda dapat menginstal Pip dengan mengikuti petunjuk di https://pip.pypa.io/.
Untuk menginstal perpustakaan dengan Pip, gunakan perintah pip install library_name
.
Namun, Pip tidak mengelola lingkungannya sendiri. Untuk menangani lingkungan yang berbeda, kami menggunakan alat ini virtualenv.
Pada bagian selanjutnya, kita akan membahas integrasi model.
Langkah 1: Menyiapkan Langchain
Pertama, Anda perlu menginstal paket Langchain. Kami menggunakan OS Windows. Jalankan perintah berikut di terminal Anda untuk menginstalnya:
pip install langchain
Langkah 2: Mengimpor Langchain dan modul lain yang diperlukan
Selanjutnya, impor Langchain beserta modul-modul lain yang diperlukan. Di sini, kami juga mengimpor perpustakaan transformer, yang banyak digunakan dalam tugas NLP.
import langchain from transformers import AutoModelWithLMHead, AutoTokenizer
Langkah 3: Muat Model yang Telah Dilatih Sebelumnya
AI terbuka
OpenAI model dapat dengan mudah dihubungkan dengan pustaka LangChain atau pustaka klien OpenAI Python. Khususnya, OpenAI melengkapi kelas Penyematan untuk model penyematan teks. Dua model LLM utama adalah GPT-3.5 dan GPT-4, yang berbeda terutama dalam panjang token. Harga untuk setiap model dapat ditemukan di situs web OpenAI. Sementara masih banyak lagi model canggih seperti GPT-4-32K yang memiliki penerimaan token lebih tinggi, ketersediaannya melalui API tidak selalu dijamin.

Mengakses model ini memerlukan kunci OpenAI API. Ini dapat dilakukan dengan membuat akun di platform OpenAI, menyiapkan informasi penagihan, dan membuat kunci rahasia baru.
import os os.environ["OPENAI_API_KEY"] = 'your-openai-token'
Setelah berhasil membuat kunci, Anda dapat menetapkannya sebagai variabel lingkungan (OPENAI_API_KEY) atau meneruskannya sebagai parameter selama pembuatan instance kelas untuk panggilan OpenAI.
Pertimbangkan skrip LangChain untuk menampilkan interaksi dengan model OpenAI:
from langchain.llms import OpenAI llm = OpenAI(model_name="text-davinci-003") # The LLM takes a prompt as an input and outputs a completion prompt = "who is the president of the United States of America?" completion = llm(prompt)
The current President of the United States of America is Joe Biden.
Dalam contoh ini, agen diinisialisasi untuk melakukan perhitungan. Agen mengambil input, tugas penambahan sederhana, memprosesnya menggunakan model OpenAI yang disediakan dan mengembalikan hasilnya.
Wajah Memeluk
Wajah Memeluk adalah GRATIS UNTUK DIGUNAKAN Pustaka Transformers Python, kompatibel dengan PyTorch, TensorFlow, dan JAX, dan menyertakan implementasi model seperti BERTI, T5, Dll
Hugging Face juga menawarkan Hugging Face Hub, sebuah platform untuk menghosting repositori kode, model pembelajaran mesin, kumpulan data, dan aplikasi web.
Untuk menggunakan Hugging Face sebagai penyedia model Anda, Anda memerlukan akun dan kunci API, yang dapat diperoleh dari situs web mereka. Token dapat tersedia di lingkungan Anda sebagai HUGGINGFACEHUB_API_TOKEN.
Pertimbangkan potongan Python berikut yang menggunakan model sumber terbuka yang dikembangkan oleh Google, model Flan-T5-XXL:
from langchain.llms import HuggingFaceHub llm = HuggingFaceHub(model_kwargs={"temperature": 0.5, "max_length": 64},repo_id="google/flan-t5-xxl") prompt = "In which country is Tokyo?" completion = llm(prompt) print(completion)
Skrip ini mengambil pertanyaan sebagai masukan dan mengembalikan jawaban, menampilkan pengetahuan dan kemampuan prediksi model.
Langkah 4: Rekayasa Prompt Dasar
Untuk memulainya, kami akan membuat prompt sederhana dan melihat bagaimana model merespons.
prompt = 'Translate the following English text to French: "{0}"' input_text = 'Hello, how are you?' input_ids = tokenizer.encode(prompt.format(input_text), return_tensors='pt') generated_ids = model.generate(input_ids, max_length=100, temperature=0.9) print(tokenizer.decode(generated_ids[0], skip_special_tokens=True))
Pada cuplikan kode di atas, kami memberikan perintah untuk menerjemahkan teks bahasa Inggris ke bahasa Prancis. Model bahasa kemudian mencoba menerjemahkan teks yang diberikan berdasarkan prompt.
Langkah 5: Rekayasa Cepat Tingkat Lanjut
Sementara pendekatan di atas berfungsi dengan baik, itu tidak memanfaatkan sepenuhnya kekuatan rekayasa cepat. Mari kita tingkatkan dengan memperkenalkan beberapa struktur prompt yang lebih kompleks.
prompt = 'As a highly proficient French translator, translate the following English text to French: "{0}"' input_text = 'Hello, how are you?' input_ids = tokenizer.encode(prompt.format(input_text), return_tensors='pt') generated_ids = model.generate(input_ids, max_length=100, temperature=0.9) print(tokenizer.decode(generated_ids[0], skip_special_tokens=True))
Dalam cuplikan kode ini, kami mengubah prompt untuk menyarankan bahwa terjemahan dilakukan oleh 'penerjemah bahasa Prancis yang sangat mahir. Perubahan prompt dapat menghasilkan terjemahan yang lebih baik, karena model tersebut sekarang mengasumsikan persona seorang ahli.
Membangun Sistem Tanya Jawab Sastra Akademik dengan Langchain
Kami akan membangun sistem Tanya Jawab Sastra Akademik menggunakan LangChain yang dapat menjawab pertanyaan tentang makalah akademis yang baru diterbitkan.

Pertama, untuk mengatur lingkungan kami, kami menginstal dependensi yang diperlukan.
pip install langchain arxiv openai transformers faiss-cpu
Setelah penginstalan, kami membuat notebook Python baru dan mengimpor pustaka yang diperlukan:
from langchain.llms import OpenAI from langchain.chains.qa_with_sources import load_qa_with_sources_chain from langchain.docstore.document import Document import arxiv
Inti dari sistem Tanya Jawab kami adalah kemampuan untuk mengambil makalah akademis yang relevan terkait dengan bidang tertentu, di sini kami mempertimbangkan Pemrosesan Bahasa Alami (NLP), menggunakan database akademik arXiv. Untuk melakukan ini, kami mendefinisikan fungsi get_arxiv_data(max_results=10)
. Fungsi ini mengumpulkan ringkasan makalah NLP terbaru dari arXiv dan merangkumnya ke dalam objek Dokumen LangChain, menggunakan ringkasan sebagai konten dan id entri unik sebagai sumbernya.
Kami akan menggunakan API arXiv untuk mengambil makalah terbaru yang terkait dengan NLP:
def get_arxiv_data(max_results=10): search = arxiv.Search( query="NLP", max_results=max_results, sort_by=arxiv.SortCriterion.SubmittedDate, ) documents = [] for result in search.results(): documents.append(Document( page_content=result.summary, metadata={"source": result.entry_id}, )) return documents
Fungsi ini mengambil ringkasan makalah NLP terbaru dari arXiv dan mengubahnya menjadi objek Dokumen LangChain. Kami menggunakan ringkasan makalah dan id entri uniknya (URL ke makalah) masing-masing sebagai konten dan sumber.
def print_answer(question): print( chain( { "input_documents": sources, "question": question, }, return_only_outputs=True, )["output_text"] )
Mari tentukan korpus kita dan atur LangChain:
sources = get_arxiv_data(2) chain = load_qa_with_sources_chain(OpenAI(temperature=0))
Dengan sistem Q&A akademik kami sekarang siap, kami dapat mengujinya dengan mengajukan pertanyaan:
print_answer("What are the recent advancements in NLP?")
Keluarannya akan menjadi jawaban atas pertanyaan Anda, mengutip sumber dari mana informasi itu diambil. Contohnya:
Recent advancements in NLP include Retriever-augmented instruction-following models and a novel computational framework for solving alternating current optimal power flow (ACOPF) problems using graphics processing units (GPUs). SOURCES: http://arxiv.org/abs/2307.16877v1, http://arxiv.org/abs/2307.16830v1
Anda dapat dengan mudah mengganti model atau mengubah sistem sesuai kebutuhan Anda. Misalnya, di sini kami beralih ke GPT-4 yang akhirnya memberi kami respons yang jauh lebih baik dan mendetail.
sources = get_arxiv_data(2) chain = load_qa_with_sources_chain(OpenAI(model_name="gpt-4",temperature=0))
Recent advancements in Natural Language Processing (NLP) include the development of retriever-augmented instruction-following models for information-seeking tasks such as question answering (QA). These models can be adapted to various information domains and tasks without additional fine-tuning. However, they often struggle to stick to the provided knowledge and may hallucinate in their responses. Another advancement is the introduction of a computational framework for solving alternating current optimal power flow (ACOPF) problems using graphics processing units (GPUs). This approach utilizes a single-instruction, multiple-data (SIMD) abstraction of nonlinear programs (NLP) and employs a condensed-space interior-point method (IPM) with an inequality relaxation strategy. This strategy allows for the factorization of the KKT matrix without numerical pivoting, which has previously hampered the parallelization of the IPM algorithm. SOURCES: http://arxiv.org/abs/2307.16877v1, http://arxiv.org/abs/2307.16830v1
Token di GPT-4 bisa sesingkat satu karakter atau sepanjang satu kata. Misalnya, GPT-4-32K, dapat memproses hingga 32,000 token dalam sekali proses sementara GPT-4-8K dan GPT-3.5-turbo masing-masing mendukung 8,000 dan 4,000 token. Namun, penting untuk dicatat bahwa setiap interaksi dengan model ini memiliki biaya yang berbanding lurus dengan jumlah token yang diproses, baik itu input maupun output.
Dalam konteks sistem Q&A kami, jika literatur akademik melebihi batas token maksimum, sistem akan gagal memprosesnya secara keseluruhan, sehingga memengaruhi kualitas dan kelengkapan tanggapan. Untuk mengatasi masalah ini, teks dapat dipecah menjadi bagian yang lebih kecil yang sesuai dengan batas token.
FAISS (Pencarian Kesamaan AI Facebook) membantu dengan cepat menemukan potongan teks paling relevan yang terkait dengan kueri pengguna. Itu membuat representasi vektor dari setiap potongan teks dan menggunakan vektor ini untuk mengidentifikasi dan mengambil potongan yang paling mirip dengan representasi vektor dari pertanyaan yang diberikan.
Penting untuk diingat bahwa bahkan dengan penggunaan alat seperti FAISS, kebutuhan untuk membagi teks menjadi bagian-bagian yang lebih kecil karena keterbatasan token terkadang dapat mengakibatkan hilangnya konteks, yang memengaruhi kualitas jawaban. Oleh karena itu, manajemen yang hati-hati dan pengoptimalan penggunaan token sangat penting saat bekerja dengan model bahasa besar ini.
pip install faiss-cpu langchain CharacterTextSplitter
Setelah memastikan pustaka di atas diinstal, jalankan
from langchain.embeddings.openai import OpenAIEmbeddings from langchain.vectorstores.faiss import FAISS from langchain.text_splitter import CharacterTextSplitter documents = get_arxiv_data(max_results=10) # We can now use feed more data document_chunks = [] splitter = CharacterTextSplitter(separator=" ", chunk_size=1024, chunk_overlap=0) for document in documents: for chunk in splitter.split_text(document.page_content): document_chunks.append(Document(page_content=chunk, metadata=document.metadata)) search_index = FAISS.from_documents(document_chunks, OpenAIEmbeddings()) chain = load_qa_with_sources_chain(OpenAI(temperature=0)) def print_answer(question): print( chain( { "input_documents": search_index.similarity_search(question, k=4), "question": question, }, return_only_outputs=True, )["output_text"] )
Dengan kode yang lengkap, kami sekarang memiliki alat yang ampuh untuk menanyakan literatur akademik terbaru di bidang NLP.
Recent advancements in NLP include the use of deep neural networks (DNNs) for automatic text analysis and natural language processing (NLP) tasks such as spell checking, language detection, entity extraction, author detection, question answering, and other tasks. SOURCES: http://arxiv.org/abs/2307.10652v1, http://arxiv.org/abs/2307.07002v1, http://arxiv.org/abs/2307.12114v1, http://arxiv.org/abs/2307.16217v1
Kesimpulan
Integrasi Model Bahasa Besar (LLM) ke dalam aplikasi telah mempercepat adopsi beberapa domain, termasuk terjemahan bahasa, analisis sentimen, dan pencarian informasi. Rekayasa cepat adalah alat yang ampuh dalam memaksimalkan potensi model ini, dan Langchain memimpin dalam menyederhanakan tugas kompleks ini. Antarmuka standarnya, template cepat yang fleksibel, integrasi model yang kuat, dan penggunaan agen dan rantai yang inovatif memastikan hasil yang optimal untuk kinerja LLM.
Namun, terlepas dari kemajuan ini, ada beberapa tips yang perlu diingat. Saat Anda menggunakan Langchain, penting untuk dipahami bahwa kualitas keluaran sangat bergantung pada frasa prompt. Bereksperimen dengan gaya dan struktur perintah yang berbeda dapat menghasilkan hasil yang lebih baik. Juga, ingat bahwa sementara Langchain mendukung berbagai model bahasa, masing-masing memiliki kekuatan dan kelemahannya. Memilih yang tepat untuk tugas spesifik Anda sangat penting. Terakhir, penting untuk diingat bahwa penggunaan model ini disertai dengan pertimbangan biaya, karena pemrosesan token secara langsung memengaruhi biaya interaksi.
Seperti yang ditunjukkan dalam panduan langkah demi langkah, Langchain dapat mendukung aplikasi yang tangguh, seperti sistem Q&A Literatur Akademik. Dengan komunitas pengguna yang berkembang dan keunggulan yang semakin meningkat di lanskap sumber terbuka, Langchain berjanji untuk menjadi alat penting dalam memanfaatkan potensi penuh LLM seperti GPT-4.