Connect with us

Kecerdasan buatan

Supercharging Graph Neural Networks dengan Large Language Models: Panduan Ultimate

mm
graph neural network large language model

Grafik adalah struktur data yang merepresentasikan hubungan kompleks di berbagai domain, termasuk jaringan sosial, basis pengetahuan, sistem biologis, dan banyak lagi. Dalam grafik ini, entitas direpresentasikan sebagai node, dan hubungan mereka digambarkan sebagai edge.

Kemampuan untuk merepresentasikan dan menalar tentang struktur relasional yang rumit ini sangat penting untuk memungkinkan kemajuan di bidang seperti ilmu jaringan, kemoinformatika, dan sistem rekomendasi.

Graph Neural Networks (GNNs) telah muncul sebagai kerangka kerja deep learning yang kuat untuk tugas pembelajaran mesin grafik. Dengan mengintegrasikan topologi grafik ke dalam arsitektur jaringan neural melalui agregasi tetangga atau konvolusi grafik, GNNs dapat mempelajari representasi vektor berdimensi rendah yang mengkodekan baik fitur node dan peran struktural mereka. Ini memungkinkan GNNs untuk mencapai kinerja terbaik pada tugas seperti klasifikasi node, prediksi tautan, dan klasifikasi grafik di berbagai area aplikasi.

Sementara GNNs telah menggerakkan kemajuan substantif, beberapa tantangan kunci masih ada. Mendapatkan data berlabel berkualitas tinggi untuk pelatihan model GNN yang diawasi dapat mahal dan memakan waktu. Selain itu, GNNs dapat bergelut dengan struktur grafik heterogen dan situasi di mana distribusi grafik pada waktu pengujian berbeda secara signifikan dari data pelatihan (generalisasi out-of-distribution).

Secara paralel, Large Language Models (LLMs) seperti GPT-4, dan LLaMA telah mengambil dunia dengan kemampuan pemahaman dan generasi bahasa alami yang luar biasa. Dilatih pada korpus teks besar dengan miliaran parameter, LLMs menunjukkan kemampuan pembelajaran few-shot yang luar biasa, generalisasi di seluruh tugas, dan keterampilan penalaran yang umum yang sebelumnya dianggap sangat menantang untuk sistem AI.

Kesuksesan luar biasa dari LLMs telah memicu eksplorasi untuk memanfaatkan kekuatan mereka untuk tugas pembelajaran mesin grafik. Di satu sisi, kemampuan pengetahuan dan penalaran LLMs menawarkan kesempatan untuk meningkatkan model GNN tradisional. Sebaliknya, representasi terstruktur dan pengetahuan faktual yang melekat dalam grafik dapat menjadi instrumental dalam mengatasi beberapa keterbatasan kunci LLMs, seperti halusinasi dan kurangnya interpretasi.

Graph Neural Networks dan Pembelajaran Mandiri

Untuk memberikan konteks yang diperlukan, kita akan pertama-tama meninjau konsep dan metode inti dalam graph neural networks dan pembelajaran representasi grafik mandiri.

Arsitektur Graph Neural Network

Arsitektur Graph Neural Network – sumber

Perbedaan kunci antara jaringan neural tradisional dan GNNs terletak pada kemampuan mereka untuk beroperasi langsung pada data terstruktur grafik. GNNs mengikuti skema agregasi tetangga, di mana setiap node mengagregasi vektor fitur dari tetangganya untuk menghitung representasinya sendiri.

Banyak arsitektur GNN telah diusulkan dengan instantiasi berbeda dari fungsi pesan dan pembaruan, seperti Graph Convolutional Networks (GCNs), GraphSAGE, Graph Attention Networks (GATs), dan Graph Isomorphism Networks (GINs) di antaranya.

Lebih baru-baru ini, graph transformer telah mendapatkan popularitas dengan menyesuaikan mekanisme perhatian mandiri dari transformer bahasa alami untuk beroperasi pada data terstruktur grafik. Beberapa contoh termasuk GraphormerTransformer, dan GraphFormers. Model-model ini dapat menangkap ketergantungan jangka panjang di seluruh grafik lebih baik daripada GNNs berbasis tetangga murni.

Pembelajaran Mandiri pada Grafik

Sementara GNNs adalah model representasi yang kuat, kinerjanya sering kali terhambat oleh kurangnya dataset berlabel besar yang diperlukan untuk pelatihan yang diawasi. Pembelajaran mandiri telah muncul sebagai paradigma yang menjanjikan untuk melakukan pra-pelatihan GNNs pada data grafik tidak berlabel dengan memanfaatkan tugas pretext yang hanya memerlukan struktur grafik intrinsik dan fitur node.

Grafik Mandiri – sumber

Beberapa tugas pretext umum yang digunakan untuk pra-pelatihan GNNs mandiri termasuk:

  1. Prediksi Properti Node: Mengacakan atau merusak sebagian dari atribut/node fitur dan meminta GNN untuk merekonstruksinya.
  2. Prediksi Tautan/Edge: Belajar untuk memprediksi apakah tautan ada antara pasangan node, sering berdasarkan pengacakan tautan acak.
  3. Pembelajaran Kontras: Maksimalkan kesamaan antara grafik tampilan dari sampel grafik yang sama sementara mendorong tampilan dari grafik yang berbeda.
  4. Maksimisasi Informasi Mutua: Maksimalkan informasi mutua antara representasi node lokal dan representasi target seperti penyematan grafik global.

Tugas pretext seperti ini memungkinkan GNN untuk mengekstrak pola struktural dan semantik yang bermakna dari data grafik tidak berlabel selama pra-pelatihan. GNN yang telah dipra-pelatih dapat kemudian diperhalus pada subset berlabel yang relatif kecil untuk unggul dalam berbagai tugas hilir seperti klasifikasi node, prediksi tautan, dan klasifikasi grafik.

Dengan memanfaatkan pengawasan mandiri, GNNs yang dipra-pelatih pada dataset besar tidak berlabel menunjukkan generalisasi yang lebih baik, kekuatan terhadap pergeseran distribusi, dan efisiensi dibandingkan dengan pelatihan dari awal. Namun, beberapa keterbatasan kunci dari metode pembelajaran mandiri GNN tradisional masih ada, yang akan kita jelajahi untuk dimanfaatkan dengan LLMs berikutnya.

Meningkatkan Pembelajaran Grafik dengan Large Language Models

Integrasi Grafik dan LLM – sumber

Kemampuan luar biasa dari LLMs dalam memahami bahasa alami, penalaran, dan pembelajaran few-shot menawarkan kesempatan untuk meningkatkan berbagai aspek pipa pembelajaran mesin grafik. Kita menjelajahi beberapa arah penelitian kunci dalam ruang ini:

Tantangan kunci dalam menerapkan GNNs adalah mendapatkan representasi fitur berkualitas tinggi untuk node dan edge, terutama ketika mereka berisi atribut teks kaya seperti deskripsi, judul, atau abstrak. Secara tradisional, model pengemasan kata sederhana atau word embedding pra-pelatih telah digunakan, yang sering gagal menangkap semantik yang nuansa.

Karya terbaru telah menunjukkan kekuatan memanfaatkan large language models sebagai pengkode teks untuk membangun representasi fitur node/edge yang lebih baik sebelum melewatinya ke GNN. Misalnya, Chen et al. menggunakan LLMs seperti GPT-3 untuk mengkode atribut teks node, menunjukkan peningkatan kinerja yang signifikan atas word embedding tradisional pada tugas klasifikasi node.

Selain pengkode teks yang lebih baik, LLMs dapat digunakan untuk menghasilkan informasi tambahan dari atribut teks asli dengan cara semi-terawasi. TAPE menghasilkan label/explanasi potensial untuk node menggunakan LLM dan menggunakan ini sebagai fitur tambahan.

Dengan meningkatkan kualitas dan ekspresivitas fitur input, LLMs dapat membagikan kemampuan pemahaman bahasa alami yang unggul kepada GNNs, meningkatkan kinerja pada tugas hilir.

Mengurangi Ketergantungan pada Data Berlabel

Kelebihan kunci dari LLMs adalah kemampuan mereka untuk berperforma dengan baik pada tugas baru dengan sedikit atau tanpa data berlabel, berkat pra-pelatihan mereka pada korpus teks besar. Kemampuan pembelajaran few-shot ini dapat dimanfaatkan untuk mengurangi ketergantungan GNNs pada dataset berlabel besar.

Satu pendekatan adalah menggunakan LLMs untuk secara langsung membuat prediksi pada tugas grafik dengan menggambarkan struktur grafik dan informasi node dalam prompt bahasa alami. Metode seperti InstructGLM dan GPT4Graph memperhalus LLMs seperti LLaMA dan GPT-4 menggunakan prompt yang dirancang dengan hati-hati yang mengintegrasikan detail topologi grafik seperti koneksi node, tetangga, dll. LLMs yang diperhalus dapat kemudian menghasilkan prediksi untuk tugas seperti klasifikasi node dan prediksi tautan dalam cara zero-shot selama inferensi.

Sementara menggunakan LLMs sebagai predictor black-box telah menunjukkan janji, kinerjanya menurun untuk tugas grafik yang lebih kompleks di mana pemodelan struktur eksplisit bermanfaat. Beberapa pendekatan thus menggunakan LLMs bersamaan dengan GNNs – GNN mengkode struktur grafik sementara LLM menyediakan pemahaman semantik yang ditingkatkan dari node dari deskripsi teks mereka.

Pemahaman Grafik dengan Kerangka LLM – Sumber

GraphLLM menjelajahi dua strategi: 1) LLMs-as-Enhancers di mana LLMs mengkode atribut teks node sebelum melewatinya ke GNN, dan 2) LLMs-as-Predictors di mana LLM mengambil representasi antara GNN sebagai input untuk membuat prediksi akhir.

GLEM melangkah lebih jauh dengan mengusulkan algoritma EM variabel yang bergantian antara memperbarui komponen LLM dan GNN untuk peningkatan bersama.

Dengan mengurangi ketergantungan pada data berlabel melalui kemampuan few-shot dan augmentasi semi-terawasi, metode pembelajaran grafik yang ditingkatkan dengan LLM dapat membuka kunci aplikasi baru dan meningkatkan efisiensi data.

Meningkatkan LLMs dengan Grafik

Sementara LLMs telah sangat sukses, mereka masih menderita keterbatasan kunci seperti halusinasi (menghasilkan pernyataan non-faktual), kurangnya interpretasi dalam proses penalaran mereka, dan ketidakmampuan untuk mempertahankan pengetahuan faktual yang konsisten.

Grafik, terutama grafik pengetahuan yang merepresentasikan informasi faktual terstruktur dari sumber yang dapat dipercaya, menawarkan jalur yang menjanjikan untuk mengatasi keterbatasan ini. Kita menjelajahi beberapa pendekatan yang muncul dalam arah ini:

Pra-pelatihan LLM yang Ditingkatkan dengan Grafik Pengetahuan

Mirip dengan cara LLMs dipra-pelatih pada korpus teks besar, karya terbaru telah menjelajahi pra-pelatihan mereka pada grafik pengetahuan untuk memberikan kesadaran faktual dan kemampuan penalaran yang lebih baik.

Beberapa pendekatan memodifikasi data input dengan menggabungkan atau menyelaraskan triplet KG faktual dengan teks bahasa alami selama pra-pelatihan. E-BERT menyelaraskan vektor entitas KG dengan wordpiece embeddings BERT, sementara K-BERT mengonstruksi pohon yang berisi kalimat asli dan triplet KG yang relevan.

Saya telah menghabiskan lima tahun terakhir dengan membenamkan diri dalam dunia Machine Learning dan Deep Learning yang menarik. Minat dan keahlian saya telah membawa saya untuk berkontribusi pada lebih dari 50 proyek rekayasa perangkat lunak yang beragam, dengan fokus khusus pada AI/ML. Rasa ingin tahu saya yang terus-menerus juga telah menarik saya ke arah Natural Language Processing, sebuah bidang yang saya ingin jelajahi lebih lanjut.