Connect with us

Kunstmatige intelligentie

Supercharging Graph Neural Networks met Large Language Models: De Ultieme Gids

mm
graph neural network large language model

Graphen zijn gegevensstructuren die complexe relaties vertegenwoordigen in een breed scala aan domeinen, waaronder sociale netwerken, kennisbases, biologische systemen en veel meer. In deze graphen worden entiteiten vertegenwoordigd als knooppunten en hun relaties worden weergegeven als randen.

De mogelijkheid om deze ingewikkelde relationele structuren effectief te vertegenwoordigen en te redeneren is cruciaal voor het mogelijk maken van vooruitgang in domeinen zoals netwerk wetenschap, chemische informatiekunde en recommender systemen.

Graph Neural Networks (GNN’s) zijn opgekomen als een krachtig diep leer raamwerk voor graph machine learning taken. Door de graph topologie op te nemen in de neurale netwerk architectuur via buurt aggregatie of graph convoluties, kunnen GNN’s lage dimensionale vector representaties leren die zowel de knooppunt kenmerken als hun structurele rollen coderen. Dit stelt GNN’s in staat om state-of-the-art prestaties te bereiken op taken zoals knooppunt classificatie, link voorspelling en graph classificatie in diverse toepassingsgebieden.

Terwijl GNN’s aanzienlijke vooruitgang hebben geboekt, blijven enkele belangrijke uitdagingen bestaan. Het verkrijgen van hoogwaardige gelabelde gegevens voor het trainen van begeleide GNN-modellen kan duur en tijdrovend zijn. Bovendien kunnen GNN’s moeite hebben met heterogene graph structuren en situaties waarin de graph distributie op test tijd aanzienlijk verschilt van de trainingsgegevens (uit de distributie generalisatie).

In parallel, hebben Large Language Models (LLM’s) zoals GPT-4 en LLaMA de wereld stormenderhand veroverd met hun ongelooflijke natuurlijke taal begrip en generatie capaciteiten. Getraind op enorme tekst corpora met miljarden parameters, vertonen LLM’s opmerkelijke few-shot learning capaciteiten, generalisatie over taken en alledaagse redeneringsvaardigheden die eerder extreem moeilijk werden geacht voor AI-systemen.

Het enorme succes van LLM’s heeft onderzoeken naar het benutten van hun kracht voor graph machine learning taken aangewakkerd. Enerzijds bieden de kennis en redeneringscapaciteiten van LLM’s kansen om traditionele GNN-modellen te verbeteren. Anderzijds zouden de gestructureerde representaties en feitelijke kennis die inherent zijn aan graphen, instrumenteel kunnen zijn bij het aanpakken van enkele belangrijke beperkingen van LLM’s, zoals hallucinaties en gebrek aan interpretatie.

Graph Neural Networks en Zelfbegeleid Leren

Om de noodzakelijke context te bieden, zullen we eerst de kernconcepten en methoden in graph neurale netwerken en zelfbegeleid graph representatie leren kort bespreken.

Graph Neurale Netwerk Architecturen

Graph Neurale Netwerk Architectuur – bron

Het belangrijkste onderscheid tussen traditionele diepe neurale netwerken en GNN’s ligt in hun vermogen om rechtstreeks op graph-gegevens te werken. GNN’s volgen een buurt aggregatie schema, waarbij elke knooppunt functie vectoren van zijn buren aggregeert om zijn eigen representatie te berekenen.

Talrijke GNN-architecturen zijn voorgesteld met verschillende instantiaties van de bericht en update functies, zoals Graph Convolutional Networks (GCN’s), GraphSAGE, Graph Attention Networks (GAT’s) en Graph Isomorphism Networks (GIN’s) onder andere.

Onlangs hebben graph transformers aan populariteit gewonnen door de zelf aandacht mechanisme van natuurlijke taal transformers aan te passen om op graph-gegevens te werken. Enkele voorbeelden zijn GraphormerTransformer en GraphFormers. Deze modellen zijn in staat om lange afstands afhankelijkheden over de graph beter te vangen dan zuiver buurt-gebaseerde GNN’s.

Zelfbegeleid Leren op Graphen

Terwijl GNN’s krachtige representatie modellen zijn, wordt hun prestatie vaak beperkt door het gebrek aan grote gelabelde datasets die nodig zijn voor begeleide training. Zelfbegeleid leren is opgekomen als een veelbelovend paradigma om GNN’s voor te trainen op ongelabelde graph gegevens door gebruik te maken van pretext taken die alleen de intrinsieke graph structuur en knooppunt kenmerken vereisen.

Enkele veel voorkomende pretext taken die worden gebruikt voor zelfbegeleid GNN voor training zijn:

  1. Knooppunt Eigenschap Voorspelling: Willekeurig maskeren of corrumperen van een deel van de knooppunt attributen/kenmerken en de GNN de taak geven om ze te reconstrueren.
  2. Rand/Link Voorspelling: Leren om te voorspellen of een rand bestaat tussen een paar knooppunten, vaak op basis van willekeurig rand maskeren.
  3. Contrastief Leren: Maximale overeenkomsten tussen graph weergaven van hetzelfde graph monster maximaliseren terwijl weergaven van verschillende graphen worden weggeduwd.
  4. Wederzijdse Informatie Maximisatie: Maximale wederzijdse informatie tussen lokale knooppunt representaties en een doel representatie zoals de globale graph embedding.

Pretext taken zoals deze stellen de GNN in staat om betekenisvolle structurele en semantische patronen te extraheren uit de ongelabelde graph gegevens tijdens voor training. De voor getrainde GNN kan vervolgens worden fijngesteld op relatief kleine gelabelde subsets om uit te blinken in diverse downstream taken zoals knooppunt classificatie, link voorspelling en graph classificatie.

Door zelfbegeleiding te benutten, vertonen GNN’s die zijn voor getraind op grote ongelabelde datasets betere generalisatie, robuustheid tegen distributie verschuivingen en efficiëntie in vergelijking met training van scratch. Echter, enkele belangrijke beperkingen van traditionele GNN-gebaseerde zelfbegeleide methoden blijven bestaan, die we vervolgens zullen onderzoeken door LLM’s te benutten.

Graph ML Versterken met Large Language Models

Integratie van Graphen en LLM – bron

De opmerkelijke capaciteiten van LLM’s in het begrijpen van natuurlijke taal, redeneren en few-shot leren bieden kansen om meerdere aspecten van graph machine learning pipelines te verbeteren. We onderzoeken enkele belangrijke onderzoeksrichtingen in deze ruimte:

Een belangrijke uitdaging bij het toepassen van GNN’s is het verkrijgen van hoogwaardige functie representaties voor knooppunten en randen, vooral wanneer ze rijke tekstuele attributen bevatten zoals beschrijvingen, titels of abstracts. Traditioneel zijn eenvoudige zak van woorden of voor getrainde woord embedding modellen gebruikt, die vaak falen om de nuances van semantiek te vangen.

Recente werken hebben de kracht van het benutten van Large Language Models als tekst encoders aangetoond om betere knooppunt/rand functie representaties te construeren voordat ze worden doorgegeven aan de GNN. Bijvoorbeeld, Chen et al. gebruiken LLM’s zoals GPT-3 om tekstuele knooppunt attributen te encoderen, waarbij aanzienlijke prestatie winst wordt getoond ten opzichte van traditionele woord embeddings op knooppunt classificatie taken.

Verder dan betere tekst encoders, kunnen LLM’s worden gebruikt om aangevulde informatie te genereren uit de oorspronkelijke tekst attributen op een semi-begeleide manier. TAPE genereert potentiële labels/verklaringen voor knooppunten met behulp van een LLM en gebruikt deze als extra aangevulde functies. KEA extracteert termen uit tekst attributen met behulp van een LLM en verkrijgt gedetailleerde beschrijvingen voor deze termen om functies aan te vullen.

Door de kwaliteit en expressiviteit van invoer functies te verbeteren, kunnen LLM’s hun superieure natuurlijke taal begrip capaciteiten overdragen aan GNN’s, waardoor de prestatie op downstream taken wordt verbeterd.

Verlichting van Afhankelijkheid van Gelabelde Gegevens

Een belangrijk voordeel van LLM’s is hun vermogen om redelijk goed te presteren op nieuwe taken met weinig tot geen gelabelde gegevens, dankzij hun voor training op uitgebreide tekst corpora. Deze few-shot learning capaciteit kan worden benut om de afhankelijkheid van GNN’s van grote gelabelde datasets te verlichten.

Een benadering is om LLM’s rechtstreeks te gebruiken om voorspellingen te doen op graph taken door de graph structuur en knooppunt informatie te beschrijven in natuurlijke taal prompts. Methoden zoals InstructGLM en GPT4Graph finetunen LLM’s zoals LLaMA en GPT-4 met behulp van zorgvuldig ontworpen prompts die graph topologie details zoals knooppunt verbindingen, buurten enz. incorporeren. De afgestemde LLM’s kunnen vervolgens voorspellingen genereren voor taken zoals knooppunt classificatie en link voorspelling in een zero-shot manier tijdens inferentie.

Terwijl het gebruik van LLM’s als black-box predictors veelbelovend is, neemt hun prestatie af voor meer complexe graph taken waarbij expliciete modellering van de structuur voordelig is. Enkele benaderingen gebruiken LLM’s in combinatie met GNN’s – de GNN codeert de graph structuur terwijl de LLM verbeterde semantische begrip van knooppunten van hun tekst beschrijvingen biedt.

Graph Begrip met LLM Framework – Bron

GraphLLM onderzoekt twee strategieën: 1) LLM’s als Versterkers waar LLM’s tekstuele knooppunt attributen encoderen voordat ze worden doorgegeven aan de GNN, en 2) LLM’s als Voorspellers waar de LLM de tussenliggende representaties van de GNN als invoer neemt om uiteindelijke voorspellingen te doen.

GLEM gaat verder door een variatieel EM-algoritme voor te stellen dat alterneert tussen het bijwerken van de LLM en GNN componenten voor wederzijdse verbetering.

Door de afhankelijkheid van gelabelde gegevens te verlichten via few-shot capaciteiten en semi-begeleide aanvulling, kunnen LLM-versterkte graph learning methoden nieuwe toepassingen ontgrendelen en gegevensefficiëntie verbeteren.

LLM’s Versterken met Graphen

Terwijl LLM’s enorm succesvol zijn, lijden ze nog steeds aan belangrijke beperkingen zoals hallucinaties (het genereren van non-factuele verklaringen), gebrek aan interpretatie in hun redeneringsproces en onvermogen om consistente feitelijke kennis te behouden.

Graphen, vooral kennisgraphen die gestructureerde feitelijke informatie van betrouwbare bronnen vertegenwoordigen, bieden veelbelovende wegen om deze tekortkomingen aan te pakken. We onderzoeken enkele opkomende benaderingen in deze richting:

Kennis Grafiek Versterkte LLM Voor Training

Soortgelijk aan hoe LLM’s worden voor getraind op grote tekst corpora, hebben recente werken onderzocht om ze voor te trainen op kennisgraphen om betere feitelijke bewustzijn en redeneringscapaciteiten te geven.

Enkele benaderingen passen de invoer gegevens aan door eenvoudigweg feitelijke KG triples te concatenaten of te alignen met natuurlijke taal tekst tijdens voor training. E-BERT aligneert KG entiteit vectoren met BERT’s wordpiece embeddings, terwijl K-BERT bomen construeert die de oorspronkelijke zin en relevante KG triples bevatten.

Ik heb de afgelopen vijf jaar mezelf ondergedompeld in de fascinerende wereld van Machine Learning en Deep Learning. Mijn passie en expertise hebben me geleid om bij te dragen aan meer dan 50 uiteenlopende software-engineeringprojecten, met een bijzondere focus op AI/ML. Mijn voortdurende nieuwsgierigheid heeft me ook aangetrokken tot Natural Language Processing, een vakgebied dat ik graag verder wil verkennen.