Künstliche Intelligenz
Ein tiefer Blick in die Retrieval-Augmented-Generation in LLM

Stellen Sie sich vor, Sie sind ein Analyst und haben Zugang zu einem Large Language Model. Sie sind begeistert von den Perspektiven, die es für Ihren Arbeitsablauf bringt. Aber dann fragen Sie es nach den aktuellen Aktienkursen oder der aktuellen Inflationsrate, und es antwortet mit:
“Es tut mir leid, aber ich kann keine Echtzeit- oder Nach-Cutoff-Daten bereitstellen. Meine letzte Trainingsdaten reichen nur bis Januar 2022.”
Large Language Model, trotz all ihrer sprachlichen Macht, fehlt die Fähigkeit, das “jetzt” zu erfassen. Und in der schnelllebigen Welt ist “jetzt” alles.
Forschung hat gezeigt, dass große vorgefertigte Sprachmodelle (LLM) auch Repositorien von faktischem Wissen sind.
Sie wurden auf so viele Daten trainiert, dass sie viele Fakten und Zahlen aufgenommen haben. Wenn sie fein abgestimmt werden, können sie bemerkenswerte Ergebnisse bei einer Vielzahl von NLP-Aufgaben erzielen.












