Connect with us

Künstliche Intelligenz

Ein tiefer Blick in die Retrieval-Augmented-Generation in LLM

mm
Retrieval Augmented Generation Illustration using Midjourney

Stellen Sie sich vor, Sie sind ein Analyst und haben Zugang zu einem Large Language Model. Sie sind begeistert von den Perspektiven, die es für Ihren Arbeitsablauf bringt. Aber dann fragen Sie es nach den aktuellen Aktienkursen oder der aktuellen Inflationsrate, und es antwortet mit:

“Es tut mir leid, aber ich kann keine Echtzeit- oder Nach-Cutoff-Daten bereitstellen. Meine letzte Trainingsdaten reichen nur bis Januar 2022.”

Large Language Model, trotz all ihrer sprachlichen Macht, fehlt die Fähigkeit, das “jetzt” zu erfassen. Und in der schnelllebigen Welt ist “jetzt” alles.

Forschung hat gezeigt, dass große vorgefertigte Sprachmodelle (LLM) auch Repositorien von faktischem Wissen sind.

Sie wurden auf so viele Daten trainiert, dass sie viele Fakten und Zahlen aufgenommen haben. Wenn sie fein abgestimmt werden, können sie bemerkenswerte Ergebnisse bei einer Vielzahl von NLP-Aufgaben erzielen.

Ich habe die letzten fünf Jahre damit verbracht, mich in die faszinierende Welt des Machine Learning und Deep Learning zu vertiefen. Meine Leidenschaft und mein Fachwissen haben mich dazu geführt, an über 50 verschiedenen Software-Entwicklungsprojekten mitzuwirken, mit einem besonderen Fokus auf KI/ML. Meine anhaltende Neugier hat mich auch zum Natural Language Processing hingezogen, ein Feld, das ich weiter erforschen möchte.