Connect with us

Künstliche Intelligenz

Zitate: Kann Anthropic’s neues Feature das Vertrauensproblem von KI lösen?

mm

Die Überprüfung von KI hat bereits seit geraumer Zeit ein ernstes Problem dargestellt. Während große Sprachmodelle (LLMs) mit unglaublicher Geschwindigkeit fortschreiten, bleibt die Herausforderung, ihre Genauigkeit nachzuweisen, ungelöst.

Anthropic versucht, dieses Problem zu lösen, und von all den großen KI-Unternehmen denke ich, dass sie die beste Chance haben.

Das Unternehmen hat Citations veröffentlicht, ein neues API-Feature für seine Claude-Modelle, das die Art und Weise ändert, wie die KI-Systeme ihre Antworten überprüfen. Diese Technologie zerlegt Quelldokumente automatisch in verdauliche Teile und verlinkt jede von der KI generierte Aussage mit ihrer ursprünglichen Quelle – ähnlich wie akademische Arbeiten ihre Referenzen zitieren.

Citations versucht, eine der persistentesten Herausforderungen von KI zu lösen: zu beweisen, dass generierter Inhalt genau und vertrauenswürdig ist. Anstatt komplexe Prompt-Engineering oder manuelle Überprüfung zu erfordern, verarbeitet das System Dokumente automatisch und bietet Satz-level-Quellenüberprüfung für jeden von ihm getroffenen Anspruch.

Die Daten zeigen vielversprechende Ergebnisse: eine 15-prozentige Verbesserung der Zitationsgenauigkeit im Vergleich zu herkömmlichen Methoden.

Warum das gerade jetzt wichtig ist

Das Vertrauen in KI ist zur kritischen Hürde für die Unternehmensadoption (sowie für die individuelle Adoption) geworden. Wenn Organisationen über experimentelle KI-Nutzung hinausgehen und in die Kernoperationen eintreten, hat die Unfähigkeit, KI-Ausgaben effizient zu überprüfen, einen erheblichen Engpass geschaffen.

Die aktuellen Überprüfungssysteme offenbaren ein deutliches Problem: Organisationen müssen zwischen Geschwindigkeit und Genauigkeit wählen. Manuelle Überprüfungsprozesse sind nicht skalierbar, während unüberprüfte KI-Ausgaben zu großes Risiko bergen. Diese Herausforderung ist besonders akut in regulierten Branchen, in denen Genauigkeit nicht nur bevorzugt, sondern erforderlich ist.

Der Zeitpunkt von Citations kommt in einem kritischen Moment der KI-Entwicklung. Wenn Sprachmodelle fortschrittlicher werden, ist der Bedarf an integrierter Überprüfung proportional gewachsen. Wir müssen Systeme aufbauen, die mit Vertrauen in professionellen Umgebungen eingesetzt werden können, in denen Genauigkeit nicht verhandelbar ist.

Technische Architektur im Detail

Die Magie von Citations liegt in ihrem Dokumentenverarbeitungsansatz. Citations ist nicht wie andere herkömmliche KI-Systeme. Diese behandeln Dokumente oft als einfache Textblöcke. Mit Citations zerlegt das Tool Quellenmaterialien in das, was Anthropic “Chunks” nennt. Dies können einzelne Sätze oder benutzerdefinierte Abschnitte sein, die eine granulare Grundlage für die Überprüfung schaffen.

Hier ist die technische Aufschlüsselung:

Dokumentenverarbeitung und -handhabung

Citations verarbeitet Dokumente je nach Format unterschiedlich. Für Textdateien gibt es im Wesentlichen keine Grenzen jenseits der Standard-200.000-Token-Grenze für Gesamtanfragen. Dies umfasst Ihren Kontext, Prompts und die Dokumente selbst.

Die Handhabung von PDFs ist komplexer. Das System verarbeitet PDFs visuell und nicht nur als Text, was zu einigen wichtigen Einschränkungen führt:

  • 32MB Dateigrößengrenze
  • Maximal 100 Seiten pro Dokument
  • Jede Seite verbraucht 1.500-3.000 Token

Token-Management

Wenn wir zur praktischen Seite dieser Grenzen kommen. Wenn Sie mit Citations arbeiten, müssen Sie Ihren Token-Budget sorgfältig berücksichtigen. Hier ist, wie es sich aufschlüsselt:

Für Standardtext:

  • Gesamtlimit für Anfragen: 200.000 Token
  • Enthält: Kontext + Prompts + Dokumente
  • Keine separate Gebühr für Zitationsausgaben

Für PDFs:

  • Höherer Tokenverbrauch pro Seite
  • Visuelle Verarbeitungsüberhead
  • Komplexere Tokenberechnung erforderlich

Citations vs RAG: Schlüsselunterschiede

Citations ist kein Retrieval Augmented Generation (RAG)-System – und diese Unterscheidung ist wichtig. Während RAG-Systeme sich auf die Suche nach relevanten Informationen aus einer Wissensbasis konzentrieren, arbeitet Citations mit Informationen, die Sie bereits ausgewählt haben.

Denken Sie daran: RAG entscheidet, welche Informationen verwendet werden sollen, während Citations sicherstellt, dass diese Informationen genau verwendet werden. Das bedeutet:

  • RAG: Behandelt die Informationsabruf
  • Citations: Verwaltet die Informationsüberprüfung
  • Kombiniertes Potenzial: Beide Systeme können zusammenarbeiten

Diese Architekturentscheidung bedeutet, dass Citations hervorragend darin ist, die Genauigkeit innerhalb der bereitgestellten Kontexte zu gewährleisten, während die Abrufstrategien komplementären Systemen überlassen werden.

Integrationswege und Leistung

Die Einrichtung ist einfach: Citations läuft über Anthropics Standard-API, was bedeutet, dass Sie, wenn Sie bereits Claude verwenden, bereits halb dort sind. Das System integriert sich direkt mit der Messages-API, was die Notwendigkeit für separate Dateispeicherung oder komplexe Infrastrukturänderungen eliminiert.

Die Preisstruktur folgt dem tokenbasierten Modell von Anthropic mit einem wichtigen Vorteil: Während Sie für Eingabetoken von Quelldokumenten zahlen, gibt es keine zusätzliche Gebühr für die Zitationsausgaben selbst. Dies schafft eine vorhersehbare Kostenstruktur, die mit der Nutzung skaliert.

Leistungsmetriken erzählen eine überzeugende Geschichte:

  • 15-prozentige Verbesserung der Gesamtzitationsgenauigkeit
  • Vollständige Beseitigung von Quellenhalluzinationen (von 10-prozentiger Auftretenshäufigkeit auf Null)
  • Satz-level-Verifizierung für jeden Anspruch

Organisationen (und Einzelpersonen), die unüberprüfte KI-Systeme verwenden, stellen sich selbst in Nachteil, besonders in regulierten Branchen oder hochriskanten Umgebungen, in denen Genauigkeit von entscheidender Bedeutung ist.

Wenn wir in die Zukunft blicken, werden wir wahrscheinlich sehen:

  • Integration von Citations-ähnlichen Funktionen, die zum Standard werden
  • Weiterentwicklung von Überprüfungssystemen jenseits von Texten zu anderen Medien
  • Entwicklung von branchenspezifischen Überprüfungsstandards

Die gesamte Branche muss wirklich das Vertrauen in KI und die Überprüfung neu überdenken. Benutzer müssen zu einem Punkt gelangen, an dem sie jeden Anspruch mit Leichtigkeit überprüfen können.

Alex McFarland ist ein KI-Journalist und Schriftsteller, der die neuesten Entwicklungen im Bereich der künstlichen Intelligenz erforscht. Er hat mit zahlreichen KI-Startups und Veröffentlichungen weltweit zusammengearbeitet.