Künstliche Intelligenz
Vianais neue Open-Source-Lösung bekämpft das Halluzinationsproblem von KI

Es ist kein Geheimnis, dass KI, insbesondere Large Language Models (LLMs), gelegentlich ungenaue oder sogar potenziell schädliche Ausgaben produzieren können. Als “KI-Halluzinationen” bezeichnet, haben diese Anomalien eine erhebliche Hürde für Unternehmen dargestellt, die eine LLM-Integration in Betracht ziehen, aufgrund der inhärenten Risiken finanzieller, reputationsbedingter und sogar rechtlicher Konsequenzen.
Um dieses zentrale Anliegen anzugehen, hat Vianai Systems, ein Vorreiter im Bereich Human-Centered AI, sein neues Angebot vorgestellt: das veryLLM-Toolkit. Dieses Open-Source-Toolkit zielt darauf ab, zuverlässigere, transparentere und transformierendere KI-Systeme für den Geschäftseinsatz bereitzustellen.
Die Herausforderung von KI-Halluzinationen
Solche Halluzinationen, bei denen LLMs falsche oder anstößige Inhalte generieren, haben ein anhaltendes Problem dargestellt. Viele Unternehmen, die potenzielle Konsequenzen befürchten, haben sich gegen die Integration von LLMs in ihre zentralen Unternehmenssysteme entschieden. Mit der Einführung von veryLLM unter der Apache 2.0 Open-Source-Lizenz hofft Vianai, Vertrauen aufzubauen und die KI-Adoption durch die Bereitstellung einer Lösung für diese Probleme zu fördern.
Das veryLLM-Toolkit im Detail
Im Kern ermöglicht das veryLLM-Toolkit ein tieferes Verständnis jedes LLM-generierten Satzes. Es erreicht dies durch verschiedene Funktionen, die Aussagen basierend auf den Kontexten, auf denen LLMs trainiert werden, wie z.B. Wikipedia, Common Crawl und Bücher, kategorisieren. Mit der ersten Veröffentlichung von veryLLM, die stark auf einer Auswahl von Wikipedia-Artikeln basiert, stellt diese Methode eine solide Grundlage für das Verifizierungsverfahren des Toolkits dar.
Das Toolkit ist so konzipiert, dass es adaptiv, modular und mit allen LLMs kompatibel ist, was seine Verwendung in jeder Anwendung, die LLMs nutzt, erleichtert. Dies wird die Transparenz in KI-generierten Antworten verbessern und sowohl aktuelle als auch zukünftige Sprachmodelle unterstützen.
Dr. Vishal Sikka, Gründer und CEO von Vianai Systems und auch Berater des Stanford University Center for Human-Centered Artificial Intelligence, betonte die Schwere des KI-Halluzinationsproblems. Er sagte: “KI-Halluzinationen bergen ernsthafte Risiken für Unternehmen und behindern deren KI-Adoption. Als Student der KI seit vielen Jahren ist es auch allgemein bekannt, dass wir nicht zulassen können, dass diese leistungsstarken Systeme undurchsichtig über die Grundlage ihrer Ausgaben sind, und wir müssen dies dringend lösen. Unsere veryLLM-Bibliothek ist ein kleiner erster Schritt, um Transparenz und Vertrauen in die Ausgaben jedes LLM zu bringen – Transparenz, die jeder Entwickler, Data Scientist oder LLM-Anbieter in seinen KI-Anwendungen nutzen kann. Wir freuen uns darauf, diese Fähigkeiten und viele andere Anti-Halluzinationstechniken Unternehmen weltweit zur Verfügung zu stellen, und ich glaube, dass dies der Grund dafür ist, dass wir eine beispiellose Adoption unserer Lösungen sehen.”
Integration von veryLLM in hila™ Enterprise
hila™ Enterprise, ein weiteres herausragendes Produkt von Vianai, konzentriert sich auf die genaue und transparente Bereitstellung umfassender Sprachlösungen für Unternehmen in Bereichen wie Finanzen, Verträgen und Recht. Diese Plattform integriert den veryLLM-Code, kombiniert mit anderen fortschrittlichen KI-Techniken, um KI-assozierte Risiken zu minimieren und es Unternehmen ermöglicht, die transformierende Kraft zuverlässiger KI-Systeme voll auszuschöpfen.
Eine nähere Betrachtung von Vianai Systems
Vianai Systems ragt als Vorreiter im Bereich Human-Centered AI hervor. Das Unternehmen verfügt über eine Kundenbasis, die einige der angesehensten Unternehmen der Welt umfasst. Die unübertroffene Expertise des Teams bei der Entwicklung von Unternehmensplattformen und innovativen Anwendungen hebt es von anderen ab. Sie haben auch die Unterstützung einiger der visionärsten Investoren weltweit.












