Connect with us

Vordenker

Das intelligente Unternehmen: Generative KI für Unternehmen bereit machen

mm

Lassen Sie uns hier beginnen: Ja, die Möglichkeiten für Generative KI (GenAI) sind enorm. Ja, sie verändert die Welt, wie wir sie kennen (und schneller als die meisten von uns vorhergesagt haben). Und ja, die Technologie wird intelligenter. Allerdings sind die Auswirkungen von GenAI, mit ihrer Fähigkeit, Text, Bilder und Erzählungen zu generieren, auf Unternehmen und Betriebe sehr unterschiedlich von der Auswirkung auf die Allgemeinheit — schließlich schreiben die meisten Unternehmen keine Gedichte oder Geschichten (was bei ChatGPT-Nutzern beliebt ist), sie bedienen ihre Kunden.

Viele Unternehmen haben Erfahrungen mit der Verarbeitung von natürlichen Sprachen (NLP) und einfachen Chatbots, aber GenAI beschleunigt, wie Daten integriert, interpretiert und in Geschäftsergebnisse umgewandelt werden können. Daher müssen sie schnell herausfinden, welche GenAI-Anwendungsfälle ihre drängendsten Geschäftsprobleme lösen und Wachstum vorantreiben. Um zu verstehen, wie Unternehmen GenAI mit ihren Daten bereit machen können, ist es wichtig, zu überprüfen, wie wir an diesem Punkt angekommen sind.

Die Reise von NLP zu Large Language Model (LLM)

Die Technologie versucht seit Jahrzehnten, natürliche Sprachen zu verstehen. Während die menschliche Sprache selbst eine entwickelte Form des menschlichen Ausdrucks ist, hat die Tatsache, dass Menschen so viele Dialekte weltweit entwickelt haben — von Symbolen und Klängen zu Silben, Phonetics und Sprachen — die Technologie auf einfachere digitale Kommunikationsmethoden mit Bits und Bytes usw. angewiesen, bis vor relativ kurzer Zeit.

Ich habe vor fast einem Jahrzehnt mit der Arbeit an NLP-Programmen begonnen. Damals ging es um Sprachtaxonomie und Ontologie, Entitätsextraktion und eine primitive Form einer Graph-Datenbank (überwiegend in XML) zur Wahrung komplexer Beziehungen und Kontext zwischen verschiedenen Entitäten, um Sinn aus Suchanfragen zu machen, ein Wortwolken zu generieren und Ergebnisse zu liefern. Es gab nichts Mathematisches daran. Es gab viel Mensch im Schleife, um Taxonomie-Datenbanken aufzubauen, viel XML-Parsing und vor allem viel Rechenleistung und Speicher. Es ist nicht verwunderlich, dass einige Programme erfolgreich waren und die meisten nicht. Maschinelles Lernen kam als Nächstes mit mehreren Ansätzen zum tiefen Lernen und neuronalen Netzen usw., was die natürliche Sprachverständnis (NLU) und die natürliche Sprachinferenz (NLI) beschleunigte. Es gab jedoch drei limitierende Faktoren — Rechenleistung, um komplexe Modelle zu verarbeiten, Zugang zu großen Datenmengen, die Maschinen lehren können, und vor allem ein Modell, das sich selbst lehren und selbst korrigieren kann, indem es zeitliche Beziehungen zwischen Phrasen bildet.

Vorwärts zwei Jahrzehnte später und GPUs liefern massive Rechenleistung, selbstlernende und sich entwickelnde neuronale Netze sind die Norm, überwachtes/unüberwachtes/teilüberwachtes Lernen existiert und vor allem gibt es einen besseren Zugang zu großen Datenmengen in mehreren Sprachen, einschließlich verschiedener sozialer Medienplattformen, auf denen diese Modelle trainiert werden können. Das Ergebnis sind KI-Engines, die mit Ihnen in Ihrer natürlichen Sprache kommunizieren können, die Emotion und Bedeutung hinter Ihren Anfragen verstehen, wie ein Mensch klingen und wie ein Mensch antworten können.

Wir alle, durch unsere soziale Medienpräsenz, sind unbewusst ein “Mensch” in der “Schleife”, um diese Engines zu trainieren. Wir haben jetzt Engines, die auf Billionen von Parametern trainiert sind, die Hunderte und Tausende von Eingabeparametern verarbeiten können, die multimodal sind und auf uns in unserer Sprache antworten. Ob es sich um GPT4/5, PaLM2, Llama oder andere LLMs handelt, die bisher veröffentlicht wurden, sie entstehen als kontextualisierte vertikale Problemlöser.

Systeme der Einbindung und Systeme der Aufzeichnung

Während die Reise von NLPs zu LLMs dank der Silicon-Evolution, Datenmodelle und der Verfügbarkeit großer Mengen an Trainingsdaten, die wir alle generiert haben, großartig war, benötigen Unternehmen — Einzelhändler, Hersteller, Banken usw. — sehr unterschiedliche Anwendungen dieser Technologie. Zunächst können Unternehmen KI-Halluzinationen nicht affordieren — sie benötigen 0% Halluzination und 100% Genauigkeit für Benutzer, die mit KI interagieren. Es gibt eine Reihe von Anfragen, die absolute Genauigkeit erfordern, um irgendeinen Geschäftsnutzen zu haben — z. B. Wie viele Zimmer sind in Ihrem Hotel verfügbar? Haben Sie ein Ticket der ersten Klasse verfügbar?

Um KI-Halluzinationen zu vermeiden, kommt die alte Konzeption von Systemen der Einbindung und Systemen der Aufzeichnung ins Spiel. Systeme der Einbindung, sei es mit Ihren Kunden, Lieferanten oder Mitarbeitern, können eine GenAI-basierte Konversationsplattform aus der Box heraus nach Geschäftsspezifischen Prompts trainieren — das ist der “einfachere” Teil. Die Herausforderung besteht darin, Systeme der Aufzeichnung in die Wertschöpfungskette einzubetten. Viele Unternehmen sind noch in einer statischen Welt von Tabellen und Entitäten und werden dies aufgrund ihrer statischen Organisation oder ihres Unternehmens bleiben, während Ereignisse und Workflows sie dynamisch auf transaktionaler Ebene machen.

Dies ist der Punkt, an dem wir über nächste Generationen von Konversationsplattformen sprechen, die nicht nur Konversationen, Schnittstellen und Anfragen ansprechen, sondern auch Kundenreisen bis zur Erfüllung begleiten. Es gibt unterschiedliche architektonische Ansätze für solche Konversationsplattformen. Eine sofortige Option ist die Verwendung von Hybrid-Middleware, die als Konsolidator zwischen vektorisierten und beschrifteten Unternehmensdaten und LLM-getriebenen Konversationsprompts dient und ein Ergebnis von 0% Halluzination für Verbraucher liefert.

Es ist eine enorme Menge an Daten vorzubereiten erforderlich, um sie für eine LLM-Engine verständlich zu machen. Wir nennen es die Flachstellung traditioneller tabellen- und entitätsbasierter Datenmodelle. Graph-Datenbanken, die Daten auf eine Weise darstellen und speichern, die relationale Datenbanken nicht können, finden in dieser Reise einen neuen Zweck. Das Ziel ist, Unternehmensdatenbanken in verständlichere Graph-Datenbanken mit Beziehungen umzuwandeln, die Kontext und Bedeutung definieren, um es LLM-Engines zu ermöglichen, zu lernen und daher auf Anfragen von Endkunden durch eine Kombination von Konversations- und Echtzeitabfragen zu antworten. Diese Aufgabe, Unternehmensdaten LLM-bereit zu machen, ist der Schlüssel, um ein umfassendes System der Einbindung zur Erfüllung zu bieten und Benutzererfahrungen bis zur Erfüllung zu führen.

Was kommt als Nächstes

An diesem Punkt, mit diesen Fortschritten in Daten und KI, kommt der unmittelbarste Einfluss im Bereich der Software-Code-Generierung — wie durch den Aufstieg von Microsoft Copilot, Amazone CodeWhisperer und anderen Tools unter Entwicklern belegt. Diese Tools beschleunigen Legacy-Modernisierungsprogramme, von denen viele aufgrund von Zeit- und Kostensorgen ins Stocken geraten sind. Mit Code-Generierungstools, die von GenAI angetrieben werden, sehen wir Modernisierungsprojekte, die ihre Zeitpläne um 20-40% beschleunigen. Bei grünen Feld-Code-Entwicklungsprojekten werden diese Tools es Entwicklern ermöglichen, Zeit und Produktivitätsgewinne in Design-Denken und innovativere Projekte zu verschieben.

Jenseits der Software-Code-Entwicklung führen GenAI-Tools zur Schaffung neuer vertikaler Anwendungsfälle und Szenarien, die darauf abzielen, die drängendsten Herausforderungen von Unternehmen zu lösen, und wir fangen gerade an, die Oberfläche dessen zu kratzen, was getan werden muss, um diesen Trend voll auszunutzen. Dennoch lösen wir bereits mehrere Probleme und Fragen im Einzelhandel und Logistiksektor, indem wir GenAI nutzen:

Wie viel Inventar habe ich im Lager, und wann sollte ich Nachbestellung auslösen? Ist es profitabel, im Voraus zu lagern? Ist mein Landed-Preis richtig oder wird er steigen? Welche Artikel kann ich bündeln oder welche Art von Personalisierung kann ich anbieten, um meinen Gewinn zu steigern?

Die Beantwortung dieser Art von Fragen erfordert eine Kombination von konversationsbasierten Front-Ends, datengetriebenen Abfragen mit hoher Genauigkeit im Hintergrund und einem domänenschweren Machine-Learning-Modell, das Vorhersagen und zukünftige Richtlinien liefert. Daher wäre mein Rat für Unternehmen, ob Sie ein KI-Entdecker oder ein GenAI-Disruptor sind, Partner mit Dienstleistern, die nachgewiesene KI-Experten und robuste Daten- und Analysefähigkeiten haben, die Sie ausrüsten können, um GenAI-Modelle zu nutzen, die Ihren Geschäftsbedürfnissen entsprechen, und Ihnen helfen, vorne zu bleiben.

Padmanabhan (Paddy) ist ein cloud-nativer Plattform- und Produkt-Engineering-Leiter mit Fokus auf datengetriebene Plattformen, Microservices und cloud-nativen Engineering sowie Modernisierung von Legacy-Technologie und -Produkten. Er ist Senior Vice President & General Manager und leitet das globale Consumer-Tech-Vertical bei Persistent Systems, und sein Team ermöglicht digitales Produkt-Engineering für ihre Kunden in den Bereichen Einzelhandel, CPG, Reisen und Logistik.