Connect with us

Der Fall für die Dezentralisierung Ihres KI-Technologie-Stapels

Vordenker

Der Fall für die Dezentralisierung Ihres KI-Technologie-Stapels

mm
Decentralized AI

So viel von der Konversation über die KI-Entwicklung wird von einer futuristischen und philosophischen Debatte dominiert – sollten wir uns der allgemeinen künstlichen Intelligenz nähern, wo KI fortschrittlich genug wird, um jede Aufgabe so auszuführen, wie ein Mensch es könnte? Ist das überhaupt möglich?

Während die Beschleunigung versus Verzögerungsdiskussion wichtig und aktuell ist mit Fortschritten wie dem Q-Star-Modell, sind auch andere Aspekte wichtig. Hauptsächlich die Wichtigkeit, Ihren Technologie-Stapel zu dezentralisieren und wie man das tut, ohne dass es zu einer zu großen Kostenbelastung wird. Diese beiden Herausforderungen können sich gegensätzlich anfühlen: Das Erstellen und Bereitstellen von Modellen ist unglaublich teuer, aber eine zu starke Abhängigkeit von einem Modell kann langfristig schädlich sein. Ich kenne diese Herausforderung persönlich als KI-Gründer.

Um Intelligenz zu schaffen, benötigen Sie Talent, Daten und skalierbare Rechenleistung. Um die Zeit bis zur Markteinführung zu beschleunigen und mehr mit weniger zu erreichen, werden viele Unternehmen wählen, auf bestehenden Modellen aufzubauen, anstatt von Grund auf zu bauen. Und der Ansatz ist sinnvoll, wenn das, was Sie bauen, so ressourcenintensiv ist. Diese Herausforderung wird dadurch verschärft, dass, im Gegensatz zu Software, die meisten Gewinne, die bisher in der KI erzielt wurden, durch die Hinzufügung von mehr Skalierbarkeit erzielt wurden, was mehr Rechenleistung und daher Kosten erfordert.

Aber was passiert, wenn das Unternehmen, in dem Sie Ihre Lösung aufgebaut haben, einen Governance-Fehler oder einen Produkt-Ausfall erleidet? Aus praktischer Sicht bedeutet das Bauen auf einem einzigen Modell, dass Sie nun Teil eines negativen Welleneffekts für alles sind, was passiert.

Wir müssen auch daran denken, dass die Risiken, die mit der Arbeit mit Systemen verbunden sind, die probabilistisch sind, uns nicht vertraut sind und die Welt, in der wir bisher gelebt haben, so konzipiert und entworfen wurde, um mit einer definitiven Antwort zu funktionieren. Modelle sind in Bezug auf die Ausgabe flüssig, und Unternehmen passen die Modelle ständig an, was bedeutet, dass der Code, den Sie geschrieben haben, um diese zu unterstützen, und die Ergebnisse, auf die Ihre Kunden angewiesen sind, sich ohne Ihr Wissen oder Ihre Kontrolle ändern können.

Zentralisierung schafft auch Sicherheitsbedenken, da sie einen einzelnen Fehlerpunkt einführt. Jedes Unternehmen arbeitet im besten Interesse seiner selbst. Wenn es ein Sicherheits- oder Risikoproblem mit einem Modell gibt, haben Sie viel weniger Kontrolle über die Behebung dieses Problems oder weniger Zugang zu Alternativen.

Wo lässt uns das?

KI wird unbestreitbar verbessern, wie wir leben. Es gibt so viel, was es erreichen und beheben kann, von der Art und Weise, wie wir Informationen sammeln, bis hin zur Art und Weise, wie wir große Datenmengen verstehen. Aber mit dieser Chance kommt auch ein Risiko. Wenn wir uns zu sehr auf ein einzelnes Modell verlassen, öffnen sich alle Unternehmen sowohl Sicherheits- als auch Produkt-Herausforderungen.

Um dies zu beheben, müssen wir die Inferenzkosten senken und es Unternehmen erleichtern, einen Multi-Modell-Ansatz zu verfolgen. Und natürlich kommt alles auf die Daten an. Daten und Datenbesitz werden wichtig sein. Je einzigartiger, qualitativ hochwertiger und verfügbarer die Daten sind, desto nützlicher werden sie sein.

Für viele Probleme können Sie Modelle für eine bestimmte Anwendung optimieren. Der letzte Meilenstein der KI ist, dass Unternehmen Routing-Logik, Bewertungen und Orchestrierungsschichten auf verschiedenen Modellen aufbauen, sie für verschiedene Branchen spezialisieren.

Es gab mehrere substantielle Investitionen in diesem Bereich, die uns diesem Ziel näher bringen. Mistal’s kürzliche (und beeindruckende) Finanzierungsrunde ist eine vielversprechende Entwicklung in Richtung einer OpenAI-Alternative. Es gibt auch Unternehmen, die anderen KI-Anbietern helfen, Cross-Model-Multiplexing zu ermöglichen und die Inferenzkosten durch spezielle Hardware, Software und Modell-Destillation zu reduzieren, um nur einige Beispiele zu nennen.

Wir werden auch sehen, dass Open-Source an Fahrt gewinnt, und Regierungsbehörden müssen Open-Source ermöglichen, um es offen zu halten. Mit Open-Source-Modellen ist es einfacher, mehr Kontrolle zu haben. Allerdings sind die Leistungsunterschiede immer noch da.

Ich nehme an, wir werden in einer Welt enden, in der Sie Junior-Modelle haben, die optimiert sind, um weniger komplexe Aufgaben im großen Maßstab auszuführen, während größere superintelligente Modelle als Orakel für Updates dienen und immer mehr Rechenleistung für die Lösung komplexerer Probleme aufwenden. Sie benötigen kein Modell mit einer Billion Parametern, um auf eine Kundenanfrage zu reagieren. Ich vergleiche es damit, dass man keinen leitenden Angestellten damit beauftragt, eine Aufgabe zu erledigen, die ein Praktikant erledigen kann. Ebenso wie wir für menschliche Gegenstücke verschiedene Rollen haben, werden die meisten Unternehmen auch auf eine Sammlung von Modellen mit verschiedenen Komplexitätsgraden angewiesen sein.

Um dieses Gleichgewicht zu erreichen, benötigen Sie eine klare Aufgabenzerlegung und Benchmarking, unter Berücksichtigung von Zeit, Rechenkomplexität, Kosten und erforderlicher Skalierbarkeit. Je nach Anwendungsfall können Sie entsprechend priorisieren. Bestimmen Sie eine Grundwahrheit, ein ideales Ergebnis zum Vergleich, und ein Beispiel für Eingabe- und Ausgabedaten, damit Sie verschiedene Prompts ausführen und das Ergebnis optimieren können, um das nächste Ergebnis zur Grundwahrheit zu erhalten.

Wenn KI-Unternehmen erfolgreich ihren Technologie-Stapel dezentralisieren und auf mehreren Modellen aufbauen können, können wir die Sicherheit und Zuverlässigkeit dieser Tools verbessern und damit die positive Wirkung der KI maximieren. Wir sind nicht mehr an einem Ort für theoretische Debatten – es ist Zeit, sich darauf zu konzentrieren, wie man KI einsetzt, um diese Technologien effektiver und widerstandsfähiger zu machen.

Naré Vardanyan ist der CEO und Mitgründer von Ntropy, der Finanzdaten-Standardisierungs- und Anreicherungs-API.