Connect with us

Vordenker

Warum sollten IT-Führungskräfte über das Model-Context-Protokoll nachdenken?

mm

Im letzten November veröffentlichte Anthropic das Model-Context-Protokoll (MCP), das anfangs nur mäßiges Interesse hervorrief. Das Unternehmen versteckte die Nachricht in einem Blog-Beitrag und bezeichnete MCP als offenen Standard, der dazu dienen soll, “Frontier-Modelle zu besserer, relevanterer Antworten zu verhelfen.”

Aber als Entwickler mehr über MCP erfuhren, wurde klar, wie leistungsstark es war. Innerhalb weniger Monate übernahmen Unternehmen wie OpenAI, Google und Microsoft den Standard. Dies fachte das Interesse an MCP an, da das Wachstum eher einem heißen Verbraucher-App als einem Entwickler-Infrastruktur-Tool glich.

Das GitHub-Repository für MCP ist schnell zu einer lebendigen Gemeinschaft geworden. Derzeit gibt es über 64.500 Sterne und etwa 7.500 Forks. Dann gibt es noch die Tausenden von Servern, die auf verschiedenen Websites aufgetaucht sind.

Eine solche Dynamik ist selten für Entwickler-Infrastruktur. Doch sie zeigt die Bedeutung von MCP, da es als “USB-C für KI-Apps” bezeichnet wird.

Lassen Sie uns sehen, warum dieser offene Standard so beliebt geworden ist und wie IT-Führungskräfte darüber nachdenken sollten.

Die Vorteile von MCP

Bevor die Einführung von MCPs, war der Aufbau von fortschrittlichen generativen KI- oder agierenden Systemen ein mühsamer Prozess. Jedes große Sprachmodell (LLM) erforderte eine benutzerdefinierte Integration mit jedem Werkzeug oder Datenquelle, das es verwendete. Dies schuf das sogenannte “MxN-Problem”. Dies liegt daran, dass M-Modelle manuell mit N verschiedenen Werkzeugen verbunden werden müssen.

Zum Beispiel, wenn Sie drei verschiedene LLMs verwenden, um mit zehn Anwendungen zu arbeiten, müssen Sie 30 separate Integrationen erstellen. Dies erfordert nicht nur erhebliche Ingenieurressourcen, sondern der Codebasis wird auch schwer zu warten sein, wenn die Werkzeuge, APIs und Modelle sich weiterentwickeln.

Aber mit dem MCP-Standard wird der Prozess erheblich verbessert. Es bietet zwei wichtige Funktionen: Kontext und Werkzeugverwendung mit LLMs. Dies ermöglicht nicht nur relevantere Antworten, sondern auch verbesserte Genauigkeit und Produktivität.

Zum Beispiel kann eine KI-Anwendung mit Kontext auf eine Vielzahl von öffentlich verfügbaren Datenquellen zugreifen, wie Wetter- oder Finanzdaten. MCPs können auch private Datenquellen wie Slacks oder Jira-Tickets zugreifen.

In Bezug auf die Werkzeugverwendung kann ein MCP Aktionen wie CRUD-Aufgaben für Datenbanken, Terminplanung oder Erinnerungen oder Updates für CRMs oder ERPs ausführen.

Neben der Standardisierung für Kontext und Werkzeugverwendung gibt es noch andere Vorteile mit MCP. Einer davon ist die Sicherheit, da es OAuth-basierte Autorisierung unterstützt. Als Nächstes sind Modelle nicht eng mit Werkzeugen oder Datenquellen verknüpft. Mit anderen Worten, wenn APIs sich ändern oder ein neues Werkzeug übernommen wird, ist keine umfangreiche Neukodierung erforderlich.

MCP hilft auch, Governance und Compliance zu verbessern, da die Werkzeugverwendung und Datenflüsse zentralisiert sind. Dies macht es einfacher, Richtlinien und Audits durchzusetzen.

Im Lichte dieser Vorteile sollte es keine Überraschung sein, dass MCP zu einem sehr beliebten System für den Aufbau generativer KI- und agierender Anwendungen geworden ist.

Herausforderungen von MCP

MCP benötigt noch viel Arbeit, um es stabiler und reifer zu machen. Die Benutzeroberflächen sind oft unübersichtlich und nicht intuitiv. Um die Sicherheit zu verbessern, sollten MCPs auch stark typisierte Ansätze haben, um potenzielle Angriffspunkte zu minimieren. Ebenso wichtig ist eine feinkörnige Autorisierung. Zum Beispiel sollte es möglich sein, einen MCP-Server oder -Agent nur für bestimmte Aktionen zu autorisieren.

Das Auffinden von MCPs bleibt ein Problem. Was benötigt wird, sind Registrierungen, um Server zu validieren und zu zertifizieren, ähnlich wie App-Stores funktionieren. Diese Registrierungen können verschiedene Branchen bedienen, wie IT, Sicherheit und Finanzen. Unternehmen werden wahrscheinlich interne Registrierungen entwickeln, um noch mehr Kontrolle zu haben.

Schließlich können MCPs noch weiterreichende Auswirkungen haben, sogar Geschäftsmodelle bedrohen. Zum Beispiel könnten diese Systeme die täglichen aktiven Benutzer (DAUs) für Webanwendungen und Mobile-Apps senken. Der Grund dafür ist, dass KI-Agenten MCPs nutzen werden, um Aktionen auszuführen, was bedeutet, dass weniger menschliche Benutzer die Plattformen besuchen müssen.

Sicherheit als Grundlage

MCPs ermöglichen eine viel schnellere Innovation. Dies ist besonders wichtig, da Unternehmen unter Druck stehen, greifbare Ergebnisse aus ihren KI-Investitionen zu zeigen. jedoch darf die Verfolgung von Geschwindigkeit nicht auf Kosten von Sicherheit und Compliance gehen. Die Vernachlässigung dieser Bereiche kann erhebliche Risiken schaffen, da MCPs nicht nur sensible Daten zugreifen, sondern auch direkt mit ihnen handeln können.

Eine MCP-Implementierung sollte Governance, Protokollierung und Auditing in jede Ebene einbetten. Richtlinien müssen klar definieren, wer Agenten autorisieren kann, welche Aktionen sie ausführen dürfen und wie diese Aktivitäten überwacht werden. Eine feinkörnige Autorisierung, kombiniert mit kontinuierlicher Überwachung, reduziert das Potenzial für Missbrauch und stellt die erforderliche Transparenz für die Compliance sicher.

Schlussfolgerung

MCP wird schnell zu einem Eckpfeiler für den Aufbau der nächsten Generation von generativen KI- und agierenden Systemen. Für IT-Führungskräfte stellt MCP sowohl eine Chance als auch eine Verantwortung dar. Es gibt die Chance, neue Effizienzen und Fähigkeiten zu entfesseln, und die Verantwortung, es mit den richtigen Sicherheitsvorkehrungen umzusetzen.

Langfristig werden Unternehmen, die Sicherheit und Compliance als integralen Bestandteil betrachten, am besten in der Lage sein, den vollen Wert von MCP zu nutzen. Durch die Balance zwischen Innovation und starker Governance können IT-Führungskräfte sicherstellen, dass ihre KI-Initiativen nicht nur leistungsstark und transformierend, sondern auch vertrauenswürdig, nachhaltig und widerstandsfähig sind.

Nikhil Mungel, ist der Leiter von AI R&D bei Cribl, wo er LLM-gesteuerte Systeme für die IT- und SicherheitsdatenTransformation und -Analyse entwickelt. Bevor er zu Cribl kam, verbrachte er über ein Jahrzehnt damit, verteilte Systeme im Bereich Observability und Consumer Social Tech zu entwickeln. Er lebt in San Francisco mit seiner Frau und zwei Kindern. Sein aktueller Fokus liegt darauf, künstliche Intelligenz einzusetzen, um komplexe Infrastrukturen intuitiver und erklärender zu machen.