Vernetzen Sie sich mit uns

Vordenker

Ihr Agent ist nicht mehr nur ein Chatbot – warum behandeln Sie ihn dann immer noch wie einen?

mm

In den Anfängen der generativen KI war das schlimmste Szenario für einen sich schlecht verhaltenden Chatbot oft kaum mehr als öffentliche Bloßstellung. Ein Chatbot könnte Fakten halluzinieren, voreingenommene Texte ausspucken oder dich sogar beschimpfen. Das war schon schlimm genug. Aber jetzt haben wir die Schlüssel übergeben.

Willkommen im Agentenzeitalter.

Vom Chatbot zum Agenten: Der Wandel hin zur Autonomie

Chatbots waren reaktiv. Sie blieben in ihrem Element. Stellen Sie eine Frage und erhalten Sie eine Antwort. KI-Agenten hingegen – insbesondere solche, die Tools nutzen, Code ausführen und über persistenten Speicher verfügen – können mehrstufige Aufgaben ausführen, APIs aufrufen, Befehle ausführen und Code autonom schreiben und bereitstellen.

Mit anderen Worten: Sie reagieren nicht nur auf Eingaben, sondern treffen Entscheidungen. Und wie jeder Sicherheitsexperte bestätigen wird: Sobald ein System aktiv wird, sollten Sie sich ernsthaft mit Sicherheit und Kontrolle befassen.

Wovor wir im Jahr 2023 gewarnt haben

Bei OWASP haben wir bereits vor über zwei Jahren vor diesem Wandel gewarnt. In der ersten Veröffentlichung der OWASP Top 10 für LLM-Anwendungen prägten wir den Begriff „Excessive Agency“.

Die Idee war einfach: Wenn man einem Modell zu viel Autonomie gibt – zu viele Tools, zu viel Autorität, zu wenig Kontrolle –, verhält es sich eher wie ein freier Agent als wie ein gebundener Assistent. Vielleicht plant es Ihre Meetings. Vielleicht löscht es eine Datei. Vielleicht stellt es eine übermäßige, teure Cloud-Infrastruktur bereit.

Wenn man nicht aufpasst, verhält es sich wie ein verwirrter Hilfssheriff … oder schlimmer noch, wie ein feindlicher Schläferagent, der nur darauf wartet, bei einem Cybersicherheitsvorfall ausgenutzt zu werden. In aktuellen Beispielen aus der Praxis zeigen Agenten von großen Softwareprodukten wie Microsoft Copilot, Das Slack-Produkt von Salesforce Bei beiden erwies sich die Gefahr, dass sie dazu verleitet werden könnten, ihre erweiterten Berechtigungen auszunutzen, um vertrauliche Daten abzugreifen.

Und jetzt ähnelt dieses hypothetische Szenario weniger Science-Fiction als vielmehr Ihrem bevorstehenden Fahrplan für das dritte Quartal.

Lernen Sie MCP kennen: Die Agenten-Kontrollschicht (oder ist sie das?)

Im Jahr 2025 erleben wir eine Welle neuer Standards und Protokolle, die diese explosionsartige Zunahme der Agentenfunktionalität bewältigen sollen. Das bekannteste davon ist das Model Context Protocol (MCP) von Anthropic – ein Mechanismus zur Aufrechterhaltung von gemeinsamem Speicher, Aufgabenstrukturen und Toolzugriff über langlebige KI-Agentensitzungen hinweg.

Stellen Sie sich MCP als den Klebstoff vor, der den Kontext eines Agenten über verschiedene Tools und Zeit hinweg zusammenhält. So können Sie Ihrem Programmierassistenten mitteilen: „Das haben Sie bisher getan. Das dürfen Sie tun. Das sollten Sie sich merken.“

Dieser Schritt ist dringend notwendig. Doch er wirft auch neue Fragen auf.

MCP ermöglicht neue Fähigkeiten. Wo sind die Leitplanken?

Bisher lag der Schwerpunkt bei MCP auf der Erweiterung der Handlungsmöglichkeiten der Agenten – und nicht darauf, sie einzuschränken.

Das Protokoll hilft zwar dabei, die Tool-Nutzung zu koordinieren und Speicher fĂĽr verschiedene Agentenaufgaben freizuhalten, berĂĽcksichtigt jedoch noch keine kritischen Probleme wie:

  • Sofortiger Injektionswiderstand: Was passiert, wenn ein Angreifer den gemeinsamen Speicher manipuliert?
  • Befehlsbereich: Kann der Agent dazu verleitet werden, seine Berechtigungen zu ĂĽberschreiten?
  • Token-Missbrauch: Könnte ein durchgesickerter Speicherblob API-Anmeldeinformationen oder Benutzerdaten offenlegen?

Dies sind keine theoretischen Probleme. Eine kürzlich durchgeführte Untersuchung der Sicherheitsimplikationen ergab, dass MCP-Architekturen anfällig für Prompt-Injection, Befehlsmissbrauch und sogar Memory Poisoning sind, insbesondere wenn der gemeinsam genutzte Speicher nicht ausreichend abgegrenzt oder verschlüsselt ist.

Dies ist das klassische Problem der „Macht ohne Kontrolle“. Wir haben das Exoskelett gebaut, aber noch nicht herausgefunden, wo der Ausschalter ist.

Warum CISOs jetzt aufpassen sollten

Wir sprechen hier nicht ĂĽber Zukunftstechnologien. Wir beziehen uns auf Tools, die Ihre Entwickler bereits verwenden, und das ist erst der Anfang einer massiven EinfĂĽhrung, die wir in den Unternehmen erleben werden.

Programmieragenten wie Claude Code und Cursor gewinnen in Unternehmensabläufen zunehmend an Bedeutung. Interne Untersuchungen von GitHub zeigten, dass Copilot Aufgaben um 55 % beschleunigen kann. Kürzlich berichtete Anthropic, dass 79 % der Claude Code-Nutzung auf Folgendes ausgerichtet war: automatisierte Aufgabenausführung, nicht nur Codevorschläge.

Das ist echte Produktivität. Aber es ist auch echte Automatisierung. Das sind keine Copiloten mehr. Sie fliegen zunehmend allein. Und das Cockpit? Es ist leer.

Microsoft-CEO Satya Nadella sagte kĂĽrzlich, dass KI mittlerweile bis zu 30 % des Microsoft-Codes schreibt. Anthropic-CEO Dario Amodei ging sogar noch weiter und prognostizierte, dass KI innerhalb von sechs Monaten 90 % des neuen Codes generieren werde.

Und es geht nicht nur um Softwareentwicklung. Das Model Context Protocol (MCP) wird mittlerweile in Tools integriert, die über die Programmierung hinausgehen und E-Mail-Triage, Meeting-Vorbereitung, Vertriebsplanung, Dokumentzusammenfassung und andere produktivitätssteigernde Aufgaben für allgemeine Anwender umfassen. Obwohl sich viele dieser Anwendungsfälle noch in der Anfangsphase befinden, entwickeln sie sich schnell weiter. Das verändert die Herausforderungen. Dies ist nicht mehr nur ein Thema für Ihren CTO oder VP of Engineering. Es erfordert die Aufmerksamkeit von Geschäftsbereichsleitern, CIOs, CISOs und Chief AI Officers gleichermaßen. Wenn diese Agenten beginnen, mit sensiblen Daten zu interagieren und funktionsübergreifende Workflows auszuführen, müssen Unternehmen sicherstellen, dass Governance, Risikomanagement und strategische Planung von Anfang an integraler Bestandteil der Gespräche sind.

Was als nächstes passieren muss

Es ist an der Zeit, diese Agenten nicht mehr als Chatbots zu betrachten, sondern als autonome Systeme mit echten Sicherheitsanforderungen. Das bedeutet:

  • Grenzen der Agentenberechtigungen: Genauso wie Sie nicht jeden Prozess als Root ausfĂĽhren, benötigen Agenten einen eingeschränkten Zugriff auf Tools und Befehle.
  • Shared Memory-Verwaltung: Die Kontextpersistenz muss geprĂĽft, versioniert und verschlĂĽsselt werden – insbesondere, wenn sie sitzungs- oder teamĂĽbergreifend geteilt wird.
  • Angriffssimulationen und Red Teaming: Prompt Injection, Memory Poisoning und Befehlsmissbrauch mĂĽssen als Sicherheitsbedrohungen höchster Stufe behandelt werden.
  • Angestellten Training: Der sichere und effektive Einsatz von KI-Agenten erfordert neue Fähigkeiten und erfordert Schulungen. Dies trägt zu einer höheren Produktivität bei und trägt zum Schutz Ihres geistigen Eigentums bei.

Wenn Ihr Unternehmen intelligente Agenten einsetzt, ist es oft besser, erst zu gehen, bevor man rennt. Sammeln Sie Erfahrungen mit Agenten mit begrenztem Umfang, begrenzten Daten und begrenzten Berechtigungen. Lernen Sie, indem Sie organisatorische Leitplanken aufbauen und Erfahrungen sammeln, und wagen Sie sich dann an komplexere, autonomere und anspruchsvollere Anwendungsfälle.

Das können Sie nicht aussitzen

Ob Sie nun Chief AI Officer oder Chief Information Officer sind, Ihre anfänglichen Bedenken mögen unterschiedlich sein, aber Ihr Weg ist derselbe. Die Produktivitätssteigerungen durch Coding Agents und autonome KI-Systeme sind zu verlockend, um sie zu ignorieren. Wenn Sie immer noch abwarten, geraten Sie bereits ins Hintertreffen.

Diese Tools sind nicht mehr nur experimentell – sie werden schnell zum Standard. Unternehmen wie Microsoft generieren einen Großteil ihres Codes mithilfe von KI und verbessern dadurch ihre Wettbewerbsposition. Tools wie Claude Code verkürzen die Entwicklungszeit drastisch und automatisieren komplexe Arbeitsabläufe in zahlreichen Unternehmen weltweit. Unternehmen, die lernen, diese Agenten sicher einzusetzen, werden schneller liefern, sich schneller anpassen und ihre Konkurrenten ausstechen.

Doch Geschwindigkeit ohne Sicherheit ist eine Falle. Die Integration autonomer Agenten in Ihr Unternehmen ohne entsprechende Kontrollen führt zu Ausfällen, Datenlecks und regulatorischen Problemen.

Jetzt ist der Moment zum Handeln – aber handeln Sie klug:

  • Starten Sie Agent-Pilotprogramme, erfordern aber CodeĂĽberprĂĽfungen, Toolberechtigungen und Sandboxing.
  • Beschränken Sie die Autonomie auf das Nötigste– nicht jeder Agent benötigt Root-Zugriff oder Langzeitspeicher.
  • Ăśberwachen Sie gemeinsam genutzten Speicher und Toolaufrufe, insbesondere bei lang andauernden Sitzungen oder kollaborativen Kontexten.
  • Angriffe simulieren Durch sofortige Injektion und Befehlsmissbrauch werden reale Risiken aufgedeckt, bevor Angreifer dies tun.
  • Schulen Sie Ihre Entwickler und Produktteams zu sicheren Nutzungsmustern, einschlieĂźlich Umfangskontrolle, Fallback-Verhalten und Eskalationspfaden.

Sicherheit und Geschwindigkeit schließen sich nicht gegenseitig aus – wenn Sie mit Absicht bauen.

Die Unternehmen, die KI-Agenten als Kerninfrastruktur und nicht als Spielzeug oder zur Bedrohung gewordenes Spielzeug betrachten, werden erfolgreich sein. Der Rest muss die Unordnung beseitigen – oder, schlimmer noch, von der Seitenlinie zusehen.

Das Agentenzeitalter ist da. Reagieren Sie nicht nur. Vorbereiten. Integrieren. Sichern.

Steve Wilson ist Chief AI Officer bei Exabeam, wo er die Entwicklung fortschrittlicher KI-basierter Cybersicherheitslösungen fĂĽr globale Unternehmen leitet. Als erfahrener Technologiemanager hat Wilson seine Karriere mit der Entwicklung groĂźer Cloud-Plattformen und sicherer Systeme fĂĽr Global-2000-Unternehmen verbracht. Er genieĂźt in der KI- und Sicherheitscommunity groĂźes Ansehen fĂĽr seine Verbindung von fundiertem technischen Fachwissen mit praxisnaher Unternehmensanwendung. Wilson ist auĂźerdem Autor von Das Playbook fĂĽr Entwickler zur Sicherheit groĂźer Sprachmodelle (O'Reilly Media), ein praktischer Leitfaden zur Sicherung von GenAI-Systemen in modernen Software-Stacks.