Vordenker
KI-First bedeutet Sicherheit-First

Kaufen Sie einem Kind ein brandneues Fahrrad, und das Fahrrad wird all die Aufmerksamkeit erhalten – nicht den glänzenden Helm, der es begleitet. Aber Eltern schätzen den Helm.
Ich fürchte, viele von uns sind heute eher wie Kinder, wenn es um KI geht. Wir konzentrieren uns auf wie cool es ist und wie schnell wir damit vorankommen können. Nicht so sehr auf das, was wir tun können, um sicherzustellen, dass wir es sicher verwenden. Es ist schade, denn Sie können den Nutzen des einen nicht ohne den anderen haben.
Einfach ausgedrückt, ist die Anwendung von KI ohne sorgfältige Planung für die Sicherheit nicht nur riskant. Es ist ein direkter Weg den Abhang hinunter.
Was bedeutet KI-Sicherheit überhaupt?
KI-Sicherheit umfasst eine Vielzahl von Schritten. Aber vielleicht das wichtigste Element ist wann man sie unternimmt. Um effektiv zu sein, muss KI-Sicherheit von Beginn an berücksichtigt werden.
Das bedeutet, dass wir überlegen, wie wir Schäden verhindern können, bevor wir es für einen Testfahrt nehmen. Wir überlegen, wie wir sicherstellen können, dass die KI funktioniert und Ergebnisse in Übereinstimmung mit unseren Werten und sozialen Erwartungen erzeugt, und nicht erst nachdem wir einige schreckliche Ergebnisse erhalten haben.
Das Designen für KI-Sicherheit beinhaltet auch, darüber nachzudenken, wie man sie robust macht, oder wie man sie so gestaltet, dass sie auch in widrigen Situationen vorhersehbar funktioniert. Es bedeutet, KI transparent zu machen, sodass die Entscheidungen, die KI trifft, verständlich, überprüfbar und unvoreingenommen sind.
Aber es beinhaltet auch, einen Blick auf die Welt zu werfen, in der die KI funktionieren wird. Welche institutionellen und rechtlichen Schutzmaßnahmen benötigen wir, insbesondere um den anwendbaren Regierungsbestimmungen zu entsprechen? Und ich kann den Menschenaspekt nicht überbetonen: Welche Auswirkungen wird die Verwendung von KI auf die Menschen haben, die mit ihr interagieren?
Sicherheit durch Design bedeutet, KI-Sicherheit in alle unsere Prozesse, Workflows und Betriebe zu integrieren, bevor wir unsere erste Aufforderung eingeben.
Die Risiken überwiegen die Bedenken
Nicht jeder stimmt zu. Wenn sie “Sicherheit zuerst” hören, hören einige “so vorsichtig und langsam schreiten, dass man zurückbleibt”. Natürlich ist das nicht, was Sicherheit zuerst bedeutet. Es muss nicht die Innovation behindern oder die Zeit bis zur Markteinführung verlangsamen. Und es bedeutet nicht einen endlosen Strom von Pilotprojekten, die nie skaliert werden. Ganz im Gegenteil.
Es bedeutet, die Risiken des nicht Designens von Sicherheit in KI zu verstehen. Betrachten Sie nur einige.
- Deloittes Center for Financial Services prognostiziert, dass GenKI möglicherweise für Betrugsverluste verantwortlich sein könnte, die in den USA allein bis 2027 40 Milliarden US-Dollar erreichen könnten, gegenüber 12,3 Milliarden US-Dollar im Jahr 2023, ein CAGR von 32 %.
- Voreingenommene Entscheidungen. Fälle dokumentieren voreingenommene medizinische Versorgung aufgrund von KI, die auf voreingenommenen Daten trainiert worden war.
- Schlechte Entscheidungen, die weitere schlechte Entscheidungen inspirieren. Schlimmer als eine anfänglich schlechte Entscheidung, die durch fehlerhafte KI ausgelöst wurde, deuten Studien darauf hin, dass diese fehlerhaften Entscheidungen Teil davon werden können, wie wir denken und zukünftige Entscheidungen treffen.
- Reale Konsequenzen. KI, die schlechte medizinische Ratschläge gibt, war für tödliche Patientenergebnisse verantwortlich. Rechtsprobleme resultierten aus der Zitierung einer KI-Halluzination als rechtliche Präzedenzfall. Und Softwarefehler, die durch eine KI-Assistentin verursacht wurden, die Fehlinformationen lieferte, haben Produkte und den Ruf von Unternehmen beeinträchtigt und zu weit verbreiteter Unzufriedenheit der Benutzer geführt.
Und die Dinge werden gleich noch interessanter.
Die Ankunft und schnelle Adoption von agenter KI, KI, die autonom funktionieren und aufgrund von Entscheidungen, die sie getroffen haben, handeln kann, wird die Bedeutung des Designens für KI-Sicherheit noch verstärken.
Ein KI-Agent, der in Ihrem Namen handeln kann, kann sehr nützlich sein. Anstatt Ihnen nur von den besten Flügen für eine Reise zu erzählen, kann er sie auch für Sie buchen. Wenn Sie ein Produkt zurückgeben möchten, kann ein KI-Agent eines Unternehmens nicht nur die Rückgaberichtlinie und die Rückgabeverfahren erläutern, sondern auch den gesamten Vorgang für Sie durchführen.
Großartig – solange der Agent nicht halluziniert oder Ihre Finanzinformationen falsch handhabt. Oder die Rückgaberichtlinie eines Unternehmens falsch interpretiert und gültige Rückgaben ablehnt.
Es ist nicht allzu schwierig zu erkennen, wie die aktuellen KI-Sicherheitsrisiken leicht mit einer Vielzahl von KI-Agents, die Entscheidungen treffen und handeln, eskalieren könnten, insbesondere da sie wahrscheinlich nicht alleine handeln werden. Ein großer Teil des realen Wertes von agenter KI wird aus Teams von Agents resultieren, bei denen einzelne Agents Teile von Aufgaben übernehmen und zusammenarbeiten – Agent zu Agent – um die Arbeit zu erledigen.
Wie also können Sie KI-Sicherheit durch Design umsetzen, ohne die Innovation zu behindern und ihren potenziellen Wert zu zerstören?
Sicherheit durch Design in Aktion
Ad-hoc-Sicherheitsprüfungen sind nicht die Antwort. Aber die Integration von Sicherheitspraktiken in jede Phase einer KI-Implementierung ist.
Beginnen Sie mit den Daten. Stellen Sie sicher, dass die Daten beschriftet, annotiert, voreingenommen und von hoher Qualität sind. Dies ist besonders wichtig für Trainingsdaten.
Trainieren Sie Ihre Modelle mit menschlichem Feedback, da menschliches Urteilsvermögen unerlässlich ist, um das Modellverhalten zu formen. Verstärkendes Lernen mit menschlichem Feedback (RLHF) und ähnliche Techniken ermöglichen es Annotatoren, Antworten zu bewerten und zu leiten, um LLMs dabei zu helfen, sichere und mit menschlichen Werten übereinstimmende Ausgaben zu generieren.
Dann testen Sie das Modell, bevor Sie es veröffentlichen. Stresstests können potenzielle Schwachstellen aufdecken. Rote Teams, die versuchen, unsicheres Verhalten durch die Verwendung von adversarialen Aufforderungen, Randfällen und versuchten Ausbrüchen zu provozieren, können Schwachstellen aufdecken. Diese vor der Veröffentlichung zu beheben, stellt sicher, dass alles sicher ist, bevor es ein Problem gibt.
Während diese Tests sicherstellen, dass Ihre KI-Modelle robust sind, müssen Sie sie weiterhin überwachen und auf neue Bedrohungen und möglicherweise erforderliche Anpassungen achten.
In ähnlicher Weise müssen Sie regelmäßig Quellen und digitale Interaktionen auf Anzeichen von Betrug überwachen. Kritisch ist die Verwendung eines Hybridansatzes aus KI und Mensch, bei dem KI-Automatisierung den enormen Datenumsatz überwacht und geschulte Menschen die Überprüfungen für die Durchsetzung und die Gewährleistung der Genauigkeit durchführen.
Die Anwendung von agenter KI erfordert noch mehr Sorgfalt. Eine grundlegende Anforderung: Trainieren Sie den Agenten, um seine Grenzen zu kennen. Wenn er Unsicherheiten, ethische Dilemmata, neue Situationen oder besonders wichtige Entscheidungen trifft, stellen Sie sicher, dass er weiß, wie er um Hilfe bitten kann.
Entwerfen Sie auch Nachvollziehbarkeit in Ihre Agents ein. Dies ist besonders wichtig, damit ihre Interaktionen nur mit verifizierten Benutzern stattfinden, um zu verhindern, dass betrügerische Akteure die Aktionen eines Agents beeinflussen.
Wenn sie anscheinend effektiv funktionieren, kann es verlockend sein, die Agents loszulassen und sie ihre Arbeit tun zu lassen. Unsere Erfahrung sagt uns, dass wir sie und die Aufgaben, die sie erfüllen, weiterhin überwachen sollten, um Fehler oder unerwartetes Verhalten zu beobachten. Verwenden Sie sowohl automatisierte als auch menschliche Überprüfungen.
Tatsächlich ist ein wesentliches Element von KI-Sicherheit die regelmäßige menschliche Beteiligung. Menschen sollten absichtlich dort eingesetzt werden, wo kritische Urteilsfähigkeit, Empathie oder Nuancen und Mehrdeutigkeit in einer Entscheidung oder Aktion involviert sind.
Noch einmal, um klar zu sein, sind dies alle Praktiken, die Sie im Voraus in die KI-Implementierung integrieren, von Beginn an. Sie sind nicht das Ergebnis von etwas, das schiefgegangen ist und dann versucht, den Schaden zu minimieren.
Funktioniert es?
Wir haben eine KI-Sicherheit-First-Philosophie und ein “von Beginn an”-Framework mit unseren Kunden während der Entstehung von GenKI und jetzt auf dem Weg zu agenter KI angewendet. Wir stellen fest, dass es, im Gegensatz zu Bedenken hinsichtlich einer Verlangsamung, tatsächlich die Dinge beschleunigt.
Agenter KI hat das Potenzial, die Kosten für den Kundensupport um 25-50 % zu senken, während die Kundenzufriedenheit gesteigert wird. Aber das hängt alles von Vertrauen ab.
Menschen, die KI verwenden, müssen ihr vertrauen, und die Kunden, die mit KI-aktivierte menschliche Agents oder mit tatsächlichen KI-Agents interagieren, können keine einzige Interaktion erleben, die ihr Vertrauen untergräbt. Eine schlechte Erfahrung kann das Vertrauen in eine Marke zerstören.
Wir vertrauen nicht dem, was nicht sicher ist. Wenn wir also Sicherheit in jede Schicht der KI integrieren, die wir bald veröffentlichen, können wir dies mit Vertrauen tun. Und wenn wir bereit sind, es zu skalierten, können wir dies schnell und mit Vertrauen tun.
Obwohl die Umsetzung von KI-Sicherheit zuerst überwältigend erscheinen mag, sind Sie nicht alleine. Es gibt viele Experten, die helfen können, und Partner, die teilen können, was sie gelernt haben und lernen, damit Sie auf den Wert von KI zugreifen können, ohne sich zu verlangsamen.
KI war bisher eine aufregende Fahrt, und während die Fahrt beschleunigt, bin ich froh, dass ich meinen Helm trage.












