Connect with us

Vordenker

Warum ein Verbot von KI die Sicherheitsrisiken erhöht und wie Institutionen reagieren sollten

mm

Im gesamten US-Bundesstaat bewegen sich Schulbezirke und öffentliche Organisationen darauf, den Zugang zu generativer KI (GenAI)-Technologien oder spezifischen Tools zu beschränken oder zu blockieren. In Colorado hat der Schulbezirk Boulder Valley vor kurzem ChatGPT auf den Netzwerken des Bezirks verboten, mit der Begründung, dass es Bedenken hinsichtlich des Missbrauchs, der Sicherheit und der akademischen Integrität gebe.

Der Instinkt, die Exposition gegenüber Sicherheitsvorfällen oder Datenmissbrauch zu reduzieren, ist verständlich. Plattformen mit schwachen Schutzmechanismen oder unklaren Datenschutzverpflichtungen, wie DeepSeek, verdienen eine Beschränkung und eine strengere Überwachung. Aber das Verbot des Zugangs zu GenAI-Tools reduziert das Risiko nicht wesentlich; es verschiebt es oft nur in Umgebungen, in denen die Überwachung verschwindet.

Eine Umfrage des College Board ergab, dass 84 % der High-School-Schüler angaben, GenAI für ihre Schularbeit zu verwenden, obwohl 45 % der Schulleiter angaben, dass es mindestens einige Beschränkungen für den Zugang zu KI in der Schule gebe. Ähnlich fand ein IBM-Bericht heraus, dass 80 % der Büroangestellten KI verwenden, aber nur 22 % ausschließlich auf von den Arbeitgebern bereitgestellte Tools zurückgreifen.

Zugriffsrichtlinien allein bestimmen das Verhalten nicht. Schüler können ihr Handy herausnehmen und jedes KI-Tool über ihr cellulare Daten-Netzwerk verwenden oder die Plattform zu Hause oder über öffentliches WLAN nutzen. Sie können auch VPNs, Remote-Desktops und Plugins verwenden, um Beschränkungen zu umgehen. Angestellte können dasselbe tun, um Arbeitsplatzkontrollen zu umgehen.

Organisationen sollten annehmen, dass es, wenn es einen Willen gibt, KI zu verwenden, auch einen Weg gibt. Wenn die Technologie auf eine Weise eingeschränkt wird, die die Nutzung über die institutionelle Sichtbarkeit hinaus treibt, erhöht sich das Risiko von Schatten-KI. Es gibt keine Überwachung darüber, welche Informationen in Prompts eingegeben werden oder welche Daten vom Modell aufbewahrt werden. Jede Kontrolle über die Sicherheit ist sofort verschwunden.

Darüber hinaus schafft ein Verbot eine Wissenslücke, die Schüler völlig unvorbereitet lässt, die Technologie zu verwenden, die in Zukunft ein großer Teil ihres Lebens sein wird. Diese Tools sind zunehmend in Suchmaschinen, Geschäftsplattformen, Produktivitätssuiten und persönlichen Geräten integriert. Eine Umfrage von Pew Research ergab, dass 62 % der US-Amerikaner angaben, mindestens mehrmals wöchentlich mit KI zu interagieren. Es ist so gut wie sicher, dass Schüler und Angestellte unabhängig von institutionellen Richtlinien auf GenAI-Systeme stoßen werden.

In dieser Umgebung ist Bildung das zuverlässigste Schutzschild gegen Bedenken hinsichtlich des Missbrauchs oder der Sicherheit und um sicherzustellen, dass Schüler und Arbeitnehmer gleichermaßen gut vorbereitet sind, ein Tool zu verwenden, das für ihre Karrieren von wesentlicher Bedeutung sein wird. Die Vermittlung verantwortungsvoller und ethischer Nutzung ermöglicht es den Nutzern, Datenrisiken zu erkennen und fundierte Entscheidungen zu treffen, wo immer sie auf diese Systeme stoßen.

Bildungsprogramme sollten sich auf die Funktionsweise von großen Sprachmodellen (LLMs) konzentrieren, wie sie Daten verarbeiten und aufbewahren, wie man Halluzinationen erkennt, wie man KI-generierte Ausgaben verifiziert und wie man Phishing-Kampagnen und KI-generierte Bilder erkennt, um nur einige Beispiele zu nennen. Lehren Sie die Nutzer, skeptisch zu sein. KI-Ausgaben werden oft selbstbewusst und in polierter Sprache präsentiert, was eine Illusion von Autorität erzeugen kann. Ohne Schulung können Nutzer annehmen, dass eine gut formatierte Antwort von Natur aus genau ist.

Die Fähigkeit, digitale Inhalte in Frage zu stellen, ist eine Verteidigungslinie, da Deepfakes und KI-verbesserte Phishing-Kampagnen immer sophistizierter werden. Eine Umfrage von Gartner ergab, dass 62 % der Organisationen im vergangenen Jahr einen Deepfake-Angriff erlebten und 32 % einen Angriff auf KI-Anwendungen erlebten. Die Häufigkeit und der Umfang dieser Vorfälle werden voraussichtlich weiter ansteigen.

Öffentliche Institutionen wie Schulen und lokale Regierungen sind insbesondere anfällig für Deepfake-gestützte soziale Manipulation, da ein großer Teil ihrer Aktivitäten aufgezeichnet und öffentlich zugänglich ist. Audio-Snippets aus öffentlichen Sitzungen können manipuliert und verwendet werden, um überzeugende Sprachanrufe zu generieren. Wir haben gesehen, wie Angreifer dies für Betrug verwenden, wie z. B. die Umleitung von Mitteln während sensibler Transaktionen. Obwohl dies meistens in gezielten Fällen geschieht, sind Nutzer, die nie geschult wurden, diese Techniken zu erkennen, oder sogar wissen, dass sie möglich sind, von Anfang an im Nachteil.

Nach der Bildung sollten Organisationen klare Richtlinien bezüglich der KI-Nutzung und -Regulierung haben. Diese sollten definierte Tools, akzeptable Anwendungsfälle und welche Daten in welches Modell(e) eingegeben werden können und welche nicht, festlegen. Richtlinien müssen konsistent über Abteilungen hinweg angewendet werden, anstatt von Klasse zu Klasse oder von Büro zu Büro zu variieren. Klare Erwartungen reduzieren die Mehrdeutigkeit und stärken die Rechenschaftspflicht.

Anstatt von umfassenden Beschränkungen sollten Organisationen danach streben, wie die Technologie in der Praxis verwendet wird. Wenn eine Organisation ein Tool unterstützt, das zugänglich, sicher und gut funktioniert, wird es für die meisten Nutzer zur Standardoption. Der informelle Schatten-KI-Gebrauch nimmt ab, weil es eine einfache Alternative gibt, die nicht das Herunterladen eines VPNs erfordert, um es zu verwenden.

Organisationen und Institutionen suchen nach Möglichkeiten, um einen sicheren Zugang zu LLMs zu ermöglichen, bei dem ihre Daten gesichert und nicht geteilt oder für die Schulung verwendet werden. Eine wachsende Kategorie von KI-aktivierungs- und Sicherheitstools entsteht, um genau das zu tun. Sie können den Zugang zu mehreren LLMs ermöglichen, während die Daten der Institution sicher containerisiert bleiben. Zero-Data-Retention-Vereinbarungen bieten den rechtlichen Rahmen, um sicherzustellen, dass die Daten der Organisation im Besitz der Firma oder Institution bleiben und das LLM nicht darauf trainiert werden kann. Zusätzlich bleibt, wenn ein Mitarbeiter die Institution verlässt, jede KI-Nutzung, Arbeitsabläufe oder Daten im Besitz der Organisation.

Technische Schutzmechanismen können auch auf der Feature-Ebene angewendet werden. Eine Institution könnte es Schülern oder Angestellten erlauben, allgemeine Fragen innerhalb eines sanktionierten LLM zu stellen, während sie das Hochladen von Dateien, Dokumenten teilen oder andere hochriskante Fähigkeiten deaktivieren. Diese Konfigurationen bewahren die Produktivitätsvorteile, ohne die Tür zu unkontrollierter Datenexposition zu öffnen.

Erweiterte Tools können sensible Informationen automatisch anonymisieren, bevor sie das Modell erreichen. Zum Beispiel kann der Name von Patienten oder Identifikatoren durch neutrale Platzhalter ersetzt werden, damit Ärzte und Krankenschwestern GenAI verwenden können, ohne geschützte Daten preiszugeben. Andere integrieren Datenverlust-Präventionskontrollen, die Sozialversicherungsnummern, Finanzkontoinformationen oder andere regulierte Informationen erkennen und blockieren, bevor sie in Prompts eingegeben werden.

Klare Richtlinien mit technischen Schutzmechanismen, die auf einer Grundlage von Bildung aufbauen, schaffen die beste Verteidigung, insbesondere da die Technologie so schnell ändert. GenAI entwickelt sich schneller als die meisten öffentlichen Organisationen – und ihre Budgets – adaptieren können. Der Versuch, jedes neue Modell zu blockieren, sobald es erscheint, ist nicht nachhaltig, da zu dem Zeitpunkt, an dem eine Plattform eingeschränkt ist, bereits eine andere an Popularität gewonnen hat. Nutzer, die geschult wurden, die zugrunde liegenden Risiken zu verstehen, können sich an Tools und Versionen anpassen.

Sicherheit in einer KI-gestützten Umgebung hängt davon ab, die Realität anzuerkennen, dass GenAI nun in das tägliche Leben integriert ist. Es gibt kein Zurück in die Flasche. Umfassende Verbote können Vorsicht signalisieren, aber sie tauschen oft sichtbares, beherrschbares Risiko gegen unsichtbares, unkontrolliertes Risiko ein. Lehren Sie einen Menschen, KI verantwortungsvoll zu verwenden, und er wird für alles, was kommt, gerüstet sein.

Christopher Morton fungiert als Logically’s Chief Information Officer, leitet ihre IT-Ops, technische Produktentwicklung, Network Operations Center und Cloud-Services-Teams. Er trat dem Logically-Team durch die Übernahme von The Network Support Company im Jahr 2021 bei, wo er zuvor als CTO tätig war. Morton begann seine Karriere bei The Network Support Company im Jahr 2005 und war maßgeblich an der Einführung, Verwaltung und dem Wachstum ihrer Managed-Services-Angebote beteiligt.