Connect with us

Vordenker

Öffnung der Black Box bei der Erklärbarkeit von KI

mm

Künstliche Intelligenz (KI) ist in fast allen Aspekten unseres täglichen Lebens verwurzelt, von personalisierten Empfehlungen bis hin zu kritischen Entscheidungen. Es ist ein gegebenes, dass KI weiter voranschreiten wird, und damit werden auch die mit KI verbundenen Bedrohungen komplexer werden. Wenn Unternehmen KI-gestützte Verteidigungsmechanismen als Reaktion auf die wachsende Komplexität einführen, ist der nächste Schritt zur Förderung einer unternehmensweiten Kultur der Sicherheit die Verbesserung der Erklärbarkeit von KI.

Während diese Systeme beeindruckende Fähigkeiten bieten, funktionieren sie oft als “Black Boxes” – sie produzieren Ergebnisse ohne klaren Einblick in die Art und Weise, wie das Modell zu dem Schluss gekommen ist, den es gezogen hat. Das Problem von KI-Systemen, die falsche Aussagen treffen oder falsche Aktionen ausführen, kann erhebliche Probleme und potenzielle Geschäftsausfälle verursachen. Wenn Unternehmen aufgrund von KI Fehler machen, verlangen ihre Kunden und Verbraucher eine Erklärung und bald darauf eine Lösung.

Aber was ist daran schuld? Oftmals wird schlechte Daten für die Ausbildung verwendet. Zum Beispiel werden die meisten öffentlichen GenAI-Technologien auf Daten trainiert, die im Internet verfügbar sind, die oft unverifiziert und ungenau sind. Während KI schnelle Antworten generieren kann, hängt die Genauigkeit dieser Antworten von der Qualität der Daten ab, auf denen sie trainiert wird.

KI-Fehler können in verschiedenen Fällen auftreten, einschließlich der Generierung von Skripten mit falschen Befehlen und falschen Sicherheitsentscheidungen oder der Ablehnung eines Mitarbeiters, der auf die Geschäftssysteme des Unternehmens zugreift, weil das KI-System falsche Anschuldigungen erhoben hat. All dies kann erhebliche Geschäftsausfälle verursachen. Dies ist nur einer der vielen Gründe, warum es wichtig ist, Transparenz zu gewährleisten, um Vertrauen in KI-Systeme aufzubauen.

Vertrauen aufbauen

Wir leben in einer Kultur, in der wir Vertrauen in alle Arten von Quellen und Informationen setzen. Aber gleichzeitig verlangen wir immer mehr Beweise und Validierungen, um ständig Nachrichten, Informationen und Behauptungen zu überprüfen. Wenn es um KI geht, setzen wir unser Vertrauen in ein System, das das Potenzial hat, ungenau zu sein. Wichtig ist, dass es unmöglich ist, zu wissen, ob die Aktionen von KI-Systemen genau sind, ohne Transparenz über die Grundlage, auf der Entscheidungen getroffen werden. Was, wenn Ihr Cyber-KI-System Maschinen abschaltet, aber einen Fehler bei der Interpretation der Anzeichen gemacht hat? Ohne Einblick in die Informationen, die das System zu dieser Entscheidung geführt haben, gibt es keinen Weg, zu wissen, ob es die richtige Entscheidung getroffen hat.

Während die Störung des Geschäfts frustrierend ist, ist einer der größten Bedenken im Zusammenhang mit der Verwendung von KI die Datenschutzproblematik. KI-Systeme wie ChatGPT sind Machine-Learning-Modelle, die Antworten aus den Daten generieren, die sie erhalten. Daher kann es passieren, dass Benutzer oder Entwickler versehentlich sensible Informationen bereitstellen, und das Machine-Learning-Modell kann diese Daten verwenden, um Antworten für andere Benutzer zu generieren, die vertrauliche Informationen preisgeben. Diese Fehler können die Effizienz, Rentabilität und vor allem das Vertrauen der Kunden eines Unternehmens erheblich stören. KI-Systeme sollen die Effizienz steigern und Prozesse vereinfachen, aber wenn aufgrund der Tatsache, dass die Ausgaben nicht vertrauenswürdig sind, ständige Validierung notwendig ist, verschwenden Organisationen nicht nur Zeit, sondern öffnen auch die Tür zu potenziellen Schwachstellen.

Teams für den verantwortungsvollen Einsatz von KI schulen

Um Organisationen vor den potenziellen Risiken des KI-Einsatzes zu schützen, haben IT-Fachleute die wichtige Verantwortung, ihre Kollegen angemessen zu schulen, um sicherzustellen, dass KI verantwortungsvoll eingesetzt wird. Durch diese Maßnahmen helfen sie, ihre Organisationen vor Cyberangriffen zu schützen, die ihre Lebensfähigkeit und Rentabilität bedrohen.

Bevor jedoch Teams geschult werden, müssen IT-Führer intern abstimmen, um zu bestimmen, welche KI-Systeme für ihre Organisation geeignet sind. Ein überstürzter Einsatz von KI wird nur zu späteren Problemen führen, daher ist es ratsam, klein anzufangen und sich auf die Bedürfnisse der Organisation zu konzentrieren. Stellen Sie sicher, dass die Standards und Systeme, die Sie auswählen, mit dem aktuellen Technik-Stack und den Unternehmenszielen übereinstimmen und dass die KI-Systeme die gleichen Sicherheitsstandards wie andere von Ihnen ausgewählte Anbieter erfüllen.

Sobald ein System ausgewählt wurde, können IT-Fachleute ihre Teams mit diesen Systemen vertraut machen, um den Erfolg zu gewährleisten. Beginnen Sie damit, KI für kleine Aufgaben zu verwenden und zu sehen, wo sie gut funktioniert und wo nicht, und lernen Sie, welche potenziellen Gefahren oder Validierungen erforderlich sind. Dann können Sie den Einsatz von KI zur Unterstützung der Arbeit einführen, um eine schnellere Selbstbedienungslösung zu ermöglichen, einschließlich der einfachen “Wie”-Fragen. Von dort aus kann gelehrt werden, wie Validierungen implementiert werden. Dies ist wertvoll, da wir beginnen, mehr Jobs zu sehen, die darin bestehen, Grenzbedingungen und Validierungen zusammenzustellen, und dies bereits in Jobs wie der Verwendung von KI zur Unterstützung bei der Software-Entwicklung sehen.

Zusätzlich zu diesen praktischen Schritten für die Schulung von Teammitgliedern ist es auch wichtig, Diskussionen zu initiieren und zu fördern. Ermutigen Sie offene, datengetriebene Dialoge darüber, wie KI die Bedürfnisse der Benutzer erfüllt – löst sie Probleme genau und schnell, treiben wir die Produktivität für das Unternehmen und den Endbenutzer voran, steigt der NPS-Wert (Net Promoter Score) der Kunden aufgrund dieser KI-gesteuerten Tools? Seien Sie klar über die Rentabilität (Return on Investment, ROI) und halten Sie diese im Vordergrund. Eine klare Kommunikation ermöglicht es, das Bewusstsein für den verantwortungsvollen Einsatz zu fördern, und wenn Teammitglieder ein besseres Verständnis dafür entwickeln, wie die KI-Systeme funktionieren, werden sie diese wahrscheinlich verantwortungsvoll einsetzen.

Wie Transparenz in KI erreicht werden kann

Obwohl die Schulung von Teams und die Steigerung des Bewusstseins wichtig sind, ist es, um Transparenz in KI zu erreichen, von entscheidender Bedeutung, dass es mehr Kontext um die Daten gibt, die für die Ausbildung der Modelle verwendet werden, um sicherzustellen, dass nur qualitativ hochwertige Daten verwendet werden. Hoffentlich wird es irgendwann möglich sein, zu sehen, wie das System argumentiert, damit wir es vollständig vertrauen können. Bis dahin benötigen wir Systeme, die mit Validierungen und Sicherheitsvorkehrungen arbeiten und beweisen können, dass sie diesen entsprechen.

Während vollständige Transparenz unweigerlich Zeit in Anspruch nehmen wird, ist das schnelle Wachstum von KI und ihrem Einsatz es notwendig macht, schnell zu arbeiten. Wenn KI-Modelle weiterhin an Komplexität gewinnen, haben sie die Macht, einen großen Unterschied für die Menschheit zu machen, aber die Folgen ihrer Fehler wachsen auch. Daher ist es extrem wertvoll und notwendig, zu verstehen, wie diese Systeme zu ihren Entscheidungen kommen, um effektiv und vertrauenswürdig zu bleiben. Durch die Konzentration auf transparente KI-Systeme können wir sicherstellen, dass die Technologie so nützlich ist, wie sie sein soll, und gleichzeitig unvoreingenommen, ethisch, effizient und genau bleibt.

Manny Rivelo ist der CEO von ConnectWise, wo er sich für die Mission des Unternehmens einsetzt, Managed Service Provider (MSPs) mit unübertroffener Software, Dienstleistungen und Community zu ermöglichen, um ihre ehrgeizigsten Visionen von Erfolg zu erreichen. Als ehemaliger CEO von Forcepoint führte Rivelo die Transformation des Unternehmens zu einem großen Spieler im Cybersicherheitsbereich, trieb Wachstum und Innovation im Angesicht von sich entwickelnden Cyberbedrohungen voran. Im Laufe seiner Karriere hat Manny Rivelo den Ruf erworben, ein resultsorientierter Führer zu sein, der sich auf die Schaffung von nachhaltigen Geschäftsmodellen und die Schaffung von langfristigem Wert in einem sich schnell verändernden technologischen Umfeld konzentriert.