Interviews
David Maher, CTO von Intertrust – Interview-Reihe

David Maher fungiert als Executive Vice President und Chief Technology Officer von Intertrust. Mit über 30 Jahren Erfahrung in vertrauenswürdigen verteilten Systemen, sicheren Systemen und Risikomanagement hat Dave Forschungs- und Entwicklungsanstrengungen geleitet und wichtige Führungspositionen in den Tochtergesellschaften des Unternehmens innegehabt. Er war früher Präsident von Seacert Corporation, einer Zertifizierungsstelle für digitale Medien und IoT, und Präsident von whiteCryption Corporation, einem Entwickler von Systemen für Software-Selbstverteidigung. Er fungierte auch als Co-Vorsitzender der Marlin Trust Management Organization (MTMO), die das einzige unabhängige digitale Rechte-Management-Ökosystem der Welt beaufsichtigt.
Intertrust hat Innovationen entwickelt, die es verteilten Betriebssystemen ermöglichen, Daten und Berechnungen über offene Netzwerke zu sichern und zu verwalten, was zu einem grundlegenden Patent für vertrauenswürdiges verteiltes Rechnen geführt hat.
Ursprünglich in der Forschung verwurzelt, hat sich Intertrust zu einem produktorientierten Unternehmen entwickelt, das vertrauenswürdige Computerdienste anbietet, die Geräte- und Datenoperationen vereinen, insbesondere für IoT und KI. Zu seinen Märkten gehören Medienverteilung, Geräteidentität/Authentifizierung, digitales Energiemanagement, Analytik und Cloud-Speicher-Sicherheit.
Wie können wir die KI-Vertrauenslücke schließen und die wachsenden Bedenken der Öffentlichkeit bezüglich KI-Sicherheit und -Zuverlässigkeit angehen?
Transparenz ist die wichtigste Eigenschaft, die ich glaube, dass sie dazu beitragen wird, die wachsenden Bedenken bezüglich KI zu angehen. Transparenz umfasst Funktionen, die es sowohl Verbrauchern als auch Technologen ermöglichen, zu verstehen, welche KI-Mechanismen Teil der Systeme sind, mit denen wir interagieren, welche Herkunft sie haben: wie ein KI-Modell trainiert wird, welche Sicherheitsvorkehrungen existieren, welche Richtlinien bei der Modellentwicklung angewendet wurden und welche anderen Sicherheitsgarantien für einen bestimmten Mechanismus bestehen. Mit größerer Transparenz werden wir in der Lage sein, reale Risiken und Probleme anzugehen und nicht so sehr von irrationalen Ängsten und Spekulationen abgelenkt zu werden.
Welche Rolle spielt die Authentifizierung von Metadaten bei der Gewährleistung der Vertrauenswürdigkeit von KI-Ausgaben?
Die Authentifizierung von Metadaten hilft dabei, unsere Zuversicht zu erhöhen, dass Sicherheitsgarantien für ein KI-Modell oder einen anderen Mechanismus verlässlich sind. Eine KI-Modellkarte ist ein Beispiel für eine Sammlung von Metadaten, die bei der Bewertung der Verwendung eines KI-Mechanismus (Modell, Agent usw.) für einen bestimmten Zweck helfen kann. Wir müssen Standards für Klarheit und Vollständigkeit für Modellkarten mit Standards für quantitative Messungen und authentifizierte Behauptungen über Leistung, Verzerrung, Eigenschaften der Trainingsdaten usw. etablieren.
Wie können Organisationen das Risiko von KI-Verzerrung und Halluzinationen in großen Sprachmodellen (LLM) mindern?
Red Teaming ist ein allgemeiner Ansatz, um diese und andere Risiken während der Entwicklung und vor der Veröffentlichung von Modellen anzugehen. Ursprünglich zur Bewertung sicherer Systeme verwendet, wird dieser Ansatz jetzt zum Standard für KI-basierte Systeme. Es ist ein systemischer Ansatz für Risikomanagement, der den gesamten Lebenszyklus eines Systems von der initialen Entwicklung bis zur Feldverteilung umfassen kann, einschließlich der gesamten Entwicklungsversorgungskette. Besonders kritisch ist die Klassifizierung und Authentifizierung der für ein Modell verwendeten Trainingsdaten.
Welche Schritte können Unternehmen unternehmen, um Transparenz in KI-Systemen zu schaffen und die Risiken im Zusammenhang mit dem “Black-Box”-Problem zu reduzieren?
Verstehen Sie, wie das Unternehmen das Modell verwenden wird und welche Art von Haftung es bei der Bereitstellung haben kann, sei es für interne Verwendung oder Verwendung durch Kunden, direkt oder indirekt. Dann verstehen Sie, was ich die Herkunft der zu bereitstellenden KI-Mechanismen nenne, einschließlich Behauptungen auf einer Modellkarte, Ergebnissen von Red-Team-Tests, differentieller Analyse auf die spezifische Verwendung des Unternehmens, was formal bewertet wurde und was andere Menschen Erfahrungen gemacht haben. Interne Tests mit einem umfassenden Testplan in einer realistischen Umgebung sind absolut erforderlich. Best Practices sind in diesem nascenten Bereich im Entstehen, daher ist es wichtig, auf dem neuesten Stand zu bleiben.
Wie können KI-Systeme unter Berücksichtigung ethischer Richtlinien entworfen werden, und welche Herausforderungen gibt es dabei in verschiedenen Branchen?
Dies ist ein Forschungsgebiet, und viele behaupten, dass die Vorstellung von Ethik und den aktuellen Versionen von KI unvereinbar seien, da Ethik konzeptuell basiert und KI-Mechanismen hauptsächlich datengetrieben sind. Zum Beispiel sind einfache Regeln, die Menschen verstehen, wie “nicht betrügen”, schwierig zu gewährleisten. Es sollte jedoch eine sorgfältige Analyse von Interaktionen und Zielkonflikten in zielbasiertem Lernen, Ausschluss von zweifelhaften Daten und Desinformation sowie Einbau von Regeln, die die Verwendung von Ausgabe-Filtern erfordern, die Sicherheitsvorkehrungen durchsetzen und auf Verstöße gegen ethische Prinzipien wie die Förderung oder Sympathisierung mit der Verwendung von Gewalt in Ausgabeinhalten testen, berücksichtigt werden. Ebenso kann rigoroses Testen auf Verzerrung dazu beitragen, ein Modell mehr mit ethischen Prinzipien in Einklang zu bringen. Wiederum kann viel davon konzeptuell sein, daher muss darauf geachtet werden, die Auswirkungen eines bestimmten Ansatzes zu testen, da das KI-System Anweisungen nicht auf die Weise “verstehen” wird, wie Menschen es tun.
Welche sind die wichtigsten Risiken und Herausforderungen, denen KI in Zukunft gegenübersteht, insbesondere wenn sie mehr mit IoT-Systemen integriert wird?
Wir möchten KI verwenden, um Systeme zu automatisieren, die kritische Infrastrukturprozesse optimieren. Zum Beispiel wissen wir, dass wir Energieverteilung und -verwendung mithilfe virtueller Kraftwerke optimieren können, die Tausende von Elementen der Energieproduktion, -speicherung und -verwendung koordinieren. Dies ist nur mit massiver Automatisierung und der Verwendung von KI zur Unterstützung bei der Entscheidungsfindung möglich. Systeme werden Agenten mit konkurrierenden Optimierungszielen enthalten (z. B. zum Nutzen des Verbrauchers vs. des Lieferanten). KI-Sicherheit und -Sicherheit werden bei der weitverbreiteten Bereitstellung solcher Systeme von entscheidender Bedeutung sein.
Welche Art von Infrastruktur ist erforderlich, um Entitäten in KI-Systemen sicher zu identifizieren und zu authentifizieren?
Wir benötigen eine robuste und effiziente Infrastruktur, mit der Entitäten, die alle Aspekte von KI-Systemen und ihrer Bereitstellung bewerten, autorisierte und authentifizierte Behauptungen über KI-Systeme, ihre Herkunft, verfügbare Trainingsdaten, die Herkunft von Sensordaten, Sicherheitsvorkehrungen und Ereignisse usw. veröffentlichen können. Diese Infrastruktur muss es auch ermöglichen, Behauptungen und Aussagen von Systemnutzern und von Elementen in automatisierten Systemen, die Entscheidungen auf der Grundlage von KI-Modell- und Optimierungs-Ausgaben treffen, effizient zu überprüfen.
Könnten Sie uns einige Einblicke in das geben, an dem Sie bei Intertrust arbeiten, und wie es zu dem beiträgt, was wir besprochen haben?
Wir forschen und entwerfen Technologien, die die Art von Vertrauensmanagement-Infrastruktur bereitstellen können, die in der vorherigen Frage erforderlich ist. Wir beschäftigen uns speziell mit Fragen der Skalierbarkeit, Latenz, Sicherheit und Interoperabilität, die in IoT-Systemen auftreten, die KI-Komponenten enthalten.
Wie sichert Intertrusts PKI- (Public Key Infrastructure-) Dienst IoT-Geräte, und was macht es für große Bereitstellungen skalierbar?
Unsere PKI wurde speziell für Vertrauensmanagement für Systeme konzipiert, die die Verwaltung von Geräten und digitalen Inhalten umfassen. Wir haben Milliarden von kryptografischen Schlüsseln und Zertifikaten bereitgestellt, die die Einhaltung von Vorschriften gewährleisten. Unsere aktuelle Forschung befasst sich mit der Skalierbarkeit und den Sicherheitsgarantien, die massive industrielle Automatisierung und kritische weltweite Infrastruktur erfordern, einschließlich Best Practices für “Zero-Trust”-Bereitstellungen und Geräte- und Datenauthentifizierung, die trillions von Sensoren und Ereignisgeneratoren aufnehmen können.
Was hat Sie dazu bewogen, sich an den KI-Initiativen von NIST zu beteiligen, und wie trägt Ihre Beteiligung dazu bei, vertrauenswürdige und sichere KI-Standards zu entwickeln?
NIST hat enorme Erfahrung und Erfolge bei der Entwicklung von Standards und Best Practices in sicheren Systemen. Als Principal Investigator für das US AISIC von Intertrust kann ich für wichtige Standards und Best Practices in der Entwicklung von Vertrauensmanagement-Systemen eintreten, die KI-Mechanismen enthalten. Aus meiner früheren Erfahrung schätze ich besonders den Ansatz, den NIST bei der Förderung von Kreativität, Fortschritt und industrieller Zusammenarbeit verfolgt, während er gleichzeitig wichtige technische Standards entwickelt und verbreitet, die Interoperabilität fördern. Diese Standards können die Adoption von nützlichen Technologien fördern, während sie gleichzeitig die Risiken angehen, denen die Gesellschaft gegenübersteht.
Vielen Dank für das großartige Interview. Leser, die mehr erfahren möchten, sollten Intertrust besuchen.












