Stummel US-amerikanische Bundes- und Militär-KI: Neue Plattform bietet Algorithmusvalidierung und -Akkreditierung - Unite.AI
Vernetzen Sie sich mit uns

Internet-Sicherheit

US-amerikanische Bundes- und Militär-KI: Neue Plattform bietet Algorithmenvalidierung und -akkreditierung

mm
Aktualisiert on

Ein Startup mit einem Beirat aus ehemaligen Militärgrößen der Regierung hat eine neue Plattform veröffentlicht, die die Sicherheit und Einsatzfähigkeit von KI-Anwendungen bewerten soll. Zu den ersten Anwendern des Systems sollen die US-Luftwaffe und das Heimatschutzministerium gehören.

Die Plattform heißt VESPR, von CalypsoAI, gegründet 2018, mit Hauptsitz im Silicon Valley, Dublin, und einem offiziell „unbekannten“ Standort in Virginia – fester Bestandteil der CIA in Langley.

VESPR ist ein Modellrisikomanagementsystem (MRM), das ein bundesweit konformes Akkreditierungssystem für eingesetzte Algorithmen ermöglichen soll. Es bietet sowohl eine benutzerfreundliche GUI-Umgebung im Dashboard-Stil als auch eine CLI-Schnittstelle für eine erweiterte Nutzung.

Quelle: https://www.youtube.com/watch?v=lMhS6j7t2pI

Zum Vergrößern anklicken. Quelle: https://www.youtube.com/watch?v=lMhS6j7t2pI

VESPR basiert auf den Validierungs-, Verifizierungs- und Akkreditierungsstandards für maschinelles Lernen von CalypsoAI und verfügt über handgefertigte Bibliotheken für kontradiktorisches maschinelles Lernen. Es bietet auch automatisierte Stresstestroutinen für potenziell einsetzbare Algorithmen.

Nationale Task Force für Forschungsressourcen im Bereich künstliche Intelligenz

Der Zeitpunkt der Veröffentlichung kann sich auf den gestrigen beziehen starten von der Biden-Regierung eine neue National Artificial Intelligence Research Resource Task Force eingerichtet, ein Gremium, das gemäß den Vorgaben des Kongresses als föderaler Beratungsausschuss fungieren soll National AI Initiative Act von 2020.

Der Druck auf die USA und auf der ganzen Welt, sinnvolle Regulierungsstandards für maschinelle Lernsysteme zu fordern, nimmt zu, nicht zuletzt in geschäftskritischen Bereichen wie wichtiger Infrastruktur und militärischer Nutzung. Da sich ML-Systeme immer noch in der Entstehungsphase befinden und sich rasch weiterentwickeln, stellen sie einen relativ instabilen und häufig kontroversen Ansatz dar, aus dem es jetzt unbedingt erforderlich ist, reproduzierbare und zuverlässige Analysealgorithmen zu identifizieren – sofern sich dies als möglich erweist.

Im April gab CalypsoAI seine Unterstützung bekannt Endless Frontiers Act, ein Gesetzesentwurf des Kongresses, der darauf abzielte, die Wissenschaftsfinanzierung angesichts der wachsenden Bedeutung Chinas als KI-Macht zu reformieren, obwohl das Gesetz letztendlich dazu diente verwässert auf der Senatsebene.

Validierung für Bundes-KI

Laut der VESPR-Pressemitteilung umfassen die vom Framework abgedeckten Bereiche Computer Vision und Natural Language Processing (NLP).

CalypsoAI behauptet, dass VESPR „mit kritischem Input bestehender nationaler Sicherheitskunden und aus jahrelanger, unabhängig finanzierter Forschung zum gegnerischen maschinellen Lernen“ entwickelt wurde.

Bilder des Systems, die in einem Werbevideo zu sehen sind (siehe Ende des Artikels), scheinen Erkennungs- und/oder Simulationsroutinen für Datenvergiftung und Rauscheinschleusung zu enthalten, die Simulationen für die Aktionen potenzieller Angreifer auf bereitgestellte Systeme liefern.

Zum Vergrößern anklicken.

Das System scheint historische Daten nationaler und ausländischer Aktionen zu nutzen. Zu den Zielklassen gehören neben den weniger klaren „Strategischen Entwicklungen“ auch „Proteste“ und „Unruhen“. Nationale Terrorvorfälle scheinen ebenfalls in den Referenzdatenbanken des Systems enthalten zu sein, wobei „Gewalt gegen Zivilisten eine weitere verfügbare Zielkategorie“ ist. Zu den weiteren verfügbaren Zielklassen gehören „Schlachten“ und „Explosionen/Ferngewalt“.

Zum Vergrößern anklicken.

Das System scheint den Schutz von Funktionen in einem Konfigurationsabschnitt „BIAS-Management“ zu ermöglichen, der offenbar darauf ausgelegt ist, Überanpassungen zu bekämpfen oder die unerwünschte Eliminierung kleinerer Ausreißerereignisse zu verhindern, die in einer Analyseroutine von Interesse sein könnten. In dem Video verarbeitet VESPR tabellarische historische Daten über die „Ukraine“.

Abgesehen von dieser anfänglichen Werbeaktion ist es unwahrscheinlich (vielleicht beabsichtigt), dass wir noch viel mehr über dieses regierungsorientierte SaaS-Produkt hören werden, wie auch immer es abschneidet; Es teilt seinen Namen mit einer Kaffeebar-Franchise, einer Social-Dating-App und einem Streaming-Album und wird in den Ranking-Ergebnissen vom VSEPR-Chemiemodell gnadenlos zurückgeschlagen.

CalypsoAI erhalten 13 Mio. US$ in Serie-A-Fundraising von der Paladin Capital Venture Group im Juli 0. Andere Investoren inklusive 8VC, Lockheed Martin Ventures, Manta Ray Ventures, Frontline Ventures, Lightspeed Venture Partners und Pallas Ventures.

In einem Blogbeitrag auf der Website des Unternehmens erklärt Neil Serebryany, Gründer von CalypsoAI, der 2018 nicht näher bezeichnete Forschungsarbeiten im Verteidigungsministerium durchführte, dass das Unternehmen als mögliche Lösung für die Angst der Regierungen vor dem Einsatz fortschrittlicher algorithmischer Systeme in einem unregulierten Klima gegründet wurde :

„Der Hauptgrund für diese Angst vor KI-Projekten, die dazu führt, dass sie innerhalb der Regierung aufgegeben werden, klingt prosaisch, ist aber tatsächlich recht komplex.“ Sie wurden aufgrund mangelnder Qualitätssicherung aufgegeben […] KI-Modelle können nicht auf die gleiche Weise bewertet werden wie herkömmliche Softwaremodelle. Dies liegt an der zugrunde liegenden Natur der Modellstruktur und an der äußerst komplexen Art und Weise, wie sie versagen kann. Da es keinen Mechanismus zur deterministischen, überprüfbaren Bewertung dieser nichtdeterministischen Systeme gab, waren Organisationen innerhalb der Regierung nicht in der Lage, die sogenannte „Qualität“ von KI-Modellen anhand eines Benchmarks zu bewerten. Dies führte zu der Befürchtung, dass sie versagen könnten, eine Fehlfunktion aufweisen oder von einem Gegner gehackt werden könnten, und zwar zu dem Zeitpunkt, an dem sie am meisten benötigt werden, beispielsweise im Kampf, im Flug oder während eines komplexen medizinischen Eingriffs. '

Beirat

Einen Monat vor der Investitionsrunde richtete das Unternehmen einen Nationalen Sicherheitsbeirat ein Tony DeMartino, ein ehemaliger Berater von Verteidigungsminister Jim Mattis und jetzt Gründungspartner des in Washington ansässigen strategischen Beratungsunternehmens Pallas Advisors; ehemaliger stellvertretender Unterstaatssekretär für Geheimdienste (unter Präsident Trump) Kari Bingen; ehemaliger stellvertretender Direktor für CIA Digital Innovation Sean Roche, ein ehemaliger Cyber-Intelligence-Spezialist in dieser Organisation; Und Michael Molino, ehemaliger Executive Vice President für Unternehmensentwicklung bei ASRC Federal, das Beratungs-, Forschungs- und technische Migrationskapazitäten für eine Reihe wichtiger Bundesdienste bereitstellt.

Laut Veröffentlichung:

„VESPR bietet erweiterte KI-Testfunktionen mit einem optimierten Arbeitsablauf, um sicherzustellen, dass jeder in Produktion genommene Algorithmus für maschinelles Lernen als sicher verifiziert wurde.“ VESPR bietet beispiellose Sicherheit und Sicherheit für eine Vielzahl von KI-Systemen, von Computer Vision bis hin zur Verarbeitung natürlicher Sprache. Der VESPR-Prozess gewährleistet Tests, Bewertung, Verifizierung und Validierung (TEVV) während des gesamten sicheren maschinellen Lernlebenszyklus (SMLC), von der Forschungs- und Entwicklungsphase bis zur Modellbereitstellung. Das Endergebnis sind KI-Systeme, die eine genaue und umfassende Überwachung und Berichterstattung über Modellfähigkeiten, Schwachstellen und Leistung ermöglichen.“


Aktualisiert um 11:07 Uhr EST, um zu berücksichtigen, dass Michael Molino nicht mehr bei ASRC Federal arbeitet, ein Errata im Originalartikel.

Aktualisiert am 1. Januar 28, um defekte YouTube-Videos zu entfernen.