Cybersikkerhed
US Føderal og Militær AI: Ny Platform Tilbyder Algoritmevalidering og Akkreditering

En startup, der har en bestyrelse med tidligere regerings- og militære fremtrædende personer, har lanceret en ny platform designet til at evaluere sikkerheden og udrulningsmulighederne for AI-applikationer. Tidlige brugere af systemet skal inkludere US Air Force og Department of Homeland Security.
Platformen kaldes VESPR, fra CalypsoAI, grundlagt i 2018, med hovedkvarter i Silicon Valley, Dublin og en officielt ‘hemmelig’ lokalitet i Virginia – terra firma for CIA i Langley.
VESPR er et modelrisikostyringssystem (MRM) designet til at facilitere et føderalt kompatibelt system for akkreditering af udrullede algoritmer. Det tilbyder både en brugervenlig dashboard-stil GUI-miljø og en CLI-grænseflade for mere avanceret brug.
VESPR er grundlagt på CalypsoAIs maskinlæringsvalidering, verificering og akkrediteringsstandarder og indeholder håndlavet adversarial machine learning-biblioteker. Det tilbyder også automatiserede stresstest-rutiner for potentielle udrullede algoritmer.
National Artificial Intelligence Research Resource Task Force
Tidspunktet for lanceringen kan være relateret til gårsdagens lancering af Biden-administrationen af en ny National Artificial Intelligence Research Resource Task Force, en komité designet til at fungere som en føderal rådgivende komité i henhold til Kongressens National AI Initiative Act of 2020.
Der har været stigende pres på USA og verden om meningsfulde regulatoriske standarder for maskinlæringsystemer, ikke mindst i mission-kritiske områder som nøgleinfrastruktur og militær brug. Da ML-systemer stadig er i en formativ fase og har en hurtig udviklingsrate, repræsenterer de en relativt ustabil og ofte kontroversiel ressource, som det nu er essentiel at identificere replikerbare og pålidelige analytiske algoritmer – hvis dette viser sig at være muligt.
I april udtrykte CalypsoAI sin støtte til Endless Frontiers Act, en kongreslov designet til at reformere videnskabsfinansiering i lyset af Kinas voksende fremtræden som en AI-magt, selvom loven ultimate blev svækket på Senatets niveau.
Validering For Føderal AI
Ifølge VESPR-pressemeddelelsen dækker områderne computer vision og naturlig sprogbehandling (NLP).
CalypsoAI hævder, at VESPR blev skabt ‘med kritisk input fra eksisterende nationale sikkerheds-kunder og født ud af år med uafhængigt finansieret forskning i adversarial machine learning’.
Billeder af systemet set i en promotionsvideo (se slutningen af artiklen) synes at inkludere detektion og/eller simulations-rutiner for dataforgiftning og støjindjektion, og giver simulationer for handlinger fra potentielle angribere til udrullede systemer.
Systemet synes at udnytte historiske data om både nationale og fremmede handlinger. Målklasserne inkluderer ‘Protester’ og ‘Optøjer’, samt den mindre klare ‘Strategiske udviklinger’. Nationale terrorangreb synes også at være inkluderet i systemets reference-databaser, med ‘Vold mod civile’ en anden tilgængelig målklasse. Andre tilgængelige målklasser inkluderer ‘Kampe’ og ‘Eksplosioner/Fjernvold’.
Systemet synes at tillade beskyttelse af funktioner i en “BIAS-styrings”-sektion af konfiguration, åbenbart designet til at bekæmpe overfitning eller undgå den uønskede eliminering af mindre outlier-hændelser, som kan være af interesse i en analytisk rutine. I videoen behandler VESPR tabellariske historiske data om ‘Ukraine’.

Uden for denne initielle promotionsblitz synes det ikke sandsynligt (måske med vilje), at vi kommer til at høre mere om dette regeringsrettede SaaS-produkt, uanset hvordan det klarer sig; det deler sit navn med en kaffebar-kæde, en social dating-app og en streaming-album, og bliver konstant slået tilbage i rangerede resultater af VSEPR-kemimodellen.
CalypsoAI modtog $13 million i Series A-finansiering fra Paladin Capital Venture Group i juli 2020. Andre investorer inkluderede 8VC, Lockheed Martin Ventures, Manta Ray Ventures, Frontline Ventures, Lightspeed Venture Partners og Pallas Ventures.
I en blogindlæg på virksomhedens websted skriver CalypsoAIs grundlægger Neil Serebryany, der har udført uspecificeret forskningsarbejde på Forsvarsministeriet i 2018, at virksomheden blev grundlagt som en mulig løsning på regeringernes frygt for at udrulle avancerede algoritme-systemer i en ureguleret klima:
‘Den primære årsag til denne frygt for AI-projekter, der fører til, at de bliver opgivet inden for regeringen, lyder prosaisk, men er faktisk ret kompleks. De blev opgivet på grund af manglen på kvalitetssikring […] AI-modeller kan ikke vurderes på samme måde som traditionel software. Dette skyldes den underliggende natur af modelstrukturen og de højkomplekse måder, hvorpå de kan fejle. Manglen på en mekanisme til at vurdere disse ikke-deterministiske systemer på en deterministisk, revisionssikker måde, gjorde, at organisationer inden for regeringen ikke kunne vurdere den såkaldte ‘kvalitet’ af AI-modeller i forhold til en benchmark. Dette førte til frygt for, at de kunne fejle, kunne fejlfuncione eller kunne blive hakket af en modpart på det tidspunkt, de er mest nødvendige, f.eks. i kamp, under flyvning eller under en kompleks medicinsk procedure. ‘
Bestyrelse
En måned før investeringsrunden oprettede virksomheden en National Security Advisory Board, der inkluderer Tony DeMartino, en tidligere medarbejder for Forsvarsminister Jim Mattis, og nu en grundlæggerpartner i Washington-baseret strategisk rådgivningsfirma Pallas Advisors; tidligere Principal Deputy Under Secretary of Defense for Intelligence (under Præsident Trump) Kari Bingen; tidligere Associate Deputy Director for CIA Digital Innovation Sean Roche, en tidligere cyber-intelligence-specialist i den organisation; og Michael Molino, tidligere Executive Vice President of corporate development at ASRC Federal, der tilbyder rådgivning, forskning og teknisk migrationskapacitet på tværs af en række kritiske føderale tjenester.
Ifølge pressemeddelelsen:
‘VESPR tilbyder avancerede AI-testmuligheder med en strømlinet arbejdsgang for at sikre, at hver enkelt maskinlæringsalgoritme, der indsættes i produktion, er blevet verificeret som sikker. VESPR tilbyder enestående sikkerhed og garantier for en række AI-systemer, fra computer vision til naturlig sprogbehandling. VESPR-processen sikrer test, evaluering, verificering og validering (TEVV) på tværs af den sikre maskinlæringslivscyklus (SMLC), fra forsknings- og udviklingsfasen til modeludrulning. Resultatet er AI-systemer, der giver præcise og omfattende overvågning og rapportering om modelkapaciteter, sårbarheder og præstationer.’
Opdateret 11:07 AM EST for at reflektere, at Michael Molino ikke længere arbejder hos ASRC Federal, en fejl i den oprindelige artikel.
Opdateret 1. januar 28, 2024 for at fjerne en defekt YouTube-video.















