Interviews
David Maher, CTO of Intertrust – Interview Serie

David Maher fungerer som Intertrust‘s Executive Vice President og Chief Technology Officer. Med over 30 års erfaring i tillidsfulde distribuerede systemer, sikre systemer og risikostyring har Dave ledet R&D-bestræbelser og haft nøglelederstillinger på tværs af selskabets datterselskaber. Han var tidligere præsident for Seacert Corporation, en Certificate Authority for digital medie og IoT, og præsident for whiteCryption Corporation, en udvikler af systemer til software-selvforsvar. Han fungerede også som co-formand for Marlin Trust Management Organization (MTMO), som overvåger verdens eneste uafhængige digital rettighedsstyringøkosystem.
Intertrust har udviklet innovationer, der muliggør distribuerede operativsystemer til at sikre og styre data og beregninger over åbne netværk, hvilket resulterer i en grundlæggende patent på tillidsfuld distribueret beregning.
Oprindeligt rod i forskning, er Intertrust udviklet til et produktfokuseret selskab, der tilbyder tillidsfulde computertjenester, der samler enheds- og dataoperationer, særligt til IoT og AI. Deres markeder omfatter mediedistribution, enhedsidentitet/godkendelse, digital energistyring, analyse og skyldatabeskyttelse.
Hvordan kan vi lukke AI-tillidsgapet og imødekomme offentlighedens voksende bekymringer om AI-sikkerhed og pålidelighed?
Gennemsigtighed er den vigtigste egenskab, som jeg mener vil hjælpe med at imødekomme de voksende bekymringer om AI. Gennemsigtighed omfatter funktioner, der hjælper både forbrugere og teknologer med at forstå, hvilke AI-mekanismer der er en del af systemer, vi interagerer med, hvilken slags afstamning de har: hvordan en AI-model er trænet, hvilke sikkerhedsforanstaltninger findes, hvilke politikker blev anvendt under modeludviklingen, og hvilke andre garantier findes for en given mekanismes sikkerhed og sikkerhed. Med større gennemsigtighed vil vi være i stand til at imødekomme reelle risici og problemer og ikke blive distraheret så meget af irrationelle frygt og formodninger.
Hvad er rollen af metadata-godkendelse i at sikre tillidsværdigheden af AI-udgang?
Metadata-godkendelse hjælper med at øge vores tillid til, at garantier om en AI-model eller anden mekanisme er pålidelige. En AI-modelkort er et eksempel på en samling af metadata, der kan hjælpe med at evaluere brugen af en AI-mekanisme (model, agent osv.) til et bestemt formål. Vi skal etablere standarder for klarhed og fuldstændighed for modelkort med standarder for kvantitative målinger og godkendte påstande om præstation, bias, egenskaber af træningsdata osv.
Hvordan kan organisationer mindske risikoen for AI-forvrængning og hallucinationer i store sprogmodeller (LLM)?
Red teaming er en generel tilgang til at imødekomme disse og andre risici under udviklingen og før udgivelsen af modeller. Oprindeligt anvendt til at evaluere sikre systemer, er tilgangen nu blevet standard for AI-baserede systemer. Det er en systemtilgang til risikostyring, der kan og skal omfatte hele livscyklussen for et system fra initial udvikling til feltudvikling, dækkende hele udviklingssupplychain. Særligt kritisk er klassificering og godkendelse af træningsdata, der anvendes til en model.
Hvad kan virksomheder gøre for at skabe gennemsigtighed i AI-systemer og mindske risiciene forbundet med “black box”-problemet?
Forstå, hvordan virksomheden vil anvende modellen, og hvilke slags ansvar, den måtte have under udvikling, enten for intern brug eller brug af kunder, direkte eller indirekte. Herefter skal man forstå, hvad jeg kalder afstamningen af AI-mekanismerne, der skal anvendes, herunder påstande på en modelkort, resultater af red team-prøver, differentialanalyse på virksomhedens specifikke brug, hvad der er blevet formelt evalueret, og hvad andre menneskers erfaringer har været. Intern testning ved hjælp af en omfattende testplan i et realistisk miljø er absolut nødvendig. Bedste praksis udvikles i dette næsten område, så det er vigtigt at holde sig ajour.
Hvordan kan AI-systemer designedes med etiske retningslinjer i mente, og hvad er udfordringerne i at opnå dette på tværs af forskellige industrier?
Dette er et forskningsområde, og mange hævder, at begrebet om etik og nuværende versioner af AI er inkongruente, da etik er konceptuelt baseret, og AI-mekanismer er mest data-drevne. For eksempel er simple regler, som mennesker forstår, som “ikke bedrag”, svære at sikre. Men omhyggelig analyse af interaktioner og konflikter af mål i mål-baseret læring, udelukkelse af tvivlsomme data og desinformation, og opbygning af regler, der kræver brug af output-filtre, der tvinger sikkerhedsforanstaltninger, og test for overtrædelse af etiske principper, såsom at fremme eller sympatisere med brug af vold i outputindhold, skal overvejes. Ligeledes kan rigorøs test for bias hjælpe med at bringe en model mere i overensstemmelse med etiske principper. Atter skal man være omhyggelig med at teste effekterne af en given tilgang, da AI-mekanismen ikke “forstår” instruktioner, som mennesker gør.
Hvad er de vigtigste risici og udfordringer, som AI står over for i fremtiden, særligt når det integreres mere med IoT-systemer?
Vi ønsker at bruge AI til at automatisere systemer, der optimerer kritiske infrastrukturprocesser. For eksempel ved vi, at vi kan optimere energifordeling og brug ved hjælp af virtuelle kraftværker, der koordinerer tusindvis af elementer af energiproduktion, lagring og brug. Dette er kun praktisk med massiv automation og brug af AI til at hjælpe med minut-decisioner. Systemer vil omfatte agenter med modstridende optimeringsmål (såsom for forbrugernes fordel vs. leverandørens fordel). AI-sikkerhed og sikkerhed vil være kritisk i den bredere udvikling af sådanne systemer.
Hvad slags infrastruktur er nødvendig for at sikre og godkende enheder i AI-systemer?
Vi skal have en robust og effektiv infrastruktur, hvor enheder, der er involveret i evaluering af alle aspekter af AI-systemer og deres udvikling, kan offentliggøre autoritative og autentiske påstande om AI-systemer, deres afstamning, tilgængelige træningsdata, proveniens af sensordata, sikkerhedsrelaterede begivenheder og hændelser osv. Denne infrastruktur skal også gøre det effektivt at verificere påstande og påstande af brugere af systemer, der omfatter AI-mekanismer, og af elementer i automatiserede systemer, der træffer beslutninger baseret på output fra AI-modeller og optimeringsværktøjer.
Kunne du dele nogle indsigt med os om, hvad du arbejder med hos Intertrust, og hvordan det indgår i, hvad vi har diskuteret?
Vi forsker og designer teknologi, der kan levere den slags tillidsstyringsinfrastruktur, der kræves i den foregående spørgsmål. Vi beskæftiger os specifikt med problemerne om skala, latency, sikkerhed og interoperabilitet, der opstår i IoT-systemer, der omfatter AI-komponenter.
Hvordan sikrer Intertrust‘s PKI (Public Key Infrastructure)-tjeneste IoT-enheder, og hvad gør den skalerbar for store udviklinger?
Vores PKI blev designet specifikt til tillidsstyring for systemer, der omfatter styring af enheder og digital indhold. Vi har udrullet milliarder af kryptografiske nøgler og certifikater, der sikrer overholdelse. Vores nuværende forskning omhandler skalaen og garantierne, der kræves for massiv industriautomatisering og kritisk verdensomspændende infrastruktur, herunder bedste praksis for “zero-trust”-udviklinger og enheds- og data-godkendelse, der kan rumme trillioner af sensorer og begivenhedsgeneratore.
Hvad motiverede dig til at deltage i NIST’s AI-initiativer, og hvordan bidrager din involvering til udviklingen af tillidsfulde og sikre AI-standarder?
NIST har en enorm erfaring og succes i udviklingen af standarder og bedste praksis i sikre systemer. Som Principal Investigator for US AISIC fra Intertrust, kan jeg forkæmpe for vigtige standarder og bedste praksis i udviklingen af tillidsstyringsystemer, der omfatter AI-mekanismer. Fra tidligere erfaring særligt værdsætter jeg tilgangen, som NIST tager til at fremme kreativitet, fremgang og industrielt samarbejde, mens de hjælper med at formulere og udgive vigtige tekniske standarder, der fremmer interoperabilitet. Disse standarder kan fremme adoptionen af nyttige teknologier, mens de imødekommer de slags risici, som samfundet står over for.
Tak for det gode interview, læsere, der ønsker at lære mere, skal besøge Intertrust.












