Connect with us

Intervjuer

David Maher, CTO of Intertrust – Intervju-serie

mm

David Maher er Intertrusts nestledende visepresident og Chief Technology Officer. Med over 30 års erfaring innen pålitelige distribuerte systemer, sikre systemer og risikostyring har Dave ledet FoU-ansatte og hatt nøkkellederstillinger i hele selskapets datterselskaper. Han var tidligere president for Seacert Corporation, en Certificate Authority for digital media og IoT, og president for whiteCryption Corporation, en utvikler av systemer for programvare-selvforsvar. Han har også vært medformann for Marlin Trust Management Organization (MTMO), som overvåker verdens eneste uavhengige digital rettighetsforvaltning-økosystem.

Intertrust har utviklet innovasjoner som muliggjør distribuerte operativsystemer å sikre og styre data og beregninger over åpne nettverk, noe som har resultert i en grunnleggende patent på pålitelig distribuert beregning.

Opprinnelig rotfestet i forskning, har Intertrust utviklet seg til et produktfokusert selskap som tilbyr pålitelige dataservice-tjenester som forener enhet- og dataoperasjoner, særlig for IoT og AI. Deres markeder inkluderer mediedistribusjon, enhetsidentitet/autentisering, digital energistyring, analyse og skytall Sikkerhet.

Hvordan kan vi lukke AI-tillitsgapet og møte det økende bekymringen om AI-sikkerhet og pålitelighet?

Gjennomsiktighet er den viktigste kvaliteten som jeg tror vil hjelpe med å møte de økende bekymringene om AI. Gjennomsiktighet inkluderer funksjoner som hjelper både forbrukere og teknologer å forstå hva slags AI-mekanismer som er en del av systemene vi samhandler med, hva slags bakgrunn de har: hvordan en AI-modell er trent, hva slags retningslinjer finnes, hva slags politikk ble brukt i modellutviklingen, og hva slags andre garantier finnes for en gitt mekanismes sikkerhet og sikkerhet. Med større gjennomsiktighet vil vi kunne møte reelle risikoer og problemer og ikke bli distraherende så mye av irrasjonelle frykter og antagelser.

Hva slags rolle spiller metadata-autentisering i å sikre tillitsverdigheten av AI-utdata?

Metadata-autentisering hjelper å øke vår tillit til at garantier om en AI-modell eller annen mekanisme er pålitelige. En AI-modellkort er et eksempel på en samling av metadata som kan hjelpe med å evaluere bruken av en AI-mekanisme (modell, agent osv.) for en bestemt formål. Vi må etablere standarder for klarhet og fullstendighet for modellkort med standarder for kvantitative målinger og autentiserte utsagn om ytelse, bias, egenskaper ved treningdata osv.

Hvordan kan organisasjoner minimere risikoen for AI-forvrengning og hallusinasjoner i store språkmodeller (LLM)?

Red teaming er en generell tilnærming til å møte disse og andre risikoer under utviklingen og før lanseringen av modeller. Opprinnelig brukt til å evaluere sikre systemer, er tilnærmingen nå blitt standard for AI-baserte systemer. Det er en systems tilnærming til risikostyring som kan og bør inkludere hele livssyklusen til et system fra initial utvikling til feltutbredelse, dekkende hele utviklingssupplykjeden. Spesielt kritisk er klassifisering og autentisering av treningdata brukt for en modell.

Hva slags skritt kan selskaper ta for å skape gjennomsiktighet i AI-systemer og redusere risikoene forbundet med “black box”-problemet?

Forstå hvordan selskapet skal bruke modellen og hva slags ansvar de kan ha i utbredelse, enten for intern bruk eller bruk av kunder, enten direkte eller indirekte. Deretter forstå hva jeg kaller pedigreene til AI-mekanismene som skal utbredes, inkludert utsagn på en modellkort, resultater fra red team-prøver, differensialanalyse på selskapets spesifikke bruk, hva som har blitt formelt evaluert, og hva andre menneskers erfaringer har vært. Intern testing med en omfattende testplan i et realistisk miljø er absolutt nødvendig. Beste praksis er under utvikling i dette nyopprettede området, så det er viktig å holde seg oppdatert.

Hvordan kan AI-systemer designes med etiske retningslinjer i mente, og hva er utfordringene i å oppnå dette på tvers av ulike industrier?

Dette er et forskningsområde, og mange hevder at begrepet “etikk” og nåværende versjoner av AI er uforenlige siden etikk er konseptuelt basert, og AI-mekanismer er mest data-drevne. For eksempel, enkle regler som mennesker forstår, som “ikke juke”, er vanskelige å sikre. Imidlertid bør en nøye analyse av interaksjoner og konflikter av mål i målbasert læring, eksklusjon av skumle data og desinformasjon, og bygging av regler som krever bruk av utdatafilter som tvinger guardrails og tester for brudd på etiske prinsipper som å fremme eller sympatisere med bruk av vold i utdatainnhold, være betraktet. Liksom, rigorøs testing for bias kan hjelpe med å alignere en modell mer med etiske prinsipper. Igjen, mye av dette kan være konseptuelt, så omsorg må tas for å teste effekten av en gitt tilnærming siden AI-mekanismen ikke “forstår” instruksjoner på samme måte som mennesker.

Hva er de viktigste risikoene og utfordringene som AI står overfor i fremtiden, særlig når det integreres mer med IoT-systemer?

Vi ønsker å bruke AI til å automatisere systemer som optimaliserer kritiske infrastrukturprosesser. For eksempel, vi vet at vi kan optimalisere energidistribusjon og bruk ved hjelp av virtuelle kraftverk, som koordinerer tusenvis av elementer av energiproduksjon, lagring og bruk. Dette er bare praktisk med massiv automatisering og bruk av AI til å hjelpe med minuttbeslutninger. Systemer vil inkludere agenter med motstridende optimaliseringsobjektiver (sier, for forbrukerens vs leverandørens fordel). AI-sikkerhet og sikkerhet vil være kritisk i den bredere utbredelsen av slike systemer.

Hva slags infrastruktur er nødvendig for å sikre identifikasjon og autentisering av enheter i AI-systemer?

Vi vil trenge en robust og effektiv infrastruktur hvor enheter involvert i evaluering av alle aspekter av AI-systemer og deres utbredelse kan publisere autoritative og autentiske krav om AI-systemer, deres bakgrunn, tilgjengelige treningdata, proveniens av sensordata, sikkerhetsrelaterte hendelser og begivenheter osv. Denne infrastrukturen må også gjøre det effektivt å verifisere krav og utsagn fra brukere av systemer som inkluderer AI-mekanismer og fra elementer i automatiserte systemer som tar beslutninger basert på utdata fra AI-modeller og optimalisatorer.

Kunne du dele noen innsikter med oss om hva du arbeider med på Intertrust og hvordan det faktorerer inn i hva vi har diskutert?

Vi forsker og designer teknologi som kan tilby den type tillitsstyringsinfrastruktur som er nødvendig i den forrige spørsmålet. Vi addresseer spesielt skala-, latens-, sikkerhets- og interoperabilitetsproblemer som oppstår i IoT-systemer som inkluderer AI-komponenter.

Hvordan sikrer Intertrusts PKI (Public Key Infrastructure) tjeneste IoT-enheter, og hva gjør det skalerbart for store utbredelser?

Vår PKI ble designet spesielt for tillitsstyring for systemer som inkluderer styring av enheter og digitalt innhold. Vi har deployert milliarder av kryptografiske nøkler og sertifikater som sikrer overholdelse. Vår nåværende forskning addresseer skalaen og garantier som massiv industriell automatisering og kritisk verdensomspennende infrastruktur krever, inkludert beste praksis for “zero-trust”-utbredelser og enhet- og dataautentisering som kan akseptere trillioner av sensorer og hendelsegeneratore.

Hva motiverte deg til å bli med i NISTs AI-initiativer, og hvordan bidrar din involvering til å utvikle pålitelige og trygge AI-standards?

NIST har enorm erfaring og suksess i å utvikle standarder og beste praksis i sikre systemer. Som en hovedutsteder for US AISIC fra Intertrust, kan jeg forkjempe for viktige standarder og beste praksis i å utvikle tillitsstyringsystemer som inkluderer AI-mekanismer. Fra tidligere erfaring, særlig apprecierer jeg tilnærmingen som NIST tar for å fremme kreativitet, fremgang og industriell samarbeid mens de hjelper med å formulere og promulgere viktige tekniske standarder som fremmer interoperabilitet. Disse standardene kan fremme adopsjonen av nyttige teknologier mens de addresseer de typene risikoer som samfunnet står overfor.

Takk for det flotte intervjuet, lesere som ønsker å lære mer bør besøke Intertrust.

Antoine er en visjonær leder og grunnleggende partner i Unite.AI, drevet av en urokkelig lidenskap for å forme og fremme fremtiden for AI og robotikk. En seriegründer, han tror at AI vil være like disruptiv for samfunnet som elektrisitet, og blir ofte tatt i å tale om potensialet for disruptiv teknologi og AGI.
Som en futurist, er han dedikert til å utforske hvordan disse innovasjonene vil forme vår verden. I tillegg er han grunnleggeren av Securities.io, en plattform som fokuserer på å investere i banebrytende teknologier som omdefinerer fremtiden og omformer hele sektorer.