Intervjuer
Mike Capps, medgrundare och VD för Diveplane – Intervjuserie

Dr. Michael Capps är en välkänd teknolog och VD för Diveplane Corporation. Innan han co-founderade Diveplane, hade Mike en legendarisk karriär inom datorspelsindustrin som president för Epic Games, skapare av blockbusters som Fortnite och Gears of War. Hans tid på Epic Games inkluderade över hundra “game of the year”-utmärkelser, dussintals konferenskeynotes, en livstidsutmärkelse och en framgångsrik försvar av videogames i USA:s högsta domstol.
Diveplane erbjuder AI-drivna affärslösningar inom flera branscher. Med sex patenter godkända och flera på gång, ger Diveplanes Understandable AI full förståelse och besluts透明het för att stödja etiska AI-politiker och dataintegritetsstrategier.
Du gick i pension från en framgångsrik karriär inom datorspelsindustrin på Epic Games, vad inspirerade dig att komma tillbaka och fokusera på AI?
Att skapa spel var kul, men – åtminstone på den tiden – var det inte den ideala karriären när man hade en ny familj. Jag höll mig sysselsatt med styrelseplatser och rådgivande roller, men det var inte tillfredsställande. Så jag gjorde en lista över tre stora problem som världen stod inför som jag kunde påverka – och det inkluderade spridningen av “black-box”-AI-system. Min plan var att tillbringa ett år på var och en och gräva djupare, men några veckor senare berättade min briljanta vän Chris Hazard att han hade arbetat hemligt på en transparent, fullt förklarlig AI-plattform. Och här är vi.
Diveplane startades med en mission att bringa mänsklighet till AI, kan du förklara vad detta betyder specifikt?
Självklart. Här använder vi mänsklighet för att betyda “mänsklighet” eller “medkänsla”. För att säkerställa att det bästa av mänskligheten finns i din AI-modell, kan du inte bara träna, testa lite och hoppas att allt är okej.
Vi måste noggrant granska indata, modellen själv och utdata från modellen, och säkerställa att det återspeglar det bästa av vår mänsklighet. De flesta system som tränas på historiska eller verkliga data kommer inte att vara korrekta från början, och de är inte nödvändigtvis obefläckade heller. Vi tror att den enda vägen att bli av med partiskhet i en modell – vilket innebär både statistiska fel och fördomar – är kombinationen av transparens, granskning och mänskligt förståelig förklaring.
Kärnteknologin på Diveplane kallas REACTOR, vad gör denna till en ny approach för att göra maskinlärande förklarlig?
Maskinlärande innebär vanligtvis att man använder data för att bygga en modell som fattar ett visst beslut. Beslut kan inkludera vinkeln för att vända hjulen för ett fordon, om man ska godkänna eller avvisa ett köp eller markera det som bedrägeri, eller vilken produkt som ska rekommenderas till någon. Om du vill lära dig hur modellen fattade beslutet, måste du vanligtvis fråga den många liknande beslut och sedan försöka igen för att förutsäga vad modellen själv kan göra. Maskinlärandetekniker är antingen begränsade i de typer av insikter de kan erbjuda, av om insikterna verkligen återspeglar vad modellen gjorde för att fatta beslutet, eller av att ha lägre noggrannhet.
Att arbeta med REACTOR är ganska annorlunda. REACTOR karakteriserar osäkerheten i din data, och din data blir modellen. Istället för att bygga en modell per typ av beslut, frågar du bara REACTOR vad du vill att den ska fatta beslut om — det kan vara vad som helst relaterat till data — och REACTOR frågar vilken data som behövs för ett visst beslut. REACTOR kan alltid visa dig den data den använde, hur den relaterar till svaret, varje aspekt av osäkerhet, kontrafaktisk resonemang och virtuellt alla ytterligare frågor du vill ställa. Eftersom data är modellen kan du redigera data och REACTOR kommer att uppdateras omedelbart. Den kan visa dig om det fanns någon data som såg anomalt ut som gick in i beslutet, och spåra varje redigering till data och dess källa. REACTOR använder sannolikhetsteori hela vägen, vilket innebär att vi kan berätta för dig enheterna för varje del av dess drift. Och slutligen kan du reproducera och validera varje beslut med hjälp av bara den data som ledde till beslutet och osäkerheterna, med hjälp av relativt enkla matematiska beräkningar utan att ens behöva REACTOR.
REACTOR kan göra allt detta samtidigt som den upprätthåller hög konkurrenskraftig noggrannhet, särskilt för små och glesa datamängder.
GEMINAI är en produkt som bygger en digital tvilling av en datamängd, vad betyder detta specifikt och hur säkerställer det dataintegritet?
När du matar GEMINAI med en datamängd, bygger den en djup kunskap om den statistiska formen på den data. Du kan använda den för att skapa en syntetisk tvilling som liknar strukturen på den ursprungliga data, men alla poster är nysskapade. Men den statistiska formen är densamma. Så till exempel skulle den genomsnittliga hjärtfrekvensen för patienter i båda uppsättningarna vara nästan densamma, liksom alla andra statistik. Således skulle alla dataanalyser som använder tvillingen ge samma svar som originalet, inklusive utbildning av ML-modeller.
Och om någon har en post i den ursprungliga data, skulle det inte finnas någon post för dem i den syntetiska tvillingen. Vi tar inte bara bort namnet – vi ser till att det inte finns någon ny post som är “nära” deras post (och alla andra) i informationsutrymmet. D.v.s. det finns ingen post som är igenkännlig i både den ursprungliga och syntetiska uppsättningen.
Och det betyder att den syntetiska datamängden kan delas mycket mer fritt utan risk för att dela konfidentiell information på ett otillbörligt sätt. Det spelar ingen roll om det är personliga finansiella transaktioner, patienthälsoinformation, klassificerad data – så länge statistiken på data inte är konfidentiell, är den syntetiska tvillingen inte heller konfidentiell.
Varför är GEMINAI en bättre lösning än att använda differentiell integritet?
Differentiell integritet är en uppsättning tekniker som håller sannolikheten för att en enskild individ påverkar statistiken mer än en marginal mängd, och är en grundläggande del i nästan alla dataintegritetslösningar. Men när differentiell integritet används ensam, måste en integritetsbudget för data hanteras, med tillräckligt med brus lagt till varje fråga. När den budgeten är använd, kan data inte användas igen utan att utsätta för integritetsrisker.
Ett sätt att övervinna denna budget är att applicera den fulla integritetsbudgeten på en gång för att träna en maskinlärande modell för att generera syntetisk data. Idén är att denna modell, tränad med differentiell integritet, kan användas relativt säkert. Men korrekt tillämpning av differentiell integritet kan vara knepig, särskilt om det finns skilda datavolymer för olika individer och mer komplexa relationer, som människor som bor i samma hus. Och den syntetiska data som produceras från denna modell är ofta troligen att innehålla, av en slump, riktiga data som en individ kan hävda är deras egen eftersom den är för lik.
GEMINAI löser dessa problem och mer genom att kombinera flera integritetstekniker när den syntetiserar data. Den använder en lämplig praktisk form av differentiell integritet som kan hantera en mängd olika datatyper. Den byggs på vår REACTOR-motor, så den känner också till sannolikheten att några delar av data kan förväxlas med varandra, och syntetiserar data som alltid ser till att den är tillräckligt annorlunda från den ursprungliga data. Dessutom behandlar den varje fält, varje del av data som potentiellt känslig eller identifierande, så den tillämpar praktiska former av differentiell integritet för fält som inte traditionellt anses vara känsliga men som kan unikt identifiera en individ, som den enda transaktionen i en 24-timmarsbutik mellan 2 och 3 på natten. Vi kallar detta för integritetskorsning.
GEMINAI kan uppnå hög noggrannhet för nästan alla syften, som liknar den ursprungliga data, men förhindrar att någon hittar någon syntetisk data som är för lik den syntetiska data.
Diveplane var instrumental i att co-grunda Data- och förtroendeaalliansen, vad är denna allians?
Det är en absolut fantastisk grupp av teknologichefer, som samarbetar för att utveckla och anta ansvarsfulla data- och AI-praxis. Världsklassorganisationer som IBM, Johnson&Johnson, Mastercard, UPS, Walmart och Diveplane. Vi är mycket stolta över att ha varit en del av de tidiga stadierna och också stolta över det arbete vi har kollektivt åstadkommit med våra initiativ.
Diveplane nyligen höjde en framgångsrik Series A-runda, vad kommer detta att betyda för företagets framtid?
Vi har varit lyckosamma med våra företagsprojekt, men det är svårt att förändra världen ett företag i taget. Vi kommer att använda detta stöd för att bygga vårt team, dela vår budskap och få Understandable AI på så många platser som möjligt!
Finns det något annat du vill dela om Diveplane?
Diveplane handlar om att säkerställa att AI görs på rätt sätt när det sprids. Vi handlar om rättvis, transparent och förklarlig AI, som proaktivt visar vad som driver beslut, och flyttar bort från “black box”-mentaliteten i AI som har potential att vara orättvis, oetisk och partisk. Vi tror att förklarbarhet är framtiden för AI, och vi är glada att spela en viktig roll i att driva det framåt!
Tack för den underbara intervjun, läsare som vill lära sig mer bör besöka Diveplane.












