stub Navrina Singh, CEO og grundlægger af Credo AI - Interview Series - Unite.AI
Følg os

Interviews

Navrina Singh, CEO og grundlægger af Credo AI – Interview Series

mm
Opdateret on

Navrina Singh er administrerende direktør og grundlægger af Credo AI, en virksomhed, der designer den første omfattende AI-governance SaaS-platform, der gør det muligt for virksomheder og enkeltpersoner bedre at forstå og levere troværdig og etisk AI, være på forkant med nye regler og politikker og skabe en AI-registrering, der er reviderbar og gennemsigtig i hele organisationen. Virksomheden har kørt i smug og stille og roligt opbygget en imponerende kundeportefølje, der omfatter en af ​​de største offentlige entreprenører og finansielle servicevirksomheder i verden, blandt andre Fortune 100-mærker.

Du voksede op i en lille by i Indien med en ydmyg begyndelse, hvordan fandt du dig selv tiltrukket af teknik og kunstig intelligens?

Jeg kommer fra en middelklassefamilie; min far var i militæret i fire årtier, og min mor var lærer, der blev modedesigner. Fra en tidlig alder opmuntrede de altid min nysgerrighed, kærlighed til videnskabelige opdagelser og gav mig et sikkert sted at udforske "hvad nu hvis."

Da jeg voksede op i Indien, fik kvinder ikke lige så mange muligheder som mænd. Der var allerede truffet mange beslutninger for en pige, baseret på hvad der var acceptabelt af samfundet. Den eneste måde at bryde væk og få råd til et godt liv for din familie var gennem uddannelse.

Efter at have afsluttet gymnasiet, ejede jeg min første computer, som var mit vindue ud i verden. Jeg var virkelig til hardware og brugte timevis på nettet med at lære at skille bundkort ad, bygge robotapplikationer, lære at kode, lave elektrisk om i mit hus (yikes!) og meget mere. Engineering blev mit sikre rum, hvor jeg kunne eksperimentere, udforske, bygge og opleve en verden, som jeg gerne ville være en del af gennem mine opfindelser. Jeg var inspireret og spændt på, hvordan teknologi kunne være et stærkt værktøj til at påvirke forandringer, især for kvinder.

Da jeg voksede op, var mine midler begrænsede, men det var mulighederne ikke. Jeg har altid drømt om at komme til USA for at bygge et stærkere fundament inden for teknologi for at løse de største udfordringer, som menneskeheden står over for. Jeg immigrerede her i 2001 for at fortsætte min ingeniørrejse ved University of Wisconsin Madison.

I løbet af mine næsten to årtier som ingeniør havde jeg det privilegium at arbejde på tværs af flere grænseteknologier, fra mobil til augmented reality.

I 2011 begyndte jeg at udforske kunstig intelligens for at bygge nye nye virksomheder hos Qualcomm. Jeg har også brugt tid på at bygge virksomheder og applikationer inden for kunstig intelligens på tværs af tale, vision og NLP hos Microsoft og Qualcomm i løbet af det sidste årti. Efterhånden som jeg lærte mere om kunstig intelligens og maskinlæring, blev det tydeligt, at denne grænseteknologi ville forstyrre vores liv massivt ud over, hvad vi kan forestille os.

Opbygning af virksomhedsskala Kunstig intelligens fik mig også til at indse, hvordan teknologien kan gøre en bjørnetjeneste og skade vores mennesker og samfund, hvis den ikke kontrolleres. Vi som ledere skal tage et ekstremt ansvar for de teknologier, vi bygger. Vi skal være proaktive i at maksimere dens fordele for menneskeheden og minimere dens risiko. Når alt kommer til alt "Det, vi laver, gør os" Så det er vigtigt at bygge ansvarligt, hvilket har inspireret den næste fase af min karriere til at opbygge AI-styring.

Hvornår begyndte du for alvor at tænke på AI-styring?

Mens jeg var innovationschef hos Qualcomm, undersøgte vi de muligheder, AI kunne bringe til vores nye virksomheder. Vores indledende arbejde var fokuseret på kollaborative robotter, der blev brugt i forsyningskæden. Dette var min første eksponering for de "virkelige" risici ved AI, især med hensyn til den fysiske sikkerhed for de mennesker, der opererede sammen med disse robotsystemer.

I løbet af denne tid brugte vi meget tid med startups, såsom Soul Machines, på at lære nye use cases og finde måder at samarbejde med dem på for at fremskynde vores arbejde. Soul Machines havde udgivet en ny version af deres babyavatar, "Baby X". At se denne neurale netdrevne baby, aktivt lære af verden omkring hende, fik mig til at stoppe op og reflektere over de utilsigtede konsekvenser af denne teknologi. Min datter Ziya blev født omkring samme tid, og vi gav hende kærligt tilnavnet Baby "Z" efter Soul Machines Baby "X". Jeg har talt om dette en del, herunder på Women In Product Keynote i 2019.

Læringsrejserne for Baby X og Baby Z var uhyggeligt ens! Da Ziya voksede op, gav vi hende det første ordforråd og værktøjer til at lære. Med tiden begyndte hun at forstå verden og selv sætte tingene sammen. Baby X, den neurale net-baby, lærte på samme måde gennem synssensorer og talegenkendelse og opbyggede hurtigt en dyb forståelse af den menneskelige verden.

Disse tidlige AI-øjeblikke gjorde det klart for mig, at det var afgørende at finde måder at håndtere risiko på og sætte effektive autoværn omkring denne kraftfulde teknologi for at sikre, at den bliver implementeret for altid.

Kunne du dele tilblivelseshistorien bag Credo AI?

Efter Qualcomm blev jeg rekrutteret til at lede kommercialiseringen af ​​AI-teknologierne hos Microsoft i forretningsudviklingsgruppen og efterfølgende i produktgruppen. Under min embedsperiode var jeg så heldig at arbejde på et spektrum af AI-teknologier med applikationer i use cases fra Conversational AI til kontraktintelligens og fra visuelle inspektioner til taledrevet produktopdagelse.

Imidlertid blev kimen til AI-styring plantet hos Qualcomm ved med at vokse, mens jeg fortsatte med at opleve det stigende "tilsynsunderskud" i udviklingen af ​​kunstig intelligens-teknologier. Som produktleder, der arbejder med datavidenskabs- og ingeniørteamet, var vi motiverede til at bygge en højtydende AI-applikation drevet af maskinlæring og implementere den hurtigt på markedet.

Vi betragtede compliance og governance som gatecheck, der bremser innovationstempoet. Mine voksende bekymringer over styringsmanglerne mellem de tekniske og tilsynsprofessionelle inden for risiko, compliance, revision motiverede mig til at fortsætte med at udforske udfordringerne med at realisere AI-styring.

Alle de ubesvarede spørgsmål om AI-styring fik mig til at søge svar. Så jeg begyndte at lægge grundlaget for en nonprofit ved navn MERAT (Marketplace for Ethical and Responsible AI tools) med det mål at skabe et økosystem for startups og Global 2000s med fokus på ansvarlig udvikling af AI.

Gennem tidlige eksperimenter hos MERAT blev det klart, at der ikke var startups, der muliggjorde multistakeholder-værktøjer til at drive omfattende styring af AI- og ML-applikationer – før Credo AI. Dette hul var min mulighed for at realisere missionen med at guide AI bevidst. Min hypotese blev ved med at blive valideret, at den næste grænse for AI-revolutionen vil blive styret af styring. Virksomheder, der omfavner ledelse, vil fremstå som førende inden for betroede mærker.

Jeg blev kontaktet af AI Fund, en inkubator grundlagt af Andrew Ng, en berømt AI-ekspert. AI Fund havde været fokuseret på de samme emner om AI-reviderbarhed og styring, som jeg havde været optaget af i det sidste årti.

Credo AI blev indarbejdet den 28. februarth, 2020, med finansiering fra AI-fonden.

Credo betyder "et sæt værdier, der styrer dine handlinger." Med Credo AI er vores vision at give virksomheder mulighed for at skabe AI med de højeste etiske standarder.

I en forrige samtale, du diskuterede, hvordan brands i fremtiden ikke "kun" vil være tillid til baseret på, hvordan de bygger og implementerer AI, men på, hvordan de skalerer AI, så det er i menneskehedens tjeneste. Kan du uddybe dette?

Kunstig intelligens er en af ​​de spilskiftende teknologier i dette århundrede og tilbyder transformative muligheder for økonomien og samfundet. Det er på vej til at bidrage med næsten 16 billioner dollars til den globale økonomi inden 2030.

Imidlertid har de sidste mange år sat fokus på store AI-trusler (og nej, det er ikke robot-overlords!) allerede her. For eksempel kan retslige algoritmer, der optimerer for minimalt recidiv (et tilbagefald til kriminel adfærd), introducere bias og nægte prøveløsladelse til dem, der fortjener det.

Sociale algoritmer, der optimerer for engagement, kan splitte en nation.

Unfair algoritmer kan være årsagen til, at du ikke får et job eller optagelse på universitetet.

Jo mere autonomi vi giver vores værktøjer, desto bredere er rækken af ​​utilsigtede konsekvenser. Ekstraordinær skala genererer ekstraordinær påvirkning, men ikke altid den påvirkning, vi har til hensigt (jeg skriver om dette i Credo AI-manifest).

Jeg forudser, at virksomheder, der investerer i AI-styring for at hjælpe dem med at bygge teknologi ansvarligt og forpligte sig til etisk brug af data, vil være i stand til at skabe tillid på tværs af interessenter – kunder, forbrugere, investorer, medarbejdere og andre.

Hvordan hjælper Credo AI med at holde virksomheder ansvarlige?

Ansvarlighed betyder en forpligtelse til at tage ansvar for sine handlinger. I forbindelse med AI-udvikling og -implementering betyder det, at virksomheder ikke kun skal have tilpasset sig, hvordan "godt ser ud for dem", men tage bevidste skridt for at demonstrere handling på disse afstemte mål og påtage sig ansvar for resultaterne.

Credo AI sigter mod at være en sherpa for virksomhederne i deres etiske og ansvarlige AI-initiativer for at holde dem ansvarlige over for de forskellige interessenter: brugere, medarbejdere, regulatorer, revisorer, investorer, direktører og andre. Derfor har Credo AI været banebrydende for en realtids-, kontekstdrevet, omfattende og kontinuerlig løsning til at levere etisk og ansvarlig AI i stor skala.

Opbygning af ansvarlighed og tillid til AI er en dynamisk proces. Organisationer skal tilpasse sig virksomhedens værdier, kodificere disse værdier, indbygge dem i deres organisatoriske infrastruktur, observere påvirkning og gentage processen med forskellige stemmer, der giver input på alle trin. Credo AI muliggør denne ansvarlighed via en omfattende og realtidsløsning til styring af overholdelse og måling af risiko for AI-implementeringer i stor skala.

Ved at bruge Credo AI governance-løsning er virksomheder i stand til at:

  • Tilpas styringskravene for deres AI-brugssager og -modeller med tilpassede politikpakker og beslutningsstøtteværktøjer til valg af modelevalueringsmetrikker.
  • Vurder og udspørg dataene og ML-modellerne i forhold til disse afstemte mål
  • Analyser tekniske specifikationer til handlingsvenlig risikopåvirkning for virksomheden på alle trin af modeludvikling og implementering, så du kan fange og løse styringsproblemer, før de bliver til massive problemer

Ved at registrere beslutninger og handlinger på hvert punkt fanger Credo AI oprindelsen af ​​beslutninger, der gik ind i skabelsen af ​​modellerne som bevis. Dette bevis vil være en optegnelse, der deles internt med virksomhedens interessenter og eksternt med revisorer, der opbygger tillid til AI's intentioner.

Denne dokumentation vil hjælpe udviklingsteams med at forudsige og forhindre utilsigtede konsekvenser og vil standardisere den måde, vi vurderer effektiviteten og troværdigheden af ​​AI-modeller på.

Vi er meget tidligt i gang med at muliggøre AI-styring gennem omfattende vurderinger og forsikringer og er glade for at arbejde sammen med flere virksomheder for at fremme ansvarlighed.

Hvordan hjælper Credo AI virksomheder med at skifte væk fra, at AI-styring er en eftertanke?

I dagens verden er der mangel på klarhed omkring, hvad der virkelig er "ansvarlig", "etisk" og "pålidelig" AI, og hvordan virksomheder kan levere på det. Vi hjælper med at omformulere dette nøglespørgsmål for virksomhederne ved at bruge Credo AI SaaS-platformen til at demonstrere "etikkens økonomi".

Med Credo AI er virksomheder i stand til ikke kun at levere fair, kompatibel og reviderbar AI, men de er i stand til at opbygge kundernes tillid.

Opbygning af forbrugertillid kan udvide en virksomheds kundebase og låse op for flere salg. For eksempel kan virksomheder give den bedst mulige kundeoplevelse ved at bruge etisk AI i deres kundeservice chatbots, eller ansvarligt bruge AI til at forstå brugeraktivitet og foreslå yderligere indhold eller produkter til dem. Yderst tilfredse kunder tilbyder derefter den bedste reklame ved at dele deres oplevelse med venner og familie.

Derudover kan virksomheden også se, hvordan samarbejde på tværs af tekniske funktioner og overvågningsfunktioner kan hjælpe dem med at spare omkostninger på grund af hurtigere tid til overholdelse, informeret risikostyring, reducerede brand- og regulatoriske risici. Vi hjælper organisationer med at implementere etisk kunstig intelligens ved at bygge bro mellem tekniske målinger og håndgribelige forretningsresultater. Som flere og flere mennesker indser, involverer forkæmpelse af etisk AI meget mere end at markere en "lovgivningsoverholdelse"-boks. Men den har magten til at levere endnu mere end et bidrag til en mere retfærdig verden, hvilket i sig selv ville være et værdifuldt resultat.

Når en virksomhed opretholder høje etiske standarder, kan den forvente virkelige forretningsresultater, såsom øget omsætning. At skifte perspektivet fra et abstrakt "blødt" koncept til en objektiv forretningsbeslutning har været en vigtig måde for os at hjælpe med at positionere AI-styring som en kritisk del af den økonomiske og sociale motor for virksomheden.

For nylig oprettede Biden-administrationen det nationale rådgivende udvalg for kunstig intelligens. Hvad er efter din mening konsekvenserne af dette for AI-virksomheder?

Regeringer globalt går i fuld kraft med at regulere AI, og virksomheder skal gøre sig klar. Bidens administrations tankevækkende oprettelse af den nationale AI-rådgivende komité og investeringer i OSTP i Det Hvide Hus er et godt første skridt til at bringe handling til diskussionerne omkring loven om rettigheder til at styre AI-systemer. Der skal dog ske meget arbejde for at indse, hvad ansvarlig kunstig intelligens ville betyde for vores land og økonomi.

Jeg tror på, at 2022 er positioneret til at blive handlingsåret for ansvarlig AI. Det er et wake-up call for virksomheder, der ønsker at implementere eller styrke deres AI-etiske rammer. Nu er tiden inde til, at virksomheder vurderer deres eksisterende rammer for huller, eller, for virksomheder, der mangler en tilgang, at implementere en solid ramme for pålidelig AI for at sætte dem op til succes til at lede i AI-alderen.

Vi må forvente, at der kommer flere hårde og bløde regler. Ud over handlingerne i Det Hvide Hus, kommer der en masse momentum fra andre politiske beslutningstagere og agenturer, såsom Senatets udkast til Algorithmic Accountability Act, Federal Trade Commission (FTC) vejledning omkring AI-bias og mere.

Hvis vi spoler frem til fremtiden, hvor vigtigt vil AI-etik og AI-styring være om fem år?

Vi er i begyndelsen af ​​AI-styring. For at understrege, hvor kritisk AI-styring er, er her nogle af mine forudsigelser for de næste par år:

  • Etisk AI-styring vil blive en topprioritet i organisationen

Virksomheder fortsætter med at investere og høste fordele ved at bruge kunstig intelligens i deres virksomheder. IDC har forudsagt et forbrug på 340 mia. USD på kunstig intelligens i 2022. Uden ledelse vil virksomheder være tilbageholdende med at investere i kunstig intelligens på grund af bekymringer over skævhed, sikkerhed, nøjagtighed og overholdelse af disse systemer.

Uden tillid vil forbrugerne også være tilbageholdende med at acceptere AI-baserede produkter eller dele data for at bygge disse systemer. I løbet af de næste fem år vil etisk AI-styring blive en bestyrelsesprioritet og en vigtig målestok, som virksomheder bliver nødt til at afsløre og rapportere om for at opbygge tillid på tværs af deres interessenter.

  • Nye sociotekniske jobkategorier vil opstå i en virksomhed

Vi ser allerede, at etiske organisationer investerer betydeligt i fremtidssikret deres udvikling for at sikre retfærdige, kompatible og reviderbare AI-applikationer.

For at være førende inden for kunstig intelligens skal virksomhederne yderligere fremskynde læringen om AI-lovgivningen og implementeringer af ansvarlighedsstrukturer i stor skala. Efterhånden som det nye område med etisk AI-implementering udvikler sig, kan der opstå en ny socioteknisk jobkategori for at lette disse samtaler og tage ansvar på dette område. Denne nye komponent af arbejdsstyrken kunne fungere som mellemled mellem tekniske og tilsyn og hjælpe med at udvikle fælles standarder og mål.

  • Nye AI-drevne oplevelser vil kræve strengere styring

Håndtering af den tilsigtede og utilsigtede konsekvens af kunstig intelligens er kritisk, især når vi går ind i Metaverse og web3-verdenen. Risiciene ved AI findes i den virkelige verden og den virtuelle verden, men er yderligere forstærket i sidstnævnte.

Ved at dykke ned i Metaverse-hovedet først med manglende AI-tilsyn, udsætter virksomheder deres kunder for udfordringer som identitetstyveri og svindel. Det er altafgørende, at AI og governance-problemer løses i den virkelige verden nu for at holde forbrugerne sikre i Metaverse.

  • Nye økosystemer inden for etisk AI-styring vil dukke op

Verden er vågnet til ideen om, at AI-styring repræsenterer den grundlæggende byggesten til operationalisering af ansvarlig AI. I løbet af de næste mange år vil vi se et konkurrencedygtigt og dynamisk marked af tjenesteudbydere dukke op for at levere værktøjer, tjenester, uddannelse og andre muligheder for at understøtte dette massive behov.

Derudover vil vi også se konsolidering og forstærkning af eksisterende MLops og GRC-platforme for at bringe styrings- og vurderingskapaciteter til AI.

Er der andet, du gerne vil dele om Credo AI?

Etisk AI-styring er en fremtidssikret investering, som du ikke har råd til ikke at lave, og i dag er den bedste dag at begynde.

Tak for det detaljerede interview og for at dele al din indsigt vedrørende AI-styring og etik, læsere, der ønsker at lære mere, bør besøge Credo AI.

En stiftende partner af unite.AI og et medlem af Forbes Technology Council, Antoine er en fremtidsforsker der brænder for fremtiden for kunstig intelligens og robotteknologi.

Han er også grundlægger af Værdipapirer.io, en hjemmeside, der fokuserer på at investere i disruptiv teknologi.