intervjuer
Navrina Singh, administrerende direktør og grunnlegger av Credo AI – Intervjuserien

Navrina Singh er administrerende direktør og grunnlegger av Credo AI, et selskap som designer den første omfattende AI-styrings-SaaS-plattformen som gjør det mulig for bedrifter og enkeltpersoner å bedre forstå og levere pålitelig og etisk AI, ligge i forkant av nye forskrifter og retningslinjer og lage en AI-post som er reviderbar og transparent i hele organisasjonen. Selskapet har drevet snikende og i det stille bygget opp en imponerende kundeportefølje som inkluderer en av de største offentlige entreprenørene og finansielle tjenesteselskapene i verden, blant andre Fortune 100-merker.
Du vokste opp i en liten by i India med en ydmyk begynnelse, hvordan fant du deg tiltrukket av ingeniørfag og AI-feltet?
Jeg kommer fra en middelklassefamilie; faren min var i militæret i fire tiår, og moren min var lærer som ble motedesigner. Fra en tidlig alder oppmuntret de alltid min følelse av nysgjerrighet, kjærlighet til vitenskapelige oppdagelser, og ga meg et trygt sted å utforske «hva hvis».
Da jeg vokste opp i India, fikk kvinner ikke like mange muligheter som menn. Mange avgjørelser var allerede tatt for en jente, basert på hva som var akseptabelt av samfunnet. Den eneste måten å bryte ut og ha råd til et godt liv for familien var gjennom utdanning.
Etter endt videregående, eide jeg min første datamaskin som var mitt vindu inn i verden. Jeg var veldig interessert i maskinvare, og brukte timer på nettet på å lære å demontere hovedkort, bygge robotapplikasjoner, lære å kode, gjøre om elektrisk utstyr i huset mitt (yikes!) og mye mer. Engineering ble mitt trygge rom, hvor jeg kunne eksperimentere, utforske, bygge og oppleve en verden jeg ønsket å være en del av gjennom mine oppfinnelser. Jeg ble inspirert og spent på hvordan teknologi kan være et kraftig verktøy for å påvirke endring, spesielt for kvinner.
I oppveksten var mine midler begrensede, men mulighetene var det ikke. Jeg har alltid drømt om å komme til USA for å bygge et sterkere fundament innen teknologi for å løse de største utfordringene menneskeheten står overfor. Jeg immigrerte hit i 2001 for å fortsette min ingeniørreise ved University of Wisconsin Madison.
I løpet av mine nesten to tiår i ingeniørfaget hadde jeg privilegiet å jobbe på tvers av flere grenseteknologier, fra mobil til utvidet virkelighet.
I 2011 begynte jeg å utforske kunstig intelligens for å bygge nye nye bedrifter hos Qualcomm. Jeg har også brukt tid på å bygge virksomheter og applikasjoner innen AI på tvers av tale, visjon og NLP hos Microsoft og Qualcomm, det siste tiåret. Etter hvert som jeg lærte mer om AI og maskinlæring, ble det tydelig at denne grenseteknologien kom til å forstyrre livene våre massivt utover det vi kan forestille oss.
Å bygge bedriftsskala Kunstig intelligens fikk meg også til å innse hvordan teknologien kan gjøre en bjørnetjeneste og skade våre mennesker og lokalsamfunn, hvis den ikke blir kontrollert. Vi som ledere må ta ekstremt ansvar for teknologiene vi bygger. Vi må være proaktive for å maksimere fordelene for menneskeheten og minimere risikoen. Tross alt "Det vi lager, gjør oss" Så det er avgjørende å bygge ansvarlig, noe som har inspirert den neste fasen av min karriere med å bygge AI-styring.
Når begynte du seriøst å tenke på AI-styring?
Mens jeg var innovasjonssjef i Qualcomm, undersøkte vi mulighetene AI kunne bringe til våre nye virksomheter. Vårt første arbeid var fokusert på samarbeidende roboter som ble brukt i forsyningskjeden. Dette var min første eksponering for de "virkelige" risikoene ved AI, spesielt med hensyn til den fysiske sikkerheten til menneskene som opererte sammen med disse robotsystemer.
I løpet av denne tiden brukte vi mye tid på startups, for eksempel Soul Machines, på å lære nye brukstilfeller og finne måter å samarbeide med dem på for å akselerere arbeidet vårt. Soul Machines hadde gitt ut en ny versjon av babyavataren deres, "Baby X". Å se denne nevrale nettdrevne babyen, aktivt lære av verden rundt henne, fikk meg til å stoppe opp og reflektere over de utilsiktede konsekvensene av denne teknologien. Datteren min Ziya ble født omtrent på samme tid, og vi ga henne gjerne kallenavnet Baby "Z" etter Soul Machines Baby "X". Jeg har snakket mye om dette, inkludert på Women In Product Keynote i 2019.
Læringsreisene til Baby X og Baby Z var uhyggelig like! Mens Ziya vokste opp, ga vi henne det første vokabularet og verktøyene hun kunne lære. Over tid begynte hun å forstå verden og sette sammen ting selv. Baby X, den nevrale nettbabyen, lærte på samme måte gjennom synssensorer og talegjenkjenning, og bygget raskt en dyp forståelse av den menneskelige verden.
Disse tidlige AI-øyeblikkene gjorde det klart for meg at det var avgjørende å finne måter å håndtere risiko på og sette effektive rekkverk rundt denne kraftige teknologien for å sikre at den blir utplassert for godt.
Kan du dele opprinnelseshistorien bak Credo AI?
Etter Qualcomm ble jeg rekruttert til å lede kommersialiseringen av AI-teknologiene hos Microsoft i forretningsutviklingsgruppen og deretter i produktgruppen. I løpet av min periode var jeg så heldig å jobbe med et spekter av AI-teknologier med applikasjoner i brukstilfeller fra Conversational AI til kontraktintelligens, og fra visuelle inspeksjoner til taledrevet produktoppdagelse.
Imidlertid fortsatte kimen til AI-styring plantet hos Qualcomm å vokse etter hvert som jeg fortsatte å være vitne til det økende "tilsynsunderskuddet" i utviklingen av kunstig intelligens-teknologier. Som produktleder som jobber med datavitenskap og ingeniørteamet, var vi motivert til å bygge en høyytende AI-applikasjon drevet av maskinlæring og distribuere den raskt i markedet.
Vi så på samsvar og styring som gatesjekk som bremser innovasjonstakten. Imidlertid motiverte mine økende bekymringer for styringsmangelen mellom teknisk og tilsynspersonell innen risiko, overholdelse, revisjon meg til å fortsette å utforske utfordringene med å realisere AI-styring.
Alle de ubesvarte spørsmålene om AI-styring fikk meg til å søke svar. Så jeg begynte å legge grunnlaget for en ideell organisasjon kalt MERAT (Marketplace for Ethical and Responsible AI tools) med mål om å skape et økosystem for startups og Global 2000s med fokus på ansvarlig utvikling av AI.
Gjennom tidlig eksperimentering ved MERAT ble det klart at det ikke fantes oppstarter som muliggjorde multistakeholder-verktøy for å drive omfattende styring av AI- og ML-applikasjoner – før Credo AI. Dette gapet var min mulighet til å realisere oppdraget med å veilede AI med vilje. Hypotesen min ble stadig validert om at den neste grensen til AI-revolusjonen vil bli styrt av styring. Bedrifter som omfavner styring vil fremstå som ledende innen pålitelige merkevarer.
Jeg ble kontaktet av AI Fund, en inkubator grunnlagt av Andrew Ng, en kjent AI-ekspert. AI Fund hadde vært fokusert på de samme temaene om AI-reviderbarhet og styring som jeg hadde vært opptatt av det siste tiåret.
Credo AI ble innlemmet 28. februarth, 2020, med finansiering fra AI-fondet.
Credo betyr "et sett med verdier som styrer handlingene dine." Med Credo AI er visjonen vår å gi bedrifter mulighet til å lage AI med de høyeste etiske standarder.
I en forrige intervju, diskuterte du hvordan merker i fremtiden vil bli klarert, ikke "bare" basert på hvordan de bygger og distribuerer AI, men på hvordan de skalerer AI slik at den er i tjeneste for menneskeheten. Kan du utdype dette?
Kunstig intelligens er en av de spillendrende teknologiene i dette århundret og tilbyr transformative muligheter for økonomien og samfunnet. Det ligger an til å bidra med nesten 16 billioner dollar til den globale økonomien innen 2030.
Imidlertid har de siste årene satt søkelyset på store AI-trusler (og nei, det er ikke robotens overherrer!) allerede her. For eksempel kan rettslige algoritmer som optimaliserer for minimal tilbakefall (et tilbakefall til kriminell atferd) introdusere skjevhet og nekte prøveløslatelse til de som fortjener det.
Sosiale algoritmer som optimaliserer for engasjement kan splitte en nasjon.
Urettferdige algoritmer kan være årsaken til at du ikke får jobb eller opptak til universitetet.
Jo mer autonomi vi gir våre verktøy, desto bredere spekter av utilsiktede konsekvenser. Ekstraordinær skala genererer ekstraordinær innvirkning, men ikke alltid den effekten vi har tenkt (jeg skriver om dette i Credo AI-manifest).
Jeg spår at bedrifter som investerer i AI-styring for å hjelpe dem med å bygge teknologi på en ansvarlig måte og forplikte seg til etisk bruk av data, vil være i stand til å skape tillit på tvers av interessenter – kunder, forbrukere, investorer, ansatte og andre.
Hvordan hjelper Credo AI med å holde selskaper ansvarlige?
Ansvar betyr en forpliktelse til å ta ansvar for ens handlinger. I sammenheng med AI-utvikling og -distribusjon, betyr dette at bedrifter ikke bare må ha innrettet seg etter hvordan «bra ser ut for dem», men ta forsettlige skritt for å demonstrere handling på disse innrettede målene og ta ansvar for resultatene.
Credo AI har som mål å være en sherpa for bedriftene i deres etiske og ansvarlige AI-initiativer for å holde dem ansvarlige overfor de ulike interessentene: brukere, ansatte, regulatorer, revisorer, investorer, ledere og andre. Derfor har Credo AI vært banebrytende for en sanntids, kontekstdrevet, omfattende og kontinuerlig løsning for å levere etisk og ansvarlig AI i stor skala.
Å bygge ansvarlighet og tillit til AI er en dynamisk prosess. Organisasjoner må innrette seg etter bedriftsverdier, kodifisere disse verdiene, bygge dem inn i deres organisatoriske infrastruktur, observere innvirkning og gjenta prosessen med forskjellige stemmer som gir innspill i alle trinn. Credo AI muliggjør denne ansvarligheten via en omfattende og sanntidsløsning for administrasjon av samsvar og måling av risiko for AI-implementeringer i stor skala.
Ved å bruke Credo AI-styringsløsning kan bedrifter:
- Tilpass styringskravene for deres AI-brukstilfeller og -modeller, med tilpassbare policypakker og beslutningsstøtteverktøy for valg av modellevalueringsberegninger.
- Vurder og utspør dataene og ML-modellene mot de justerte målene
- Analyser tekniske spesifikasjoner i handlingsbar risikopåvirkning for virksomheten i alle trinn av modellutvikling og distribusjon, slik at du kan fange opp og fikse styringsproblemer før de blir store problemer
Ved å registrere beslutninger og handlinger på hvert punkt, fanger Credo AI opprinnelsen til beslutninger som gikk inn i opprettelsen av modellene som bevis. Dette beviset vil være en post som deles internt med bedriftens interessenter og eksternt med revisorer som bygger tillit til intensjonene til AI.
Dette beviset vil hjelpe utviklingsteam til å forutsi og forhindre utilsiktede konsekvenser og vil standardisere måten vi vurderer effektiviteten og påliteligheten til AI-modeller på.
Vi er veldig tidlig ute med å muliggjøre AI-styring gjennom omfattende vurderinger og forsikringer, og vi er glade for å jobbe med flere bedrifter for å fremme ansvarlighet.
Hvordan hjelper Credo AI selskaper med å skifte bort fra at AI-styring er en ettertanke?
I dagens verden er det mangel på klarhet rundt hva som virkelig er "ansvarlig", "etisk" og "pålitelig" AI, og hvordan bedrifter kan levere på det. Vi hjelper til med å omformulere dette nøkkelspørsmålet for bedriftene ved å bruke Credo AI SaaS-plattformen for å demonstrere "økonomien i etikk".
Med Credo AI kan bedrifter ikke bare levere rettferdig, kompatibel og reviderbar AI, men de er i stand til å bygge kundenes tillit.
Å bygge forbrukertillit kan utvide et selskaps kundebase og låse opp for flere salg. For eksempel kan bedrifter gi den best mulige kundeopplevelsen ved å bruke etisk AI i deres kundeservice chatbots, eller ansvarlig bruke AI for å forstå brukeraktivitet og foreslå tilleggsinnhold eller produkter for dem. Ekstremt fornøyde kunder tilbyr deretter den beste reklamen ved å dele opplevelsen med venner og familie.
I tillegg kan bedrifter også se hvordan samarbeid på tvers av tekniske funksjoner og tilsynsfunksjoner kan hjelpe dem med å spare kostnader på grunn av raskere tid til overholdelse, informert risikostyring, redusert merkevare- og regulatorisk risiko. Vi hjelper organisasjoner med å implementere etisk AI ved å bygge en bro mellom tekniske beregninger og konkrete forretningsresultater. Som flere og flere mennesker innser, innebærer det å forkjempe etisk AI mye mer enn å krysse av i en boks for "regelverksoverholdelse". Men den har kraften til å levere enda mer enn et bidrag til en mer rettferdig verden, noe som i seg selv ville vært et verdifullt resultat.
Når et selskap opprettholder høye etiske standarder, kan det forvente reelle forretningsresultater, for eksempel økte inntekter. Å skifte perspektivet fra et abstrakt «mykt» konsept til en objektiv forretningsbeslutning har vært en nøkkelmåte for oss å bidra til å posisjonere AI-styring som en kritisk del av den økonomiske og sosiale motoren for selskapet.
Nylig opprettet Biden-administrasjonen National Artificial Intelligence Advisory Committee. Etter ditt syn, hva er implikasjonene av dette for AI-bedrifter?
Myndigheter verden over går for fullt med å regulere AI, og bedrifter må forberede seg. Bidens administrasjons gjennomtenkte opprettelse av den nasjonale rådgivende komiteen for AI og investeringer i Det hvite hus' OSTP er et godt første skritt for å bringe handling i diskusjonene rundt rettighetserklæringen for å styre AI-systemer. Det gjenstår imidlertid mye arbeid for å forstå hva ansvarlig AI vil bety for landet og økonomien vår.
Jeg tror at 2022 er posisjonert til å bli handlingsåret for ansvarlig AI. Det er en vekker for bedrifter som ønsker å implementere eller styrke sitt etiske rammeverk for AI. Nå er tiden for bedrifter å vurdere deres eksisterende rammeverk for hull, eller, for bedrifter som mangler en tilnærming, å implementere et solid rammeverk for pålitelig AI for å sette dem opp for suksess for å lede i AI-alderen.
Vi bør forvente at det kommer flere harde og myke reguleringer. I tillegg til handlingene i Det hvite hus, kommer det mye momentum fra andre beslutningstakere og byråer, for eksempel Senatets utkast til Algorithmic Accountability Act, Federal Trade Commission (FTC) veiledning rundt AI-bias og mer.
Hvis vi spoler fremover til fremtiden, hvor viktig vil AI-etikk og AI-styring være om fem år?
Vi er i begynnelsen av AI-styring. For å understreke hvor kritisk AI-styring er, her er noen av mine spådommer for de neste årene:
- Etisk AI-styring vil bli en toppprioritet for organisasjonen
Bedrifter fortsetter å investere og høste fordelene ved å bruke AI i sine virksomheter. IDC har anslått en investering på 340 milliarder dollar på kunstig intelligens i 2022. Uten styring vil bedrifter være motvillige til å investere i kunstig intelligens på grunn av bekymringer over skjevheter, sikkerhet, nøyaktighet og samsvar med disse systemene.
Uten tillit vil forbrukere også være motvillige til å akseptere AI-baserte produkter eller å dele data for å bygge disse systemene. I løpet av de neste fem årene vil etisk AI-styring bli en styreromsprioritet og en viktig beregning som selskaper må avsløre og rapportere om for å bygge tillit på tvers av sine interessenter.
- Nye sosiotekniske stillingskategorier vil dukke opp i en virksomhet
Vi ser allerede at organisasjoner innen etikk investerer betydelig i fremtidssikker utvikling for å sikre rettferdige, kompatible og reviderbare AI-applikasjoner.
For å lede innen AI, vil bedrifter måtte fremskynde læringen om AI-reguleringslandskapet og implementeringer av ansvarlighetsstrukturer i stor skala. Etter hvert som det nye feltet for etisk AI-implementering utvikler seg, kan det oppstå en ny sosioteknisk jobbkategori for å lette disse samtalene og ta ansvar for dette området. Denne nye komponenten av arbeidsstyrken kan fungere som mellomledd mellom teknisk og tilsyn, og bidra til å utvikle felles standarder og mål.
- Nye AI-drevne opplevelser vil kreve strengere styring
Å håndtere den tiltenkte og utilsiktede konsekvensen av kunstig intelligens er kritisk, spesielt når vi går inn i Metaverse- og web3-verdenen. Risikoen ved AI eksisterer i den virkelige verden og den virtuelle verden, men er ytterligere forsterket i sistnevnte.
Ved å dykke inn i Metaverse-hodet først med mangel på AI-tilsyn, setter bedrifter kundene sine i fare for utfordringer som identitetstyveri og svindel. Det er avgjørende at AI og styringsproblemer løses i den virkelige verden nå for å holde forbrukerne trygge i Metaverse.
- Nye økosystemer innen etisk AI-styring vil dukke opp
Verden har våknet til ideen om at AI-styring representerer den grunnleggende byggesteinen for å operasjonalisere ansvarlig AI. I løpet av de neste årene vil vi se et konkurransedyktig og dynamisk marked av tjenesteleverandører dukke opp for å tilby verktøy, tjenester, utdanning og andre muligheter for å støtte dette enorme behovet.
I tillegg vil vi også se konsolidering og utvidelse av eksisterende MLops og GRC-plattformer, for å bringe styrings- og vurderingsevner til AI.
Er det noe annet du vil dele om Credo AI?
Etisk AI-styring er en fremtidssikret investering som du ikke har råd til ikke å lage, og i dag er den beste dagen å begynne.
Takk for det detaljerte intervjuet og for at du deler all din innsikt angående AI-styring og etikk, lesere som ønsker å lære mer bør besøke Credo AI.












