stub Reid Blackman, Ph.D, grunnlegger og administrerende direktør for Virtue Consultants - Intervjuserier - Unite.AI
Kontakt med oss

intervjuer

Reid Blackman, Ph.D, grunnlegger og administrerende direktør for Virtue Consultants – Intervjuserie

mm

Publisert

 on

Reid Blackman er grunnlegger og administrerende direktør for Dydkonsulenter. I den egenskapen har han jobbet med selskaper for å integrere etikk og etisk risikoreduksjon i bedriftskulturen og utvikling, distribusjon og anskaffelse av nye teknologiprodukter. Han er også seniorrådgiver for Ernst & Young og sitter i deres Advisory Board for kunstig intelligens, og er medlem av IEEEs Ethically Aligned Design Initiative.

Reids arbeid har blitt profilert i The Wall Street Journal og Dell Perspectives, og han har bidratt med stykker til The Harvard Business Review, TechCrunch, VentureBeat og Risk & Compliance Magazine. Han har blitt sitert i en rekke nyhetsartikler, og han taler regelmessig på forskjellige steder, inkludert The World Economic Forum, SAP, Cannes Lions, Forbes, NYU Stern School of Business, Columbia University og AIG.

Du var filosofiprofessor ved Colgate University fra 2009 til 2018. På hvilket tidspunkt begynte du å inkorporere AI-etikk i timene dine?

Jeg underviste ofte i et kurs i sosial og politisk filosofi, hvor jeg dekket Marx. En av Marx sine sentrale påstander er at kapitalismen til slutt vil vike for kommunismen, på grunn av en massiv økning i «produksjonsmidlene». Med andre ord, kapitalismen presser frem større og større effektivitet i konkurransens navn og åpning av nye markeder, noe som betyr en økning i etableringen av teknologier som kan produsere mer og mer på kortere og kortere tid. Marx spådde også at dette i økende grad ville legge penger i hendene på de få og presse flere og flere mennesker inn i fattigdom, på hvilket tidspunkt kapitalistiske strukturer ville bli veltet av en revolusjon ledet av det økende antallet fattige massene. Alt dette fører til en diskusjon rundt teknologiens etikk som unngår behovet for menneskelig arbeidskraft, som er et sentralt element i AI-etikken.

Liten sidehistorie hvis du er interessert: Tilbake i 2002 var jeg en doktorgradsstudent som ledet en diskusjon om Marx med studenter ved Northwestern University. På et tidspunkt rakte en student opp hånden og sa: «Til slutt trenger vi ikke mennesker til å gjøre noe arbeid.» Klassen var forvirret. Jeg var forvirret. Så jeg sa, "vel, hvem skal da gjøre jobben?" Han svarte på en veldig saklig måte: "roboter." Klassen brøt ut i latter. Jeg kvalt min egen. Men det er ganske tydelig hvem som fikk den siste latteren.

I 2018 lanserte du Dydkonsulenter, et etikkkonsulentfirma som gir data- og AI-ledere mulighet til å identifisere og redusere de etiske risikoene ved produktene deres. Hva inspirerte deg til å starte denne gründerreisen?

Sjalusi. Vel, liksom. Jeg startet et fyrverkerigrossistfirma da jeg var hovedfagsstudent, tror jeg rundt 2003 eller 2004. Det gikk bedre enn jeg forventet, og selskapet eksisterer fortsatt, men nå er jeg rådgiver og tar ikke lenger meg av den daglige driften . Uansett, det er relevant fordi det forklarer hvordan jeg kom til å bli en mentor for oppstartsbedrifter i Colgates entreprenørskapsprogram (kalt TIA, Thought Into Action, ledet av to fantastiske VC-er, Andy Greenfield og Wills Hapworth, som driver TIA Ventures). Som mentor så jeg studenter som tok fatt på spennende prosjekter mens de prøvde å finne ut hvordan de skulle etablere og skalere sine for-profit- eller non-profit-startups, og jeg tenkte: "Jeg vil ha det!" Men hva skulle min nye satsning være? Det måtte snakke til min kjærlighet til filosofi og etikk, og det første som ga mening var et etikkkonsulentfirma. Jeg så ikke markedet for slike tjenester på den tiden, fordi det ikke var noen å se, og derfor ventet jeg. Og så skapte Cambridge Analytica, og BLM, og #MeToo nasjonale overskrifter, og plutselig ble det en større bevissthet om behovet.

Hvor viktig er det for bedrifter å innføre en AI-etikkerklæring?

En AI-etikkerklæring er ikke avgjørende, men det er et ekstremt nyttig verktøy for å sette mål. Når du introduserer et AI-etikkprogram i organisasjonen din, vil du at det skal identifisere og redusere og håndtere ulike etiske, omdømmemessige, regulatoriske og juridiske risikoer. Det er dens hovedfunksjon. En etikkerklæring hjelper til med å artikulere hvordan ting vil se ut når du har infrastrukturen, prosessen og praksisen på plass for å oppnå denne funksjonen. I den grad en strategi trenger et mål – noe den alltid gjør – er en AI-etikkerklæring en fin måte å formulere disse målene på, selv om det ikke er den eneste måten.

Hvordan kan bedrifter sikre at etikkerklæringen overføres til prosess og praksis?

En etikkerklæring er bare et lite skritt i riktig retning. Hvis du ønsker å fortsette, er det neste naturlige steget å gjøre en vurdering av hvor du er i forhold til målene artikulert i den uttalelsen. Når du vet hvor de største og mest risikofylte gapene er – det vil si hvor du har størst risiko for å komme til kort med målene dine – kan du begynne å tenke ut løsningene for å redusere disse gapene. Kanskje det er en etisk komité. Kanskje det er en due diligence-prosess under produktutvikling. Kanskje det blir bedre med hvordan du håndterer data i ikke-produktavdelinger, som markedsføring og HR. Sannsynligvis er det alle disse tingene og mer.

Hva er noen løsninger som bedrifter bør implementere for å unngå skjevheter i den faktiske AI-algoritmen?

Det er en haug med tekniske verktøy der ute for å identifisere skjevheter, men de er begrenset. De vil tillate deg å sammenligne modellens resultater med dusinvis av kvantitative beregninger som har blitt tilbudt i den akademiske ML-etiske litteraturen, men du må være forsiktig fordi disse beregningene ikke er gjensidig kompatible. Så en reell, etisk avgjørelse må tas: hvilken, hvis noen av disse beregningene, er den riktige i denne sammenhengen?

Bortsett fra å bruke et slikt verktøy, supplert med en ansvarlig måte å svare på det spørsmålet på, vil produktteam gjøre klokt i å tenke på hvor skjevheter kan snike seg inn før de begynner å bygge. Hvordan kunne det inneholdes eller reflekteres i treningsdatasettene? Hva med å bestemme den objektive funksjonen? Hva med å bestemme terskelen? Det er mange steder skjevhet kan snike seg inn. Forutsekning om hvor det kan være i ens nåværende prosjekt og hvordan det kan komme inn der er avgjørende for å identifisere og dempe skjevheter.

AI-selskaper er beryktet for å være dominert av hvite menn som utilsiktet kan programmere inn noen skjevheter i AI-systemet. For å unngå dette, hvilken type egenskaper bør personalavdelinger se etter?

Jeg er alt for større muligheter og større mangfold blant ingeniører og produktteam generelt. Når det er sagt, tror jeg dette er å se på ting gjennom feil linse. Det primære problemet når det kommer til partiske algoritmer er ikke at noen hvite menns skjevheter fører til forutinntatt kode. Det er at dataopplæringssettene er partiske. Faktisk en fersk artikkel fra Columbia - "Biased Programmers? Eller partisk data? Et felteksperiment i operasjonalisering av AI-etikk" - konkluderte med at "[p]rogrammere som forstår teknisk veiledning, lykkes med å redusere skjevhet," og at "[a]lgoritmiske spådommer fra kvinnelige og minoritets AI-programmerere ikke viser mindre algoritmisk skjevhet eller diskriminering." Så selv om HR bør ta hensyn til mangfoldsspørsmål, er det langt fra klart at strategier for å redusere partiske AI-utganger primært – enn si, utelukkende – bør fokusere på ansettelsesbeslutninger i forhold til mangfoldsinnsats.

Kan du diskutere hva etisk risikodue diligence er og hvorfor selskaper bør implementere det?

En etisk risikodue diligence er et forsøk på å oppdage de ulike etiske risikoene som kan realiseres med produktet du lager, inkludert hvordan det distribueres, hvordan det kan brukes og misbrukes osv. Du ønsker å fokusere på funksjonene i produkt – både de det har og de det mangler – og måtene de kan føre til etisk forseelse når de brukes i ulike sammenhenger. Når det er gjort godt, er det en systemisk og uttømmende inspeksjon. Selv om du kan prøve ditt beste for å se deg rundt hjørnet, er det selvfølgelig noen ting du vil gå glipp av, og derfor er kontinuerlig overvåking viktig.

Når det gjelder hvorfor selskaper bør implementere det: de trenger bare å vurdere de etiske, omdømmemessige, regulatoriske og juridiske risikoene for å ikke gjøre det. Tenk på Optum i nyhetene og under regulatorisk etterforskning for en (angivelig) partisk algoritme som anbefalte helsepersonell å ta mer hensyn til hvite pasienter enn til sykere svarte pasienter. Eller til Goldman Sachs, under etterforskning for kredittgrensene for Apple-kortet, som angivelig diskriminerer kvinner. Eller Amazons ansettelsesprogramvare, som ble skrotet på grunn av bekymringer om skjevhet før den ble distribuert. Eller at IBM blir saksøkt av Los Angeles for angivelig misbruk av data samlet inn fra Weather-appen. Eller Facebook...

Er det noe annet du vil dele om Virtue Consultants?

Virtue hjelper seniorledere med å sette AI-etikk ut i livet, enten det er å hjelpe til med å utdanne og opplære folk om emnet, skrive en AI-etikkerklæring, lage og implementere et handlingsdyktig AI-etisk risikorammeverk, eller rett og slett tjene som rådgivere for AI-etikk. Hvis det høres interessant ut, bør folk komme og si hei.

Takk for det flotte intervjuet, lesere som ønsker å lære mer om Reid bør besøke Reid Blackman, eller du kan besøke Dydkonsulenter.

En grunnlegger av unite.AI og et medlem av Forbes teknologiråd, Antoine er en futurist som brenner for fremtiden til AI og robotikk.

Han er også grunnleggeren av Securities.io, et nettsted som fokuserer på å investere i forstyrrende teknologi.