Intervjuer
Alyssa Simpson Rochwerger, medforfatter av Real World AI – Intervju-serie

Alyssa Rochwerger er en kundeorientert produktleder som er dedikert til å bygge produkter som løser vanskelige problemer for virkelige mennesker. Hun har hatt flere produktlederroller for maskinlæringsorganisasjoner. Hun tjenestegjorde som VP for produkt for Figure Eight (ervervet av Appen), VP for AI og data hos Appen, og direktør for produkt hos IBM Watson. Hun forlot nylig bransjen for å forfølge sin drøm om å bruke teknologi til å forbedre helsevesenet. For tiden tjenestegjør hun som direktør for produkt hos Blue Shield of California, hvor hun er omgitt av mye data, mange vanskelige problemer og ingen andre muligheter enn å ha en positiv innvirkning.
Vi diskuterer hennes nye bok: Den virkelige verden av AI: En praktisk guide for ansvarlig maskinlæring
I bokens innledning beskriver du hvordan du som IBM-produsktleder først møtte et problem med et AI-system som leverte forvrengt informasjon når et bilde av en person i rullestol ble klassifisert av algoritmen som “taper”. Hvor mye var dette en vekkerklokke for deg om AI-forvrengning?
Jeg ville ikke kalle det en vekkerklokke så mye som det var min første gang med å bygge et maskinlæringsbasert produkt (jeg var bare noen måneder inn i rollen) og jeg visste ikke nok om hvordan denne teknologien fungerte til å sette i verk nødvendige beskyttelsesforanstaltninger og aktivt motvirke uønsket forvrengning. Det var en øyneåpner som skjerpet min oppmerksomhet på dette problemet – og gjorde meg akutt mer bevisst om å gå videre. Likhet, tilgang og inklusjon er et tema jeg er lidenskapelig opptatt av – og har vært i lang tid – jeg vant sogar en pris på college for min forkjempelse for studenter med funksjonsnedsettelser. Denne erfaringen hos IBM hjalp meg å forstå fra et teknisk perspektiv hvor lett det er for systemisk samfunnsforvrengning å bli kodet inn i maskinlæringsbaserte produkter hvis teamet ikke aktivt motvirker. Jeg var glad for å jobbe i en institusjon som bryr seg dypt om likhet og setter ressurser inn for å motvirke.
Hva lærte du personlig av å forske og skrive denne boken?
På en personlig note – jeg måtte kjøpe ut tid for å skrive denne boken mens jeg skiftet jobb, hadde en 1-åring og navigerte COVID. Jeg lærte hvordan jeg kunne kjøpe ut tid til å gjøre dette til en prioritet, og hvordan jeg kunne be om hjelp fra min familie, som ga meg tid til å gi bokskrivingen min oppmerksomhet.
Professionelt – det var fantastisk å ha så mange deltakere som villig og nådig delte sine historier med oss for publisering. Maskinlæringsprofesjonelle i min erfaring er en usedvanlig tankefull og nådig gruppe mennesker – villige til å hjelpe andre og dele feil og lærdommer. Dessverre var mange av disse lærdommene ikke inkludert i denne boken eller måtte anonymiseres betydelig, på grunn av bekymring for å gå offentlig med bakgrunnsinformasjon som kunne få et selskap eller enkeltperson til å se dårlig ut hvis det ble tatt feil. Mens det er helt vanlig, personlig synes jeg det er synd – jeg er en stor tilhenger av å lære og vokse fra tidligere erfaringer og feil hvis de kan være nyttige for andre.
Hva er noen av de viktigste lærdommene du håper folk vil ta med seg fra å lese denne?
Jeg håper folk vil lære at maskinlæring ikke er overhodet skremmende eller vanskelig å forstå. At det er en kraftfull, men også iblant skjør teknologi som trenger veiledning og struktur for å være suksessfullt med å løse vanskelige problemer. Og at ansvarlig og etisk bruk av denne teknologien er kritisk for å nå modenhet og suksess – og at fokus på å motvirke skadelig forvrengning tidlig er nøkkel til forretnings-suksess.
Et eksempel på AI-kjønnsforvrengning som ble avbildet i boken var Apple Credit Card som ga lavere kredittgrenser til kvinner enn til menn. Dette var et eksempel på hvordan utelatelse av kjønn som en valgmulighet ikke tok hensyn til andre variabler som kan fungere som en proxy for kjønn. Eksempelet viste at uten “kjønn”-innputt var det umulig å finne ut om resultatet var forvrent før etter at det endelige produktet var lansert. Hva er noen typer data-innstillinger du mener aldri burde utelates for å unngå forvrengning mot kjønn eller minoriteter?
Det finnes ingen fast og hard regel – hver datasett, brukstilfelle og situasjon er forskjellig. Jeg ville oppmuntre praktikere til å gå inn i detaljene og nyansene av hva problem et maskinlærings-algoritme brukes til å løse – og hva skadelig forvrengning som kan bli kodet inn i den beslutningen.
Boken beskriver hvordan en primær ansvar når man kommuniserer med AI-teamet er å presist definere resultater som er viktige for bedriften. Hvor ofte mener du bedrifter feiler i denne oppgaven?
Jeg ville si at i min erfaring, de fleste gangene, er resultater ikke definert eller bare definert på et løst eller høyt nivå. Å gå inn i detaljene om de spesifikke resultater er en enkel måte å sette opp teamet for suksess tidlig.
Boken snakker om viktigheten av å innse at et AI-system ikke er en “Sett det og glem det”-type system. Kan du kort diskutere dette?
Dette er den klassiske feilen som de fleste selskaper gjør når de lanserer et nytt ML-system i produksjon. Virkeligheten endrer seg – tiden går, hva som var sant i går (treningdata) kan ikke være sant i morgen. Det avhenger av omstendighetene, men i de fleste tilfeller er det viktig å kunne lære og tilpasse og ta bedre beslutninger over tid basert på mer nylig informasjon.
Maskinlæringsbaserte produkter er i realiteten beslutningstakere. For å sammenligne dette med et menneskelig eksempel – det er som en dommer i en høyrisikofotballkamp. Mange ganger, hvis det er en godt trent dommer med erfaring, tar dommeren en god beslutning og kampen fortsetter – men av og til tar dommeren en dårlig beslutning – eller er usikker på hva beslutning å ta – og må gå tilbake og se på videoen – spørre noen andre i orden til å ta en beslutning om en bestemt spille. Tilsvarende – ML-produkter trenger tilbakemelding, trening og av og til er de ikke sikre. De trenger å ha reservevalg å falde tilbake på, samt ny informasjon å lære fra for å bli bedre over tid. En god dommer vil lære over tid og bli bedre til å ta beslutninger.
Kunne du snakke om viktigheten av å skape et tverrfaglig team som kan identifisere hva problemer er best løst ved å bruke AI?
Maskinlærings-teknologi er vanligvis best egnet for svært vanskelige og spesifikke problemer som ikke løses med andre tilnærminger. Ethvert vanskelig problem – det tar et team å være suksessfullt. Når selskaper er nye til AI – er det ofte en feilnarrativ at en enkelt maskinlærings-vitenskapsmann, eller selv maskinlærings-team kan løse problemet på egen hånd. Jeg har aldri funnet at dette er sant. Det tar et team med forskjellige bakgrunner og tilnærminger til å løse et vanskelig problem – og sikkert til å deployere maskinlærings-teknologi suksessfullt til produksjon.
Takk for det flotte intervjuet, for lesere (og spesielt bedriftsledere) som er interessert i å lære mer, anbefaler jeg at de leser boken Den virkelige verden av AI: En praktisk guide for ansvarlig maskinlæring.












