Etik
Ashley Bryant-Baker, direktør for Data & Analytics hos Fresh Eyes Digital – Intervju-serie

Ashley Bryant-Baker er direktør for Data og Analytics hos Fresh Eyes Digital, en konsulentvirksomhed, der fokuserer på succes for non-profit-organisationer. Før Fresh Eyes Digital drev hun sin egen konsulentvirksomhed, B&B Data Solutions, hvor hun hjalp mærker med at opbygge og udnytte data-løsninger. Hun har arbejdet med analytics i over et årti i brancher som forbrugerpakket varer, rejser, logistik, sundhedsvesen og non-profit.
Hun er blevet en eftertragtet taler på emner som kønsbias i AI, kundesegmentering med AI og diversitet på arbejdspladsen. Hun er blevet inviteret til at tale ved forskellige begivenheder, herunder SXSW, Data Minds Connect og Digital Summit DC. Ashley har deltaget i The American Graduate School i Paris, Georgetown, LSU og Fort Hays University. Hun har en mastergrad i international økonomi, certifikat i datavidenskab, en bachelorgrad i erhvervsøkonomi og en bachelorgrad i kunst.
Hvad var det, der oprindeligt tiltrak dig til computervidenskab og datavidenskab?
På universitetet studerede jeg kunst og var interesseret i at arbejde for en videospilsvirksomhed, når jeg dimiterede som spildesigner. Min plan var at lave 3D-computermodeller og designe karakterer og objekter, som folk ville interagere med i spillet. Jeg arbejdede endda som videospil-kvalitetskontroltestere for EA Sports på universitetet. Da der på det tidspunkt ikke var nogen computerkunst-koncentration på mit universitet, besluttede jeg at supplere min kunstgrad med en minor i computervidenskab. Jeg kunne ikke lide computervidenskabsklasserne overhovedet. Der var en grænse for fjendtlighed over for mennesker, der ikke havde nogen erfaring (som jeg), fra andre studerende og endda nogle professorer. Jeg gennemførte min minor, fordi mit mål for min kunstafhandling var at designe og programmere et fungerende videospil. Jeg brugte python og maya til at bygge et 3D-skakspil med animerede brikker, der gik over brættet, og en meget simpel AI, der kunne spille imod dig. På det tidspunkt vidste jeg ikke noget om python, og jeg antog, at jeg aldrig ville bruge det igen.
I et af mine første jobs efter universitetet arbejdede jeg på en markedsføringsvirksomhed som junior-projektleder. Jeg arbejdede med et hold af kunstnere, markedsførere, produktionspecialister og en analytiker i hele bygningen, der håndterede analytics for omkring 15 kunder på egen hånd. Hun ville af og til bede mig om hjælp til at dobbelttjekke hendes matematik eller oprette simple rapporter. Når hun skulle på sygeorlov i flere uger, bad hun min leder og mig, om jeg kunne overtage hendes arbejde, mens hun var væk. Når hun kom tilbage, bad jeg om at blive overført til hendes afdeling. At arbejde med data var så interessant for mig. Det var bestemt en uventet vending i min karriere, men jeg har ikke set tilbage siden. Jeg ville hele tiden lære mere, så jeg tog kurser og ansøgte om analytics-jobs, hvor jeg kunne lære af andre. Så kom alt sammen, og jeg arbejdede med python igen, om end på en helt anden måde end før.
Alt dette for at sige, at jeg oprindeligt kom ind i datavidenskab rent tilfældigt.
Du er i øjeblikket direktør for Data & Analytics hos Fresh Eyes Digital, en virksomhed, der arbejder med nonprofit-organisationer. Kan du dele, hvad virksomheden gør, og det arbejde, du udfører der?
Fresh Eyes er en konsulentvirksomhed, der tilbyder markedsføring og fundraising-støtte til nonprofit-organisationer. Vi arbejder med kunder for at forstå deres donorer, bygge digitale kampagner omkring nonprofit-mål og hjælpe nonprofit-organisationer med at forstå, hvordan deres digitale tilstedeværelse kan forbedres for at opnå disse mål. Fresh Eyes ansatte mig, fordi de ville bygge en mere robust data-tilbud. Først arbejdede jeg med dem som konsulent, hvor jeg hjalp dem med at designe digitale multivariate-test, forstå resultater og automatisere analytics- og dashboard-tjenester. Nu arbejder jeg med dem på at bygge en række tilbud til nonprofit-organisationer. Nogle af de projekter, jeg arbejder på, omfatter prædikativ analyse af konvertérings- og donationssatser over tid for bestyrelser og donorer. At forstå effekterne af eksterne faktorer, såsom det politiske klima, økonomiske ændringer og nyheds cykler, samt interne faktorer, såsom markedsføringsstrategier, nonprofit-rapporter om virkning og endda bevægelser af ledelsesroller inden for en organisation, og hvordan disse alle kan påvirke sandsynligheden for konvertering. Meget af denne information informerer vores prognose-analyse og dashboards og klassifikationsmodeller for bedre at forstå donorer og engagement.
Nonprofit-organisationer accepterer brugen af avancerede statistiske metoder og erkender, at det hjælper deres evne til at se deres mission igennem, når de kan forstå deres virkning og indsamle penge på en mere struktureret måde.
En af dine mest stolte præstationer er at være forkæmper for diversitet i STEM, kan du dele nogle af disse højdepunkter?
Der er så mange fantastiske organisationer derude, der arbejder mod diversitet og lighed i STEM: Black Girls Code, ByteBack her i DC, DataKind og for nylig har min sorority Zeta Phi Beta Inc. samt flere andre organisationer samarbejdet med Google om at uddanne underrepræsenterede grupper i computer- og teknisk træning. Jeg gør min del ved at frivilligt arbejde med disse organisationer, være mentor for mennesker, der er nye i feltet, tale ved begivenheder (især tech-begivenheder, hvor jeg ofte er den eneste kvinde eller person af farve) og undervise på workshops i skoler (især skoler med flertal af minoriteter, landskoler og alternative skoler). Jeg har også arbejdet med flere virksomheder for at diversificere deres praktikantprogrammer og indledende graduate-programmer. Meget af dette arbejde har jeg gjort af vane. Jeg voksede op i et hjem og en samfund, hvor frivilligt arbejde var en del af dagligdagen. Jeg har fortsat med det gennem universitetet og derefter med Zeta Phi Beta Inc. Men jeg tror, jeg tiltrak mig dette område, fordi jeg ikke havde mulighed for at lære om computere og kodning, før jeg kom på universitetet, og da jeg kom på universitetet, husker jeg følelsen af negativitet, jeg havde, da jeg fulgte min minor i computervidenskab. Jeg vil ikke have, at nogen, især nogen, der prøver at lære og forbedre sig selv, skal opleve det. Jeg tror ikke, jeg rigtig forstod den indvirkning, jeg havde, før jeg talte med en gruppe studerende ved en rekrutteringsbegivenhed, og en ung sort pige og hendes mor kom hen til mig og sagde, at jeg var den første tekniske sorte kvinde, de havde set på nogen konference eller rekrutteringsbegivenhed. Det var, da jeg vidste, jeg måtte gøre dette til en del af min faste rutine.
Jeg prøver at deltage i denne type programmer regelmæssigt. Faktisk skal jeg den 16. marts co-værte en hackathon med en fantastisk datavidenskabsmand og god ven af mine Swathi i samarbejde med Girls in AI.
Du har også arbejdet på at udvide teknologiuddannelse i landdistrikter og/eller lavindkomst-kvarterer. Hvor stort et problem er dette?
Wow. Der er ikke nok tid til at tale om, hvor stort et problem dette er! Coronavirus gjorde det klart, at der er uligheder, der er systemiske i vores samfund. Desværre er en af de største af dem uddannelse. Jeg har en god ven, der arbejder på en alternativ skole på udkanten af DC. Studerende der er ofte ældre, de må have arbejde ved siden af skolegang, de har ikke altid værktøjerne derhjemme til at udføre fjernundervisning som en laptop eller computer. Disse studerende havde en lærer, der forkæmpede for dem, arbejdede med skolen for at få en mobil mulighed for at sikre, at de fleste studerende kunne få adgang til skole på deres mobiltelefon. Men det er ikke altid tilfældet i lavindkomst- eller alternativ skolemiljøer. Situationen på landet er lige så svær for studerende og lærere. Højhastighedsinternet kan være meget dyrt i landdistrikter og i visse tilfælde utilgængeligt. Studerende, der sidder i McDonald’s parkeringsområder for at få adgang til internet, er uacceptabelt, men en uheldig nødvendighed i nogle af disse områder. Jeg kender lærere i landdistrikterne i Pennsylvania, der selv ikke kan få god internetadgang til at tilslutte sig deres virtuelle klasselokaler.
Uden for coronavirus er der problemet med underfinansiering i landdistrikter og lavindkomst-skoler, en mangel på teknisk uddannede lærere, især i landdistrikter, hvor det kan være svært at tiltrække talent, og selvfølgelig den generelle bias mod studerende af farve, immigrationsstuderende og endda landdistriktsstuderende, der måske ser eller lyder anderledes end den mere almindelige “amerikanske” kultur. Alle disse scenarier bidrager til manglen på adgang til STEM-uddannelse og derfor studerende, der aldrig bliver introduceret for disse fag og karrieremuligheder.
Hvor stort et problem er køn og raciale bias i AI?
Det er noget, alle virksomheder og organisationer bør tænke over. Desværre er dette et svært problem at løse, fordi hvis AI viser bias mod eller for en bestemt gruppe, betyder det ofte, at virksomheden eller organisationen allerede havde en mønster af bias i den pågældende branche. AI er afhængig af tidligere mønstre for at forudsige fremtidig adfærd og forstærker simpelthen denne adfærd. Men det er svært at få mennesker til at erkende deres egne bias, vi har alle sammen bias, og ofte handler vi ubevidst på dem. Der skal være systemer på plads for at hjælpe med at mindske disse bias og holde holdene ansvarlige både på det tekniske og forretningsmæssige område.
Hvordan kan vi sikre, at AI-anvendelserne i dag ikke forstærker de bias, mennesker har?
Der er nogle skridt, organisationer kan tage for at skabe en standard for praksis i datavidenskab og AI for at hjælpe med at mindske bias. Jeg kan ikke udtrykke nok, hvor meget dette skal være en samarbejdende proces mellem tekniske hold og forretningshold. Vigtigheden af kontekst, der ikke altid er synlig for tekniske hold, er afgørende.
Det begynder med at erkende og identificere potentielle kilder til bias. Det kan ske i dataindsamlingen, valget af funktioner til modelbygning eller det kan ske helt uden for data i forretningspraksis. For eksempel blev jeg engang bedt af en leder i en virksomhed, om deres kernepublikum virkelig var ældre, rige mænd, der oftere boede i landdistrikter eller forstæder. Jeg kiggede på data og fik at vide, at deres pipeline af data havde en overrepræsentation af denne gruppe. Men jeg lagde også mærke til, at størstedelen af deres kunder kom fra de samme mediekanaler, konservative radiostationer. Jeg fik at vide af en medarbejder i marketingholdet, at virksomheden havde fået lav- eller ingen omkostninger ved markedsføring på disse platforme tidligt i deres lancering, og størstedelen af deres kunder afspejlede dette. Bias var ikke i data, men i mangel på diversificering i kommunikationsstrategien. Men som følge heraf scorede den livstidsværdi-model, som dataholdet havde skabt, ældre, rige mænd fra forstæder og landdistrikter som de bedst fungerende kunder, og forstærkede kommunikationsstrategien, som marketingholdet havde anvendt. Dette er noget, som intet teknisk hold skal være ansvarligt for at vide, men de skal være ansvarlige for at stille de rigtige spørgsmål.
Dette fører mig til det andet skridt, som er at fastlægge retningslinjer for at lede efter og derefter håndtere bias, når det er opdaget. Når man har identificeret potentielle kilder til bias, skal organisationen oprette en checkliste over disse kilder for at lede efter disse problemer og oprette en vej for nogen, der finder bekymrende data eller mønstre, til at håndtere dem. Dette kan ikke gøres i en vakuum. Det er ansvarligt for alle hold at sikre, at anvendelser ikke forstærker bias. Som i eksemplet ovenfor har dataholdet intet ansvar for kommunikationsstrategien. De kan hjælpe med at pege på resultaterne og derefter arbejde med andre hold i organisationen for at håndtere dem. I dette tilfælde arbejdede kommunikationsholdet med datavidenskabsholdet på at teste andre kommunikationsstrategier, der tjener forskellige demografiske grupper.
Når bias viser sig i data-modeller, kan det af og til være i, hvordan et datahold bestemmer funktion-valg, hvilke data der inkluderes eller ekskluderes i data-lagrene eller endda den metrik, der forudsiges. I disse tilfælde er det vigtigt for dataholdet at forstå, at modelpræcision ikke altid er lig med model-fairness. Det kan være sandt, at inklusion af visse funktioner i en data-model øger den prædictive nøjagtighed af en model, men den ekstra 0,5% nøjagtighed kan komme på en samfundsmæssig eller forretningsmæssig omkostning. At bestemme, hvad fairhed betyder, er ikke en let opgave og kræver deltagelse af multifacetterede hold. En metode kaldet “counterfactual fairness” betragter, at en beslutning er fair over for en person, hvis den er den samme i den virkelige verden og i en kontrafaktisk verden, hvor personen tilhører en anden demografisk gruppe. Desuden har Microsoft og Google AI offentliggjort standarder for, hvordan man tager fairhed i AI. Jeg personligt henviser til EU-retningslinjerne for etik i kunstig intelligens, som jeg finder ret omfattende for min branche. Når en standard for fairhed er etableret, kan dataholdet bestemme, om løsningen er at behandle data først, ændre systemets beslutninger efterfølgende eller inkorporere fairhedsdefinitioner i træningsprocessen selv. Spørgsmålet om bias i data er et komplekst spørgsmål, der kræver regelmæssig evaluering og stemmer fra en bred vifte af mennesker. Det er ikke blot et teknisk problem, der skal løses.
Hvad er dine synspunkter på regeringsudfærdigede AI- og data-etiske politikker?
Jeg synes, der har været bevægelser i den rigtige retning ved at skabe en standard for procedurer, når det kommer til AI og data-etik. Trumps executive order på AI-etik skaber en registreringsdatabase over modeller, der er blevet udrullet inden for regeringen, opstiller en tidsplan for at oprette politikvejledning, opmuntrer agenturer til at ansætte tech-fokuserede hold og personer og opmuntrer til gennemsigtighed i AI-brug på tværs af regeringen i områder, der ikke er involveret i R&D eller national sikkerhed, som jeg synes er utrolig vigtigt. Denne slags langt rækkevidende plan er en spændende udvikling i regeringen, der historisk har været langsom til at tilpasse teknologi. Men politikkerne har gjort lidt for at skabe en kultur af etik, skabe obligatoriske eller samordnede planer på tværs af agenturer eller endda definere, hvad etik eller fairhed betyder i disse sammenhænge. Da den nye administration kommer ind, ville jeg opfordre dem til at fastlægge disse planer med en mere struktureret og samordnet plan på tværs af alle agenturer samt en evaluering, der omhyggeligt overvejer den menneskelige indvirkning, da så meget af det arbejde, vores regering gør, påvirker folks daglige liv både nationalt og internationalt.
Er der noget andet, du gerne vil dele om dit arbejde med Fresh Eyes Digital?
Datavidenskab kan bruges af nonprofit-organisationer til at øge virkningen for dem, der arbejder på at forbedre vores verden på så mange måder. For disse organisationer er indsamling af data ikke typisk et problem. De har masser af data at arbejde med. At bruge denne data på en klar og handlingsorienteret måde er svært for disse organisationer, der ofte er pressede på ressourcer og måske ikke har et internt analytics-hold klar. Arbejdet, vi gør i data-afdelingen hos Fresh Eyes Digital, hjælper disse organisationer med at forstå og udrulle deres data på de rette måder og tage mere informerede, strategiske beslutninger. Jeg er glad for at have muligheden for at arbejde med disse organisationer på en måde, der hjælper med at gøre dem mere effektive og effektive i deres arbejde på at påvirke vores verden på positive måder.
Tak for de detaljerede svar, og jeg ser frem til at følge dine fremtidige eventyr. Læsere, der ønsker at lære mere, skal besøge Ashley Bryant-Baker-siden og/eller Fresh Eyes Digital-siden.












