Connect with us

Ashley Bryant-Baker, Dyrektor Data & Analytics w Fresh Eyes Digital – Wywiad

Etyka

Ashley Bryant-Baker, Dyrektor Data & Analytics w Fresh Eyes Digital – Wywiad

mm

Ashley Bryant-Baker jest Dyrektorem Data i Analiz w Fresh Eyes Digital, firmie konsultingowej skupiającej się na sukcesie organizacji non-profit. Przed dołączeniem do Fresh Eyes Digital, prowadziła własną firmę konsultingową, B&B Data Solutions, gdzie pomagała markom budować i wykorzystywać rozwiązania oparte na danych. Pracowała w dziedzinie analityki przez ponad dekadę w branżach takich jak produkty konsumpcyjne, podróże, logistyka, opieka zdrowotna i non-profit.

Stała się poszukiwanym mówcą na temat Gender Bias w AI, Customer Segmentation Using AI oraz różnorodności w miejscu pracy. Została niedawno zaproszona do wygłoszenia prelekcji na różnych wydarzeniach, w tym SXSW, Data Minds Connect i Digital Summit DC. Ashley uczęszczała do The American Graduate School w Paryżu, Georgetown, LSU i Fort Hays University. Ma tytuł magistra ekonomii międzynarodowej, certyfikat w dziedzinie nauki o danych, tytuł licencjata w dziedzinie biznesu i tytuł licencjata w dziedzinie sztuki.

Czym pierwotnie zainteresowała się panie komputerami i nauką o danych?

W college’u studiowałam sztukę i byłem zainteresowana pracą w firmie produkującej gry wideo, kiedy ukończyłam studia jako projektantka gier. Mój plan był taki, aby tworzyć 3D modele komputerowe i projektować postacie oraz obiekty, z którymi ludzie będą mogli wchodzić w interakcje w grze. Nawet pracowałam jako testerka gier wideo w firmie EA Sports w college’u. Ponieważ w tym czasie nie było koncentracji na sztuce komputerowej na moim uniwersytecie, postanowiłam zrobić specjalizację w dziedzinie informatyki, aby uzupełnić mój dyplom z dziedziny sztuki. Początkowo nie lubiłam zajęć z informatyki w ogóle. Była granica wrogości wobec ludzi, którzy nie mieli doświadczenia (jak ja) ze strony innych studentów i nawet niektórych profesorów. Zdecydowałam się na specjalizację, ponieważ mój cel był taki, aby zaprojektować i napisać pracę dyplomową, która byłaby grą wideo. Użyłam pythona i mayi, aby zbudować 3D grę w szachy z animowanymi figurami, które poruszały się po planszy i bardzo prostym AI, które mogło grać przeciwko Tobie. W tym czasie nie wiedziałam nic o pythonie i założyłam, że nigdy go nie użyję.

Przeskoczmy do jednej z moich pierwszych prac po ukończeniu college’u. Pracowałam w firmie marketingowej jako młodszy menedżer projektu. Pracowałam z zespołem artystów, specjalistów od marketingu, specjalistów od produkcji i jednym analitykiem w całym budynku, który zarządzał analityką dla około 15 klientów samodzielnie. Prosiła mnie okresowo o pomoc w sprawdzaniu jej matematyki lub tworzeniu prostych raportów. Kiedy musiała udać się na urlop zdrowotny na kilka tygodni, poprosiła mojego przełożonego i mnie, czy mogę ją zastąpić, gdy wróci. Kiedy wróciła, poprosiłam o przeniesienie do jej departamentu. Praca z danymi była dla mnie bardzo interesująca. To był niespodziewany zwrot w mojej karierze, ale nie oglądałam się za siebie. Chciałam uczyć się więcej, więc brałam kursy i aplikowałam na stanowiska analityczne, gdzie mogłam uczyć się od innych. Wtedy wszystko wróciło do punktu wyjścia i znowu pracowałam z pythonem, choć w zupełnie inny sposób niż wcześniej.

Wszystko to, aby powiedzieć, że pierwotnie zainteresowałam się nauką o danych zupełnie przez przypadek.

Jesteś obecnie Dyrektorem Data & Analytics w Fresh Eyes Digital, firmie, która współpracuje z organizacjami non-profit. Czy mógłbyś podzielić się tym, co robi firma i jaką pracę wykonujesz tam?

Fresh Eyes jest firmą konsultingową, która świadczy usługi marketingowe i fundraisingowe dla organizacji non-profit. Pracujemy z klientami, aby zrozumieć ich darczyńców, budować kampanie cyfrowe wokół celów organizacji non-profit i pomagać organizacjom non-profit zrozumieć, jak ich obecność cyfrowa może być podniesiona, aby osiągnąć te cele. Fresh Eyes zatrudniła mnie, ponieważ chciała zbudować bardziej rozbudowaną ofertę danych. Początkowo pracowałam z nimi jako konsultant, gdzie pomagałam im projektować testy wielowymiarowe, zrozumieć wyniki i zautomatyzować usługi analityczne i dashboarding. Teraz pracuję z nimi, aby zbudować pakiet ofert dla organizacji non-profit. Niektóre projekty, nad którymi pracuję, to analiza predykcyjna dotycząca konwersji i stawek donacji darczyńców w czasie. Zrozumienie wpływu czynników zewnętrznych, takich jak klimat polityczny, zmiany gospodarcze i cykle informacyjne, a także wewnętrznych, takich jak strategie komunikacji marketingowej, raporty o wpływie organizacji non-profit i nawet ruchy na stanowiskach kierowniczych w organizacji i jak wszystko to może wpłynąć na skłonność do konwersji. Dużo z tych informacji informuje nasze prognozy analityczne i dashboarde oraz modele klasyfikacji, aby lepiej zrozumieć darczyńców i zaangażowanie.

Organizacje non-profit coraz bardziej przyjmują zastosowanie zaawansowanych metod statystycznych i zdają sobie sprawę, że pomaga to ich zdolności do zobaczenia swojej misji, gdy są w stanie lepiej zrozumieć swój wpływ i zbierać pieniądze w bardziej ustrukturyzowany sposób.

Jednym z Twoich największych osiągnięć jest bycie orędownikiem różnorodności w STEM, czy mógłbyś podzielić się niektórymi z tych wyróżnień?

Istnieje wiele wspaniałych organizacji, które pracują nad różnorodnością i równością w STEM: Black Girls Code, ByteBack w DC, DataKind i najbardziej niedawno moja sorority Zeta Phi Beta Inc. wraz z kilkoma innymi organizacjami współpracują z Google, aby szkolić grupy niedoreprezentowane w szkoleniach komputerowych i technicznych. Robię swoją część, wolontariując z tymi organizacjami, będąc mentorem dla ludzi nowo wkraczających w tę dziedzinę, wygłaszając prelekcje na wydarzeniach (szczególnie wydarzeniach technicznych, gdzie często jestem jedyną kobietą lub osobą kolorową) i ucząc na warsztatach w szkołach (szczególnie w szkołach większościowych, szkołach wiejskich i szkołach alternatywnych). Dodatkowo pracowałam z kilkoma firmami, aby zróżnicować ich programy stażowe i programy dla absolwentów. Dużo z tej pracy robiłam z nawyku. Wychowałam się w domu i społeczności, gdzie wolontariat był częścią codziennego życia. Kontynuowałam to przez college i dalej z Zeta Phi Beta Inc. Jednak myślę, że skłoniłam się ku tej dziedzinie, ponieważ nie miałam okazji uczyć się o komputerach i kodowaniu, dopóki nie poszłam na college, a kiedy poszłam na college, pamiętam poczucie negatywności, które czułam, studiując specjalizację w dziedzinie informatyki. Nie chcę, aby ktokolwiek, szczególnie ktoś, kto próbuje się uczyć i polepszać, doświadczył tego. Nie sądzę, abym naprawdę zrozumiał wpływ, jaki miałam, dopóki nie rozmawiałam z grupą studentów na wydarzeniu rekrutacyjnym, a młoda czarnoskóra dziewczyna i jej mama przyszły do mnie i powiedziały, że jestem pierwszą techniczną czarnoskórą kobietą, którą widziały na jakimkolwiek konferencji lub wydarzeniu rekrutacyjnym. To było wtedy, kiedy wiedziałam, że muszę uczynić to częścią mojej regularnej rutyny.

Próbuję uczestniczyć w tego rodzaju programach regularnie. W rzeczywistości 16 marca będę współorganizować hackathon z niesamowitą naukowczynią i dobrą przyjaciółką Swathi w ramach Girls in AI.

Pracowałaś również nad rozszerzaniem edukacji technicznej w obszarach wiejskich i/lub niskich dochodów. Jak istotnym problemem jest to?

Wow. Nie ma wystarczającej ilości czasu, aby porozmawiać o tym, jak ogromnym problemem jest to! Koronawirus uczynił to jasnym, że istnieją nierówności, które są systemowe w naszym społeczeństwie. Niestety, jednym z największych z nich jest edukacja. Mam dobrego przyjaciela, który pracuje w szkole alternatywnej na obrzeżach DC. Uczniowie tam często są starsi, muszą utrzymywać się z pracy, oprócz uczęszczania do szkoły średniej, nie zawsze mają narzędzi w domu, aby uczestniczyć w nauczaniu na odległość, takich jak laptop lub komputer. Ci uczniowie mieli nauczyciela, który ich wspierał, pracując z szkołą, aby uzyskać opcję mobilną, aby większość uczniów mogła uzyskać dostęp do szkoły na swoich telefonach komórkowych. Jednak nie zawsze jest to możliwe w środowiskach o niskich dochodach lub szkołach alternatywnych. Sytuacja na obszarach wiejskich jest podobnie trudna dla uczniów i nauczycieli. Szybki internet może być bardzo drogi na obszarach wiejskich i w niektórych przypadkach niedostępny. Uczniowie siedzący w parkingach McDonald’s, aby uzyskać dostęp do internetu, jest to niedopuszczalne, ale niestety konieczne w niektórych z tych obszarów. Znam nauczycieli w ruralnej Pensylwanii, którzy sami nie mogą uzyskać dobrego internetu, aby połączyć się ze swoimi wirtualnymi klasami.

Poza koronawirusem istnieje problem niedofinansowania szkół wiejskich i o niskich dochodach, brak nauczycieli wyszkolonych technicznie, szczególnie na obszarach wiejskich, gdzie przyciąganie talentów może być trudne, a także ogólny bias przeciwko uczniom kolorowym, imigranckim i nawet wiejskim, którzy mogą wyglądać lub brzmieć inaczej niż powszechnie akceptowana “amerykańska” kultura. Wszystkie te scenariusze przyczyniają się do braku dostępu do edukacji STEM i tym samym uczniowie, którzy nie są narażeni na te przedmioty i kariery.

Jak dużym problemem jest płeć i rasowy bias w AI?

Jest to coś, nad czym wszystkie firmy i organizacje powinny się zastanowić. Niestety, jest to trudne do rozwiązania, ponieważ jeśli AI wykazuje bias wobec lub przeciwko określonej grupie, to najczęściej oznacza to, że w tej dziedzinie firma lub organizacja miała już wcześniej wzorzec biasu. AI opiera się na wcześniejszych wzorcach, aby przewidzieć przyszłe zachowania i po prostu wzmacnia to zachowanie. Jednak trudno jest nakłonić ludzi do uznania ich własnych biasów, my wszyscy mamy je i często nieświadomie działać zgodnie z nimi. Muszą istnieć systemy, które pomogą złagodzić te biasy i utrzymać zespoły odpowiedzialne zarówno po stronie technicznej, jak i biznesowej.

Jak możemy zapewnić, że aplikacje AI dzisiejszego dnia nie wzmacniają biasów ludzi?

Istnieją kroki, które organizacje mogą podjąć, aby stworzyć standard procedury w dziedzinie nauki o danych i AI, aby pomóc złagodzić bias. Nie mogę wystarczająco podkreślić, że musi to być proces współpracy między zespołami technicznymi i biznesowymi. Waga kontekstu, który nie jest zawsze widoczny dla zespołów technicznych, jest niezwykle ważna.

Rozpoczyna się to od rozpoznania i zidentyfikowania potencjalnych źródeł biasu. Może to nastąpić w procesie zbierania danych, wyborze funkcji do budowy modelu lub może wystąpić całkowicie poza danymi w praktykach biznesowych. Na przykład zostałam poproszona przez lidera firmy, czy ich podstawowa publiczność to naprawdę starsi, zamożni mężczyźni, którzy częściej mieszkają w wiejskich lub podmiejskich dzielnicach. Spójrzę na dane i zorientowałam się, że ich potok danych miał nadreprezentację tej grupy. Zauważyłam jednak, że większość ich klientów pochodziła z tych samych źródeł medialnych, konserwatywnych stacji radiowych. Dowiedziałam się od członka zespołu marketingowego, że firma otrzymała niskie lub bezpłatne marketing na tych platformach na początku swojego uruchomienia, a większość ich klientów odzwierciedlała to. Bias nie był w danych, ale w braku dywersyfikacji strategii komunikacyjnej. Jednak w wyniku tego model oceny wartości dożywotniej, który zespół danych stworzył, ocenił starszych, zamożnych mężczyzn z podmiejskich i wiejskich społeczności jako najlepszych klientów, wzmacniając strategię komunikacyjną, którą zespół marketingowy zastosował. To jest coś, za co żaden zespół techniczny nie powinien być odpowiedzialny, jednak powinni być odpowiedzialni za zadawanie właściwych pytań.

To prowadzi mnie do drugiego kroku, który polega na ustaleniu wytycznych dla poszukiwania i następnie radzenia sobie z biasem, gdy zostanie on wykryty. Po zidentyfikowaniu potencjalnych źródeł biasu organizacja powinna stworzyć listę kontrolną tych źródeł, aby szukać tych problemów i stworzyć ścieżkę dla kogoś, kto znajdzie niepokojące dane lub wzorce, aby je rozwiązać. Nie można tego zrobić w próżni. Jest to odpowiedzialność wszystkich zespołów, aby upewnić się, że aplikacje nie wzmacniają biasów. Jak w przykładzie powyżej, zespół danych nie ma odpowiedzialności za strategię komunikacyjną. Mogą pomóc wskazać wyniki i następnie pracować z innymi zespołami w organizacji, aby je rozwiązać. W tym przypadku zespół komunikacji pracował z zespołem nauki o danych, aby przetestować inne strategie komunikacyjne, które dotknęły różne grupy demograficzne.

Gdy bias pojawia się w modelach danych, czasami może to być spowodowane tym, jak zespół danych określa wybór funkcji, jakie dane są uwzględnione lub wykluczone w magazynach danych lub nawet metryki, które są przewidywane. W tych przypadkach ważne jest, aby zespół danych zrozumiał, że dokładność modelu nie jest zawsze równoznaczna z uczciwością modelu. Może być prawdą, że uwzględnienie pewnych funkcji w modelu danych zwiększa dokładność predykcyjną modelu, ale dodatkowe 0,5% dokładności może nastąpić kosztem społecznym lub biznesowym. Określenie, co oznacza uczciwość, nie jest łatwym zadaniem i wymaga udziału zespołów wielofunkcyjnych. Jedna z metod zwana “sprawiedliwością kontrfaktualną” rozważa, że decyzja jest uczciwa wobec jednostki, jeśli jest taka sama w świecie rzeczywistym i w świecie kontrfaktualnym, w którym jednostka należy do innej grupy demograficznej. Dodatkowo Microsoft i Google AI opublikowali standardy, według których można uwzględnić uczciwość w AI. Osobiście odwołuję się do wytycznych UE dotyczących etyki w sztucznej inteligencji, które uważam za dość kompleksowe dla mojej branży. Po ustaleniu standardu uczciwości zespół danych może określić, czy rozwiązaniem jest przetworzenie danych wcześniej, zmiana decyzji systemu później czy uwzględnienie definicji uczciwości w procesie szkolenia. Kwestia biasu w danych jest skomplikowana i wymaga regularnej oceny oraz głosów szerokiej gamy ludzi. Nie jest to tylko kwestia techniczna do rozwiązania.

Jakie są Pani poglądy na rządowe polityki etyki AI i danych?

Uważam, że dokonano kroków w dobrym kierunku, tworząc standard procedury, jeśli chodzi o etykę AI i danych. Rozporządzenie Trumpa w sprawie etyki AI tworzy rejestr modeli wdrożonych w ramach rządu, ustanawia harmonogram tworzenia wytycznych politycznych, zachęca agencje do zatrudniania zespołów i osób skupionych na technologiach oraz zachęca do transparentności w użyciu AI w całym rządzie w obszarach niezwiązanych z badaniami i rozwojem ani bezpieczeństwem narodowym, co uważam za niezwykle ważne. Tego rodzaju plan o szerokim zasięgu jest ekscytującym rozwojem w rządzie, który historycznie był powolny w adaptacji technologii. Jednak polityki nie uczyniły wystarczająco dużo, aby stworzyć kulturę etyki, stworzyć obowiązkowe lub spójne plany w agencjach ani nawet zdefiniować dokładnie, co oznacza etyka lub uczciwość w tych kontekstach. Gdy nowa administracja przychodzi, nakłoniłabym ją do utwierdzenia tych planów z bardziej ustrukturyzowanym i spójnym planem we wszystkich agencjach, a także procedurą oceny, która starannie rozważa wpływ ludzki, ponieważ wiele z pracy, którą wykonuje nasz rząd, wpływa na codzienne życie ludzi zarówno w kraju, jak i za granicą.

Czy jest coś jeszcze, co chciałabyś podzielić się na temat swojej pracy w Fresh Eyes Digital?

Nauka o danych może być wykorzystana przez organizacje non-profit, aby zwiększyć ich wpływ, których celem jest poprawa naszego świata na wiele sposobów. Dla tych organizacji zbieranie danych nie jest zwykle ich problemem. Mają wiele danych do dyspozycji. Używanie tych danych w jasny i działający sposób jest trudne dla tych organizacji, które często są ograniczone zasobami i mogą nie mieć wewnętrznego zespołu analitycznego. Praca, którą wykonujemy w dziale danych w Fresh Eyes Digital, pomaga tym organizacjom zrozumieć i wdrożyć ich dane w odpowiedni sposób, podejmując bardziej świadome i strategiczne decyzje. Cieszę się, że mam okazję pracować z tymi organizacjami w sposób, który pomaga im stać się bardziej wydajnymi i skutecznymi w pracy nad pozytywnym wpływem na nasz świat.

Dziękuję za szczegółowe odpowiedzi i czekam na śledzenie Twoich przyszłych projektów. Czytelnicy, którzy chcą dowiedzieć się więcej, powinni odwiedzić stronę Ashley Bryant-Baker i/lub Fresh Eyes Digital,

Antoine jest wizjonerskim liderem i współzałożycielem Unite.AI, z niezachwianą pasją do kształtowania i promowania przyszłości sztucznej inteligencji i robotyki. Jako serialowy przedsiębiorca, uważa, że sztuczna inteligencja będzie tak samo przełomowa dla społeczeństwa, jak elektryczność, i często zachwycany jest potencjałem technologie przełomowych i AGI. Jako futurysta, poświęca się badaniu, jak te innowacje ukształtują nasz świat. Ponadto jest założycielem Securities.io, platformy skupiającej się na inwestowaniu w najnowocześniejsze technologie, które przeobrażają przyszłość i zmieniają całe sektory.