Ethik
Ashley Bryant-Baker, Director of Data & Analytics at Fresh Eyes Digital – Interview Series

Ashley Bryant-Baker ist Director of Data and Analytics bei Fresh Eyes Digital, einer Beratungsfirma, die sich auf den Erfolg von Non-Profit-Organisationen konzentriert. Bevor sie zu Fresh Eyes Digital kam, leitete sie ihre eigene Beratungsfirma, B&B Data Solutions, wo sie Marken half, Datenlösungen zu entwickeln und zu nutzen. Sie hat über ein Jahrzehnt lang in der Analyse von Daten in Branchen wie Konsumgütern, Reisen, Logistik, Gesundheitswesen und Non-Profit-Organisationen gearbeitet.
Sie ist zu einer gefragten Rednerin auf den Themen Gender-Bias in KI, Kundensegmentierung mit KI und Vielfalt am Arbeitsplatz geworden. Sie wurde kürzlich zu verschiedenen Veranstaltungen eingeladen, darunter SXSW, Data Minds Connect und Digital Summit DC. Ashley hat die American Graduate School in Paris, Georgetown, LSU und Fort Hays University besucht. Sie hat einen Master-Abschluss in Internationale Wirtschaft, ein Zertifikat in Data Science, einen Bachelor-Abschluss in Betriebswirtschaft und einen Bachelor-Abschluss in Kunst.
Was hat Sie ursprünglich zur Informatik und Data Science hingezogen?
Als ich auf dem College war, studierte ich Kunst und wollte nach meinem Abschluss als Spieledesigner für ein Videospielunternehmen arbeiten. Mein Plan war, 3D-Computermodelle und Charaktere zu entwerfen, mit denen die Menschen in dem Spiel interagieren konnten. Ich arbeitete sogar als Tester für Videospiele bei EA Sports, während ich auf dem College war. Da es zu dieser Zeit keine Informatik-Konzentration an meiner Universität gab, entschied ich mich, Informatik als Nebenfach zu studieren, um meinen Kunstabschluss zu ergänzen. Ich mochte die Informatik-Kurse anfangs gar nicht. Es gab eine gewisse Feindseligkeit gegenüber Menschen, die keine Erfahrung hatten (wie ich), von anderen Studenten und sogar von einigen Professoren. Ich behielt mein Nebenfach bei, weil mein Ziel für mein Kunstprojekt war, ein funktionierendes Videospiel zu entwerfen und zu programmieren. Ich verwendete Python und Maya, um ein 3D-Schachspiel mit animierten Figuren zu bauen, die über das Brett gingen, und eine sehr einfache KI, die gegen mich spielen konnte. Zu dieser Zeit wusste ich nichts über Python und nahm an, dass ich es nie wieder verwenden würde.
Vorwärts in eine meiner ersten Jobs nach dem College. Ich arbeitete bei einer Marketingfirma als Junior-Projektmanager. Ich arbeitete mit einem Team von Künstlern, Marketing-Spezialisten, Produktions-Spezialisten und einer Analytikerin, die die Analyse für etwa 15 Kunden alleine durchführte. Sie bat mich gelegentlich um Hilfe, um ihre Mathematik zu überprüfen oder einfache Berichte zu erstellen. Als sie für mehrere Wochen in die medizinische Abteilung musste, bat sie meinen Vorgesetzten und mich, ob ich für sie einspringen konnte, während sie weg war. Als sie zurückkam, bat ich um eine Versetzung in ihre Abteilung. Die Arbeit mit den Daten war so interessant für mich. Es war definitiv eine unerwartete Wendung in meiner Karriere, aber ich habe mich nie umgedreht. Ich wollte immer mehr lernen, also besuchte ich Kurse und bewarb mich für Analyse-Jobs, bei denen ich von anderen lernen konnte. Dann kam alles wieder zusammen, und ich arbeitete wieder mit Python, wenn auch auf eine völlig andere Weise als zuvor.
All dies, um zu sagen, dass ich ursprünglich rein zufällig in die Data Science geraten bin.
Sie sind derzeit Director of Data & Analytics bei Fresh Eyes Digital, einer Firma, die mit Non-Profit-Organisationen zusammenarbeitet. Können Sie uns erzählen, was die Firma macht und welche Arbeit Sie dort leisten?
Fresh Eyes ist eine Beratungsfirma, die Marketing- und Fundraising-Unterstützung für Non-Profit-Organisationen bietet. Wir arbeiten mit Kunden zusammen, um ihre Spender zu verstehen, digitale Kampagnen um die Ziele der Non-Profit-Organisationen herum zu bauen und Non-Profit-Organisationen zu helfen, ihre digitale Präsenz zu verstehen, um diese Ziele zu erreichen. Fresh Eyes hat mich eingestellt, weil sie ein umfassenderes Datenangebot aufbauen wollten. Zunächst arbeitete ich mit ihnen als Beraterin, wo ich half, digitale multivariate Tests zu entwerfen, Ergebnisse zu verstehen und Analyse- und Dashboard-Dienste zu automatisieren. Jetzt arbeite ich mit ihnen daran, ein Angebotsspektrum für Non-Profit-Organisationen aufzubauen. Einige Projekte, an denen ich arbeite, umfassen die Vorhersageanalyse von Konvertierungs- und Spenderraten von Teilnehmern und Spendern im Laufe der Zeit. Verstehen der Auswirkungen externer Faktoren wie politische Klima, wirtschaftliche Veränderungen und Nachrichtenzyklen sowie interner Faktoren wie Marketing-Messaging-Strategien, Non-Profit-Impact-Berichte und sogar Bewegungen von Führungsrollen innerhalb einer Organisation und wie all diese Faktoren die Wahrscheinlichkeit einer Konvertierung beeinflussen können. Viele dieser Informationen informieren unsere Prognose-Analytics und Dashboards und Klassifizierungsmodelle, um Spender und Engagement besser zu verstehen.
Non-Profit-Organisationen akzeptieren die Verwendung fortschrittlicher statistischer Methoden und erkennen, dass dies ihre Fähigkeit verbessert, ihre Mission zu erfüllen, wenn sie ihre Auswirkungen besser verstehen und Geld auf eine strukturierte Weise sammeln können.
Eines Ihrer größten Erfolge ist es, eine Fürsprecherin für Vielfalt in STEM zu sein. Können Sie einige dieser Highlights teilen?
Es gibt so viele großartige Organisationen, die an Vielfalt und Gleichheit in STEM arbeiten: Black Girls Code, ByteBack hier in DC, DataKind und kürzlich meine Sorority Zeta Phi Beta Inc. sowie mehrere andere Organisationen, die mit Google zusammenarbeiten, um unterrepräsentierte Gruppen in Computer- und technischer Ausbildung auszubilden. Ich tue meinen Teil, indem ich mit diesen Organisationen zusammenarbeite, Mentorin für Menschen bin, die neu in das Feld kommen, auf Veranstaltungen spreche (insbesondere Tech-Veranstaltungen, bei denen ich manchmal die einzige Frau oder Person of Color bin) und in Schulen unterrichte (insbesondere in Mehrheits-Minderheitenschulen, ländlichen Schulen und Alternativschulen). Darüber hinaus habe ich mit mehreren Unternehmen zusammengearbeitet, um ihre Praktikums- und Einstiegsprogramme für Absolventen zu diversifizieren. Ein Großteil dieser Arbeit habe ich aus Gewohnheit getan. Ich bin in einem Zuhause und einer Gemeinschaft aufgewachsen, in der ehrenamtliches Arbeiten ein Teil des täglichen Lebens war. Ich habe dies während meines Studiums und danach mit Zeta Phi Beta Inc. fortgesetzt. Ich denke jedoch, dass ich mich diesem Bereich zugewandt habe, weil ich nicht die Gelegenheit hatte, über Computer und Programmieren zu lernen, bis ich auf dem College war, und als ich dann auf dem College war, erinnere ich mich an das Gefühl der Negativität, das ich empfand, als ich mein Nebenfach Informatik studierte. Ich möchte nicht, dass jemand, insbesondere jemand, der versucht, zu lernen und sich selbst zu verbessern, dies erlebt. Ich denke nicht, dass ich wirklich erkannt habe, welche Auswirkungen ich hatte, bis ich mit einer Gruppe von Studenten auf einer Recruiting-Veranstaltung sprach und ein junges schwarzes Mädchen und ihre Mutter zu mir kamen und sagten, dass ich die erste technische schwarze Frau war, die sie je auf einer Konferenz oder Recruiting-Veranstaltung gesehen hatten. Das war der Moment, als ich erkannte, dass ich dies zu meinem regelmäßigen Ritual machen muss.
Ich versuche, an diesen Arten von Programmen regelmäßig teilzunehmen. Tatsächlich werde ich am 16. März ein Hackathon mit einer großartigen Datenwissenschaftlerin und meiner guten Freundin Swathi in Zusammenarbeit mit Girls in AI co-moderieren.
Sie haben auch an der Erweiterung der technischen Ausbildung in ländlichen und/oder einkommensschwachen Vierteln gearbeitet. Wie groß ist dieses Problem?
Wow, es gibt nicht genug Zeit, um über dieses enorme Problem zu sprechen! Das Coronavirus hat deutlich gemacht, dass es systemische Ungerechtigkeiten in unserer Gesellschaft gibt. Leider ist eine der größten Ungerechtigkeiten die Bildung. Ich habe eine gute Freundin, die an einer Alternativschule am Rande von DC arbeitet. Die Schüler dort sind oft älter, sie müssen neben der Schule Jobs haben und sie haben nicht immer die Tools zu Hause, um Fernunterricht zu machen, wie einen Laptop oder Computer. Diese Schüler hatten einen Lehrer, der für sie eintrat und mit der Schule zusammenarbeitete, um eine mobile Option zu erhalten, um sicherzustellen, dass die meisten Schüler auf ihre Schulen auf ihrem Handy zugreifen konnten. Dies ist jedoch nicht immer der Fall in einkommensschwachen oder alternativen Schulen. Die Situation in ländlichen Gebieten ist für Schüler und Lehrer ähnlich schwierig. Hochgeschwindigkeits-Internet kann in ländlichen Gebieten sehr teuer sein und manchmal nicht verfügbar. Schüler, die in den Parkplätzen von McDonald’s für Internetzugang sitzen, ist unannehmbar, aber leider notwendig in einigen dieser Gebiete. Ich kenne Lehrer in ländlichen Gebieten von Pennsylvania, die selbst kein gutes Internet haben, um ihre virtuellen Klassenzimmer zu verbinden.
Außerhalb des Coronavirus gibt es das Problem der Unterfinanzierung in ländlichen und einkommensschwachen Schulen, einen Mangel an technisch ausgebildeten Lehrern, insbesondere in ländlichen Gebieten, wo es schwierig sein kann, Talente anzuziehen, und natürlich den allgemeinen Bias gegen Schüler von Farbe, Einwanderer-Schüler und sogar ländliche Schüler, die möglicherweise anders aussehen oder klingen als die mehrheitlich akzeptierte “amerikanische” Kultur. All diese Szenarien tragen zu dem Mangel an Zugang zu STEM-Bildung bei und daher zu Schülern, die nie mit diesen Themen und Karrieren in Berührung kommen.
Wie groß ist das Problem des Gender- und Racial-Bias in KI?
Es ist etwas, worüber alle Unternehmen und Organisationen nachdenken sollten. Leider ist dies ein schwieriges Problem zu lösen, da KI-Bias gegenüber oder für eine bestimmte Gruppe oft bedeutet, dass in diesem Bereich das Unternehmen oder die Organisation bereits ein Muster des Bias hatte. KI ist auf vergangene Muster angewiesen, um zukünftiges Verhalten vorherzusagen und verstärkt einfach dieses Verhalten. Es ist jedoch schwierig, Menschen dazu zu bringen, ihre eigenen Vorurteile zu erkennen, wir alle haben sie und handeln oft unbewusst danach. Es müssen Systeme vorhanden sein, um diese Vorurteile zu mildern und Teams sowohl auf der technischen als auch auf der Geschäftsseite verantwortlich zu machen.
Wie können wir sicherstellen, dass die KI-Anwendungen von heute die Vorurteile der Menschen nicht verstärken?
Es gibt einige Schritte, die Organisationen unternehmen können, um einen Standard für die Data-Science- und KI-Praxis zu schaffen, um Vorurteile zu mildern. Ich kann nicht genug betonen, wie wichtig es ist, dass dies ein kollaborativer Prozess zwischen technischen und Geschäftsteams ist.
Es beginnt mit der Erkennung und Identifizierung potenzieller Quellen von Bias. Dies kann während des Prozesses der Datenerfassung, der Feature-Auswahl für die Modellbildung oder sogar völlig außerhalb der Daten in den Geschäftspraktiken geschehen. Zum Beispiel wurde ich einmal von einem Leiter eines Unternehmens gefragt, ob ihr Kernpublikum wirklich ältere, reiche Männer waren, die öfter in ländlichen oder suburbanen Nachbarschaften lebten. Ich sah mir die Daten an und erkannte, dass ihre Datenpipeline eine Überrepräsentation dieser Gruppe hatte. Aber ich stellte auch fest, dass die Mehrheit ihrer Kunden aus denselben Medienquellen kamen, konservativer Talkradio. Ich erfuhr von einem Mitglied des Marketing-Teams, dass das Unternehmen ursprünglich kostenlose Marketing auf diesen Plattformen erhielt und die Mehrheit ihrer Kunden diese reflektierte. Der Bias lag nicht in den Daten, sondern in der mangelnden Diversifizierung der Kommunikationsstrategie. Als Ergebnis bewertete das Lifetime-Value-Scoring-Modell, das das Data-Team erstellte, ältere, reichere Männer aus suburbanen und ländlichen Gemeinden als die besten Kunden, was die Kommunikationsstrategie, die das Marketing-Team eingesetzt hatte, verstärkte. Dies ist etwas, für das kein technisches Team verantwortlich sein sollte, aber sie sollten dafür verantwortlich sein, die richtigen Fragen zu stellen.
Dies führt mich zum zweiten Schritt, nämlich Richtlinien für die Suche nach und das Umgehen mit Bias zu erstellen, sobald es entdeckt wurde. Sobald Sie potenzielle Quellen von Bias identifiziert haben, sollte die Organisation eine Checkliste dieser Quellen erstellen, um nach diesen Problemen zu suchen, und einen Weg für jemanden, der besorgniserregende Daten oder Muster findet, um sie anzusprechen. Dies kann nicht im Vakuum erfolgen. Es ist die Verantwortung aller Teams, sicherzustellen, dass Anwendungen Vorurteile nicht verstärken. Wie im obigen Beispiel ist das Data-Team nicht für die Kommunikationsstrategie verantwortlich. Sie können helfen, die Ergebnisse zu identifizieren und dann mit anderen Teams in der Organisation zusammenarbeiten, um sie anzusprechen. In diesem Fall arbeitete das Kommunikationsteam mit dem Data-Science-Team zusammen, um andere Kommunikationsstrategien zu testen, die verschiedene demografische Gruppen bedienten.
Wenn Bias in Datenmodellen auftritt, kann es manchmal daran liegen, wie das Data-Team die Feature-Auswahl bestimmt, welche Daten in den Datenlagern enthalten oder ausgeschlossen sind oder sogar das vorhergesagte Metrik. In diesen Fällen ist es wichtig, dass das Data-Team versteht, dass Modellgenauigkeit nicht immer gleichbedeutend mit Modellfairness ist. Es mag stimmen, dass die Einbeziehung bestimmter Merkmale in ein Datenmodell die Vorhersagegenauigkeit des Modells erhöht, aber die zusätzlichen 0,5% Genauigkeit können auf Kosten der Gesellschaft oder des Unternehmens erfolgen. Es ist nicht leicht, zu bestimmen, was Fairness bedeutet, und es erfordert die Teilnahme von multifunktionalen Teams. Eine Methode, die “Gegenfaktische Fairness” genannt wird, berücksichtigt, dass eine Entscheidung fair gegenüber einer Person ist, wenn sie in der realen Welt und in einer kontrafaktischen Welt, in der die Person einer anderen demografischen Gruppe angehört, dieselbe ist. Darüber hinaus haben Microsoft und Google AI-Standards veröffentlicht, um Fairness in KI zu berücksichtigen. Ich persönlich beziehe mich auf die EU-Richtlinien für Ethik in künstlicher Intelligenz, die ich für meine Branche ziemlich umfassend finde. Sobald ein Fairness-Standard etabliert ist, kann das Data-Team bestimmen, ob die Lösung darin besteht, die Daten im Voraus zu verarbeiten, die Entscheidungen des Systems im Nachhinein zu ändern oder Fairness-Definitionen in den Trainingsprozess selbst aufzunehmen. Die Frage des Bias in Daten ist ein komplexes Problem, das regelmäßige Bewertung und die Stimmen einer Vielzahl von Menschen erfordert. Es ist nicht nur ein technisches Problem, das gelöst werden kann.
Was ist Ihre Meinung zu von der Regierung erlassenen KI- und Datenethik-Richtlinien?
Ich denke, dass es Schritte in die richtige Richtung gegeben hat, indem es einen Standardverfahren für KI- und Datenethik geschaffen hat. Trumps Exekutivbefehl zu KI-Ethik erstellt ein Register von Modellen, die innerhalb der Regierung eingesetzt werden, legt einen Zeitplan für die Erstellung von Richtlinien fest, ermutigt Agenturen, technische Teams und Personen einzustellen und fördert Transparenz bei der Verwendung von KI in der Regierung in Bereichen, die nicht mit Forschung und Entwicklung oder nationaler Sicherheit zu tun haben, was ich für sehr wichtig halte. Dieser umfassende Plan ist eine aufregende Entwicklung in der Regierung, die historisch gesehen langsam bei der Anpassung von Technologie war. Die Richtlinien haben jedoch wenig getan, um eine Kultur der Ethik zu schaffen, verpflichtende oder kohärente Pläne über Agenturen hinweg zu schaffen oder sogar zu definieren, was Ethik oder Fairness in diesen Kontexten bedeutet. Als die neue Regierung kommt, würde ich ihnen nahelegen, diese Pläne mit einem strukturierteren und kohärenteren Plan über alle Agenturen hinweg zu festigen sowie ein Bewertungsverfahren, das sorgfältig die menschliche Auswirkung berücksichtigt, da viel von der Arbeit, die unsere Regierung leistet, das tägliche Leben von Menschen sowohl innerhalb als auch außerhalb des Landes beeinflusst.
Gibt es noch etwas, das Sie über Ihre Arbeit mit Fresh Eyes Digital teilen möchten?
Data Science kann von Non-Profit-Organisationen verwendet werden, um ihre Auswirkungen zu erhöhen, die daran arbeiten, unsere Welt auf so viele Arten zu verbessern. Für diese Organisationen ist das Sammeln von Daten normalerweise nicht das Problem. Sie haben viele Daten, mit denen sie arbeiten können. Die Verwendung dieser Daten auf klare und handhabbare Weise ist jedoch für diese Organisationen, die oft von Ressourcen eingeschränkt sind und möglicherweise kein internes Analyseteam haben, schwierig. Die Arbeit, die wir in der Datenabteilung von Fresh Eyes Digital leisten, hilft diesen Organisationen, ihre Daten zu verstehen und einzusetzen, um besser informierte, strategische Entscheidungen zu treffen. Ich bin dankbar für die Gelegenheit, mit diesen Organisationen zusammenzuarbeiten, um sie effizienter und effektiver zu machen, während sie daran arbeiten, unsere Welt auf positive Weise zu beeinflussen.
Vielen Dank für die detaillierten Antworten und ich freue mich darauf, Ihre zukünftigen Unternehmungen zu verfolgen. Leser, die mehr erfahren möchten, sollten die Ashley Bryant-Baker-Website und/oder Fresh Eyes Digital besuchen.












