Connect with us

Alyssa Simpson Rochwerger, Co-Autor von Real World AI – Interview-Serie

Interviews

Alyssa Simpson Rochwerger, Co-Autor von Real World AI – Interview-Serie

mm

Alyssa Rochwerger ist eine kundenzentrierte Produktleiterin, die sich der Entwicklung von Produkten widmet, die schwierige Probleme für reale Menschen lösen. Sie hatte zahlreiche Produktleitungsrollen in maschinellen Lernorganisationen inne. Sie war VP of Product bei Figure Eight (erworben von Appen), VP of AI und Data bei Appen und Director of Product bei IBM Watson. Sie hat den Raum recently verlassen, um ihrem Traum nachzugehen, Technologie zu nutzen, um die Gesundheitsversorgung zu verbessern. Derzeit ist sie Director of Product bei Blue Shield of California, wo sie von vielen Daten, vielen schwierigen Problemen und nichts als Möglichkeiten, um einen positiven Einfluss auszuüben, umgeben ist.

Wir diskutieren ihr neues Buch: The Real World of AI: A Practical Guide for Responsible Machine Learning

In der Einleitung des Buches beschreiben Sie, wie Sie als IBM-Produktmanager zum ersten Mal ein Problem mit einem KI-System hatten, das voreingenommene Informationen lieferte, als ein Bild einer Person im Rollstuhl von dem Algorithmus als “Verlierer” klassifiziert wurde. Wie sehr war dies ein Weckruf für Sie über KI-Voreingenommenheit?

Ich würde es nicht als Weckruf bezeichnen, sondern eher als meine erste Erfahrung beim Bau eines maschinellen Lernprodukts (ich war nur wenige Monate in der Rolle) und ich wusste noch nicht genug über diese Technologie, um entsprechende Schutzmaßnahmen zu ergreifen und unerwünschte Voreingenommenheit aktiv zu mindern. Es war eine aufschlussreiche Erfahrung, die meine Aufmerksamkeit auf dieses Problem schärfte – und mich darauf aufmerksam machte, dass ich mich in Zukunft um diese Probleme kümmern muss. Gerechtigkeit, Zugang und Inklusion sind Themen, die mich leidenschaftlich interessieren – und das schon seit langem – ich habe sogar einen Preis für meine Fürsprache für behinderte Studenten gewonnen. Diese Erfahrung bei IBM half mir, zu verstehen, wie leicht es ist, systemische gesellschaftliche Voreingenommenheit in maschinelle Lernprodukte zu kodieren, wenn das Team nicht aktiv dagegen vorgeht. Ich war froh, in einer Institution zu arbeiten, die sich sehr um Gerechtigkeit kümmert und Ressourcen bereitstellt, um dies zu mindern.

Was haben Sie persönlich gelernt, während Sie an diesem Buch recherchierten und schrieben?

Persönlich musste ich Zeit für das Schreiben dieses Buches herausschlagen, während ich den Job wechselte, ein 1-jähriges Kind hatte und gleichzeitig COVID navigierte. Ich lernte, wie ich Zeit für diese Priorität herausschlagen konnte und wie ich meine Familie um Hilfe bitten konnte, um mir die Zeit zu geben, die ich für das Schreiben benötigte.

Professionell – es war wunderbar, so viele Teilnehmer zu haben, die bereitwillig und großzügig ihre Geschichten mit uns teilten, um sie zu veröffentlichen. Maschinelle Lernprofis sind in meiner Erfahrung eine unglaublich nachdenkliche und großzügige Gruppe von Menschen – bereit, anderen zu helfen und Fehler und Erfahrungen zu teilen. Leider konnten viele dieser Erfolgsgeschichten nicht in dieses Buch aufgenommen werden oder mussten stark anonymisiert werden, weil es Bedenken gab, hintergrundinformationen zu veröffentlichen, die ein Unternehmen oder eine Person in einem schlechten Licht darstellen könnten, wenn sie falsch interpretiert werden. Obwohl das sicherlich normal ist, finde ich es persönlich schade – ich bin ein großer Befürworter des Lernens und Wachsens aus vergangenen Erfahrungen und Fehlern, wenn sie anderen helfen können.

Was sind einige der wichtigsten Lektionen, die Sie hoffen, die Menschen aus dem Lesen dieses Buches ziehen werden?

Ich hoffe, die Menschen werden lernen, dass maschineller Lern nicht super kompliziert oder schwer zu verstehen ist. Dass es eine leistungsfähige, aber auch manchmal zerbrechliche Technologie ist, die Anleitung und Struktur benötigt, um schwierige Probleme zu lösen. Auch, dass verantwortungsvolle ethische Nutzung dieser Technologie entscheidend für Reife und Erfolg ist – und dass das frühzeitige Mindern schädlicher Voreingenommenheit der Schlüssel zum Geschäftserfolg ist.

Ein Beispiel für KI-Geschlechtervoreingenommenheit, das in dem Buch dargestellt wurde, war die Apple-Kreditkarte, die Frauen niedrigere Kreditlimits als Männern gewährte. Dies war ein Beispiel dafür, wie das Auslassen von Geschlecht als Option es nicht ermöglichte, andere Variablen zu berücksichtigen, die als Proxy für Geschlecht dienen können. Das Beispiel zeigte, dass es ohne die “Geschlecht”-Eingabe unmöglich war, zu erkennen, dass das Ergebnis voreingenommen war, bis nach der Veröffentlichung des Endprodukts. Welche Arten von Daten-Eingaben glauben Sie, sollten nie ausgelassen werden, um Voreingenommenheit gegenüber Geschlecht oder Minderheiten zu vermeiden?

Es gibt keine harte und schnelle Regel – jeder Datensatz, jeder Anwendungsfall und jede Situation ist unterschiedlich. Ich würde den Praktikern raten, sich in die Details und Nuancen dessen zu vertiefen, was ein maschineller Lernalgorithmus angewendet wird, um ein Problem zu lösen – und welche schädliche Voreingenommenheit in diese Entscheidung kodiert werden könnte.

Das Buch beschreibt, wie eine primäre Verantwortung bei der Kommunikation mit dem KI-Team darin besteht, die Ergebnisse genau zu definieren, die für das Geschäft wichtig sind. Wie oft scheitern Unternehmen an dieser Aufgabe?

Ich würde sagen, dass in meiner Erfahrung die meisten Unternehmen die Ergebnisse entweder nicht definieren oder nur auf einer lockeren oder hohen Ebene definieren. Sich in die Details über die spezifischen Ergebnisse zu vertiefen, ist eine einfache Möglichkeit, das Team von Anfang an auf Erfolg zu setzen.

Das Buch spricht über die Wichtigkeit, zu erkennen, dass ein KI-System kein “Set it and forget it”-System ist. Können Sie dies kurz diskutieren?

Dies ist der klassische Fehler, den die meisten Unternehmen machen, wenn sie ein neues ML-System in die Produktion bringen. Die Realität ändert sich – die Zeit vergeht, was gestern (die Trainingsdaten) wahr war, muss nicht morgen wahr sein. Es hängt von den Umständen ab, aber in den meisten Fällen ist es wichtig, lernen und anpassen zu können und bessere Entscheidungen auf der Grundlage aktuellerer Informationen zu treffen.

Maschinelle Lernprodukte sind im Wesentlichen Entscheidungsträger. Um dies mit einem menschlichen Beispiel zu vergleichen – es ist wie ein Schiedsrichter in einem hochkarätigen Fußballspiel. Viele Male, wenn es ein gut ausgebildeter Schiedsrichter mit Erfahrung ist, trifft der Schiedsrichter eine gute Entscheidung und das Spiel geht weiter – aber manchmal trifft der Schiedsrichter eine schlechte Entscheidung – oder ist sich nicht sicher, was zu entscheiden ist – und muss zurückgehen und das Video überprüfen – und ein paar andere Leute fragen, um eine Entscheidung über einen bestimmten Spielzug zu treffen. Ähnlich benötigen ML-Produkte Feedback, Training und manchmal sind sie nicht sicher. Sie benötigen Backup-Optionen, um auf sie zurückzugreifen, sowie neue Informationen, um zu lernen und sich über die Zeit zu verbessern. Ein guter Schiedsrichter wird über die Zeit lernen und besser darin werden, Urteile zu fällen.

Können Sie die Wichtigkeit eines cross-funktionalen Teams diskutieren, das herausfinden kann, welche Probleme am besten mit KI angegangen werden?

Maschinelle Lern-Technologie ist in der Regel gut geeignet für sehr schwierige spezifische Probleme, die nicht mit anderen Ansätzen gelöst werden können. Jedes schwierige Problem – es braucht ein Team, um erfolgreich zu sein. Wenn Unternehmen neu in KI sind – gibt es oft eine falsche Erzählung, dass ein einzelner maschineller Lernwissenschaftler oder sogar ein maschineller Lern-Team das Problem alleine lösen kann. Ich habe nie gefunden, dass dies der Fall ist. Es braucht ein Team mit unterschiedlichen Hintergründen und Ansätzen, um ein schwieriges Problem anzugehen – und sicherlich, um maschinelle Lern-Technologie erfolgreich in die Produktion zu bringen.

Vielen Dank für das großartige Interview, für Leser (und insbesondere Geschäftsführer), die mehr darüber erfahren möchten, empfehle ich, dass sie das Buch The Real World of AI: A Practical Guide for Responsible Machine Learning lesen.

Antoine ist ein visionärer Führer und Gründungspartner von Unite.AI, getrieben von einer unerschütterlichen Leidenschaft für die Gestaltung und Förderung der Zukunft von KI und Robotik. Ein Serienunternehmer, glaubt er, dass KI so disruptiv für die Gesellschaft sein wird wie Elektrizität, und wird oft dabei ertappt, wie er über das Potenzial disruptiver Technologien und AGI schwärmt.

Als futurist ist er darauf fokussiert, zu erforschen, wie diese Innovationen unsere Welt formen werden. Zusätzlich ist er der Gründer von Securities.io, einer Plattform, die sich auf Investitionen in hochmoderne Technologien konzentriert, die die Zukunft neu definieren und ganze Branchen umgestalten.