Stumm Reid Blackman, Ph.D., Grënner a CEO vu Virtue Consultants - Interview Series - Unite.AI
Connect mat eis

Interviewen

Reid Blackman, Ph.D., Grënner a CEO vun Virtue Consultants - Interview Serie

mm

publizéiert

 on

Reid Blackman ass de Grënner a CEO vun Virtue Consultants. An dëser Kapazitéit huet hien mat Firmen geschafft fir Ethik an ethesch Risikoreduktioun an d'Firmakultur z'integréieren an d'Entwécklung, d'Deployment, an d'Ausschaffe vun opkomende Technologieprodukter. Hien ass och Senior Advisor fir Ernst & Young a sëtzt op hirem Artificial Intelligence Advisory Board, an ass Member vun der IEEE's Ethically Aligned Design Initiative.

Dem Reid seng Aarbecht gouf am Wall Street Journal an Dell Perspectives profiléiert an hien huet Stécker zu The Harvard Business Review, TechCrunch, VentureBeat, a Risk & Compliance Magazine bäigedroen. Hie gouf a villen Neiegkeetsartikelen zitéiert, an hie schwätzt regelméisseg op verschiddene Plazen, dorënner The World Economic Forum, SAP, Cannes Lions, Forbes, NYU Stern School of Business, Columbia University, an AIG.

Dir waart Philosophie Professer op der Colgate University vun 2009 bis 2018. A wéi engem Punkt hutt Dir ugefaang AI Ethik an Är Klassen ze integréieren?

Ech hunn dacks e Cours iwwer Sozial a Politesch Philosophie geléiert, wou ech de Marx behandelt hunn. Ee vun den zentrale Fuerderungen vum Marx ass datt de Kapitalismus schlussendlech dem Kommunismus Plaz wäert ginn, wéinst enger massiver Erhéijung vun de "Produktiounsmëttelen". An anere Wierder, de Kapitalismus dréckt méi a méi Effizienz am Numm vun der Konkurrenz an d'Ouverture vun neie Mäert, dat heescht eng Erhéijung vun der Schafung vun Technologien, déi méi a méi a méi kuerzer Zäit kënne produzéieren. De Marx huet och virausgesot, datt dëst ëmmer méi Suen an d'Hänn vun de wéinege géif leeën a méi a méi Leit an d'Aarmut drécken, op deem Punkt kapitalistesch Strukture géife vun enger Revolutioun ëmgedréint ginn, gefouert vun der wuessender Zuel vun den aarme Massen. All dëst féiert zu enger Diskussioun iwwer d'Ethik vun der Technologie, déi de Besoin fir mënschlech Aarbecht eliminéiert, wat en zentrale Element vun der AI Ethik ass.

Kleng Säitgeschicht wann Dir interesséiert sidd: Zréck an 2002 war ech en Diplomstudent eng Diskussioun iwwer Marx mat Bachelorstudenten op der Northwestern University. Irgendwann huet e Student seng Hand opgehuewen a gesot: "Schlussendlech brauche mir keng Mënschen fir eng Aarbecht ze maachen." D'Klass war duercherneen. Ech war duercherneen. Also hunn ech gesot: "Ma, wien wäert d'Aarbecht maachen?" Hien huet op eng ganz Tatsaach Aart a Weis geäntwert: "Roboteren." D'Klass huet am Laachen ausgebrach. Ech hunn meng eegen gestoppt. Mee et ass zimmlech offensichtlech wien dee leschte gelaacht huet.

Am Joer 2018 hutt Dir lancéiert Virtue Consultants, eng Ethik-Berodung déi d'Daten an AI Leadere erméiglecht d'ethesch Risiken vun hire Produkter z'identifizéieren an ze reduzéieren. Wat huet Iech inspiréiert fir dës Entrepreneursrees unzefänken?

Jalousie. Gutt, Zort vun. Ech hunn e Freedefeier Grousshandel ugefaang wéi ech Diplomstudent war, ech mengen ëm 2003 oder 2004. Dat ass besser gaangen wéi ech virausgesot hunn, an d'Firma gëtt et nach, obschonn ech elo Beroder sinn an net méi ëm den Alldag këmmeren . Jiddefalls ass et relevant well et erkläert wéi ech e Mentor fir Start-ups am Colgate sengem Entrepreneursprogramm ginn (genannt TIA, Thought Into Action, gefouert vun zwee genial VCs, Andy Greenfield a Wills Hapworth, déi TIA Ventures lafen). Als Mentor hunn ech Studenten gesinn, déi op spannende Projete begéinen, wéi se probéiert erauszefannen wéi se hir profitéierend oder net-profit Startups etabléieren an skalaéieren an ech hu geduecht: "Ech wëll dat!" Awer wat wier meng nei Venture? Et huet misse mat menger Léift vu Philosophie an Ethik schwätzen, an dat éischt wat Sënn gemaach huet war eng Ethik Consultancy. Ech hunn deemools de Maart fir esou Servicer net gesinn, well et war keen ze gesinn, an dofir hunn ech gewaart. An dunn hunn Cambridge Analytica, an BLM, an #MeToo national Schlagzeilen gemaach, an op eemol gouf et e gréissere Bewosstsinn vun der Bedierfness.

Wéi wichteg ass et fir Firmen eng AI Ethics Statement aféieren?

Eng AI Ethik Erklärung ass net wesentlech, awer et ass en extrem nëtzlecht Tool fir Är Ziler ze setzen. Wann Dir en AI Ethik Programm an Är Organisatioun aféiere wëllt, wëllt Dir datt et verschidden ethesch, reputativ, reglementaresch a juristesch Risiken identifizéieren a reduzéieren a verwalten. Dat ass seng Haaptfunktioun. Eng Ethik Erklärung hëlleft bei der artikuléieren wéi d'Saachen ausgesinn wann Dir d'Infrastruktur, de Prozess an d'Praxis op der Plaz hutt fir dës Funktioun z'erreechen. Souwäit eng Strategie en Zil brauch - wat se ëmmer mécht - ass eng AI Ethics Statement e flotte Wee fir dës Ziler ze artikuléieren, och wann et net deen eenzege Wee ass.

Wéi kënne Firmen garantéieren datt d'Ethik Ausso a Prozess a Praxis transferéiert gëtt?

Eng Ethik Ausso ass just e klenge Schrëtt an déi richteg Richtung. Wann Dir weiderfuere wëllt, ass den nächsten natierleche Schrëtt eng Bewäertung ze maachen vu wou Dir sidd relativ zu den Ziler, déi an där Ausso artikuléiert sinn. Wann Dir wësst wou déi gréissten, riskantste Lücken sinn - dat heescht, wou Dir am meeschte Risiko sidd fir Är Ziler ze falen - da kënnt Dir ufänken d'Léisungen ze entdecken fir dës Lücken ze verklengeren. Vläicht ass et eng Ethikkommissioun. Vläicht ass et en Due Diligence Prozess wärend der Produktentwécklung. Vläicht gëtt et besser iwwer wéi Dir Daten an Net-Produktdepartementer behandelt, wéi Marketing an HR. Wahrscheinlech sinn et all déi Saachen a méi.

Wat sinn e puer Léisungen déi Firme solle implementéieren fir Bias an den aktuellen AI Algorithmus ze vermeiden?

Et ginn eng Rëtsch technesch Tools dobaussen fir Bias z'identifizéieren, awer si sinn limitéiert. Si erlaben Iech d'Ausgänge vun Ärem Modell mat den Dosende vu quantitativen Metriken ze vergläichen déi an der akademescher ML Ethikliteratur ugebuede goufen, awer Dir musst virsiichteg sinn well dës Metriken net géigesäiteg kompatibel sinn. Also muss eng substantiell, ethesch Entscheedung getraff ginn: wéi eng vun dëse Metriken ass déi passend an dësem Kontext?

Nieft der Benotzung vun engem Tool wéi dat, ergänzt mat enger verantwortungsvoller Manéier fir dës Fro ze beäntweren, géifen d'Produktteams gutt nodenken, wou d'Basitéit erschreckt kann ier se ufänken ze bauen. Wéi konnt et an den Trainingsdatesets enthalen oder reflektéiert ginn? Wéi wier et mat der Bestëmmung vun der objektiver Funktioun? Wat iwwer d'Bestëmmung vun der Schwell? Et gi vill Plazen Viraussetzunge kënne schréiwen. Viraussoen iwwer wou dat an engem aktuelle Projet kéint sinn a wéi et dohinner kënnt sinn essentiell fir Bias z'identifizéieren an ze reduzéieren.

AI Firmen sinn notoresch fir dominéiert ze ginn vu wäiss Männercher déi onbedéngt an e puer Biases an den AI System programméiere kënnen. Fir dëst ze vermeiden, wéi eng Zort Charaktere solle Mënschlech Ressourcen Departementer sichen?

Ech sinn alles fir méi Méiglechkeeten a méi Diversitéit tëscht Ingenieuren a Produktteams allgemeng. Dat gesot, ech mengen datt dëst d'Saachen duerch déi falsch Lens kuckt. De primäre Problem wann et ëm biased Algorithmen kënnt ass net datt e puer wäiss Guy seng Biases zu biased Code féieren. Et ass datt d'Daten Trainingssets partiell sinn. Tatsächlech, e rezente Pabeier aus Columbia - "Biased Programmer? Oder biased Donnéeën? A Field Experiment in Operationalizing AI Ethics" - ofgeschloss datt "[p]Rogrammer déi technesch Leedung verstinn erfollegräich Bias reduzéieren", an datt "[a]lgorithmesch Prognosen vu weiblechen a Minoritéit AI Programméierer net manner algorithmesch Bias oder Diskriminatioun weisen." Also wärend HR sollt op Diversitéitsprobleemer oppassen, ass et wäit net kloer datt Strategien fir biased AI Outputen ze reduzéieren sollten haaptsächlech - loosst eleng, exklusiv - fokusséieren op d'Astellen vun Entscheedungen a Relatioun mat Diversitéit Efforten.

Kënnt Dir diskutéieren wat ethesch Risiko Due Diligence ass a firwat Firme sollen et ëmsetzen?

Eng ethesch Risiko Due Diligence ass e Versuch déi verschidden ethesch Risiken z'entdecken, déi mam Produkt realiséiert kënne ginn, deen Dir erstellt, inklusiv wéi et ofgesat gëtt, wéi et benotzt a mëssbraucht ka ginn, etc. Dir wëllt op Features vun der Produit - souwuel déi et huet an déi et feelt - an d'Weeër déi kënnen, wann se a verschiddene Kontexter agesat ginn, zu ethesche Mëssstänn féieren. Wann et gutt gemaach gëtt, ass et eng systemesch an ustrengend Inspektioun. Natierlech, wärend Dir Äert Bescht kënnt probéieren ronderëm den Eck ze kucken, sinn et méiglecherweis e puer Saachen déi Dir verpasst, dofir ass kontinuéierlech Iwwerwaachung wichteg.

Wéi fir firwat Firmen et sollen ëmsetzen: Si brauchen nëmmen déi ethesch, renomméiert, reglementaresch a legal Risiken ze berücksichtegen fir dat net ze maachen. Denkt un Optum an den Neiegkeeten an ënner reglementaresche Enquête fir en (angeblech) biased Algorithmus, deen d'Gesondheetsberuffer recommandéiert huet méi Opmierksamkeet op wäiss Patienten ze bezuelen wéi op méi krank schwaarz Patienten. Oder un de Goldman Sachs, ënner Enquête fir d'Kreditlimite fir d'Apple Card, déi angeblech Fraen diskriminéieren. Oder d'Amazon hir Software, déi wéinst Bedenken iwwer Bias ofgeschaaft gouf ier se ofgesat gouf. Oder IBM gëtt vu Los Angeles verklot fir angeblech Mëssbrauch vu Daten aus senger Weather App gesammelt. Oder Facebook...

Gëtt et nach eppes wat Dir iwwer Virtue Consultants deele wëllt?

Virtue hëlleft Senior Leader AI Ethik an d'Praxis ëmzesetzen, egal ob et hëlleft d'Leit iwwer dëst Thema z'educéieren an ze qualifizéieren, eng AI Ethics Statement ze schreiwen, en handlungsfäeg AI etheschen Risiko Kader ze kreéieren an ëmzesetzen, oder einfach als Beroder iwwer AI Ethik ze déngen. Wann dat interessant kléngt, sollen d'Leit kommen Salut soen.

Merci fir dee super Interview, Lieser déi méi iwwer de Reid wësse wëllen, sollten besichen Reid Blackman, oder Dir kënnt besichen Virtue Consultants.

A founding partner of unite.AI & e Member vun der Forbes Technology Council, Den Antoine ass a futuristesch déi passionéiert ass iwwer d'Zukunft vun AI & Robotik.

Hien ass och de Grënner vun Securities.io, eng Websäit déi sech op d'Investitioun an d'Stéierungstechnologie konzentréiert.