stub Doktor Reid Blackman, założyciel i dyrektor generalny Virtue Consultants – seria wywiadów – Unite.AI
Kontakt z nami

Wywiady

Doktor Reid Blackman, założyciel i dyrektor generalny Virtue Consultants – seria wywiadów

mm

Opublikowany

 on

Reida Blackmana jest założycielem i dyrektorem generalnym Konsultanci Cnoty. Na tym stanowisku współpracował z firmami nad włączeniem etyki i ograniczania ryzyka etycznego do kultury firmy oraz opracowywania, wdrażania i zamawiania nowych produktów technologicznych. Jest także starszym doradcą firmy Ernst & Young i zasiada w jej Radzie Doradczej ds. Sztucznej Inteligencji oraz jest członkiem inicjatywy Ethically Aligned Design Initiative IEEE.

O pracy Reida pisano w „The Wall Street Journal” i „Dell Perspectives”, a jego artykuły publikowały w „Harvard Business Review”, „TechCrunch”, „VentureBeat” i „Risk & Compliance Magazine”. Cytowano go w licznych artykułach prasowych i regularnie przemawia w różnych miejscach, w tym na Światowym Forum Ekonomicznym, SAP, Cannes Lions, Forbes, NYU Stern School of Business, Columbia University i AIG.

W latach 2009–2018 byłeś profesorem filozofii na Uniwersytecie Colgate. W którym momencie zacząłeś włączać etykę sztucznej inteligencji do swoich zajęć?

Często prowadziłem zajęcia z filozofii społecznej i politycznej, gdzie omawiałem Marksa. Jednym z głównych twierdzeń Marksa jest to, że kapitalizm ostatecznie ustąpi komunizmowi z powodu masowego wzrostu „środków produkcji”. Innymi słowy, kapitalizm forsuje coraz większą efektywność w imię konkurencji i otwierania nowych rynków, co oznacza wzrost tworzenia technologii, które mogą produkować coraz więcej w coraz krótszym czasie. Marks przewidywał również, że spowoduje to coraz większe oddanie pieniędzy w ręce nielicznych i wepchnięcie coraz większej liczby ludzi w biedę, po czym struktury kapitalistyczne zostaną obalone przez rewolucję kierowaną przez rosnącą liczbę mas pozbawionych środków do życia. Wszystko to prowadzi do dyskusji wokół etyki technologii eliminującej potrzebę pracy ludzkiej, co jest centralnym elementem etyki AI.

Jeśli jesteś zainteresowany, mała historia poboczna: w 2002 roku byłem studentem studiów magisterskich i prowadziłem dyskusję na temat Marksa ze studentami na Northwestern University. W pewnym momencie uczeń podniósł rękę i powiedział: „W końcu nie będziemy potrzebować ludzi do wykonywania żadnej pracy”. Klasa była zdezorientowana. Byłem zmieszany. Zapytałem więc: „No cóż, w takim razie kto wykona tę pracę?” Odpowiedział w bardzo rzeczowy sposób: „roboty”. Klasa wybuchła śmiechem. Zdusiłam swoje. Ale dość oczywiste jest, kto się śmiał ostatni.

W 2018 roku uruchomiłeś Konsultanci Cnoty, firma zajmująca się doradztwem w zakresie etyki, która umożliwia liderom ds. danych i sztucznej inteligencji identyfikowanie i ograniczanie ryzyka etycznego związanego z ich produktami. Co zainspirowało Cię do rozpoczęcia tej przedsiębiorczej podróży?

Zazdrość. Cóż, w pewnym sensie. Założyłem firmę zajmującą się sprzedażą hurtową fajerwerków jeszcze na studiach, myślę, że około 2003 lub 2004 roku. Poszło lepiej, niż się spodziewałem, a firma nadal istnieje, choć teraz jestem doradcą i nie zajmuję się już codziennymi operacjami . W każdym razie jest to istotne, ponieważ wyjaśnia, w jaki sposób zostałem mentorem start-upów w programie przedsiębiorczości Colgate (zwanym TIA, Think Into Action, prowadzonym przez dwóch niesamowitych VC, Andy'ego Greenfielda i Willsa Hapwortha, którzy prowadzą TIA Ventures). Jako mentor widziałem studentów rozpoczynających ekscytujące projekty, gdy próbowali wymyślić, jak założyć i skalować swoje start-upy nastawione na zysk lub non-profit, i pomyślałem: „Chcę tego!” Ale jakie byłoby moje nowe przedsięwzięcie? Musiało to przemawiać do mojej miłości do filozofii i etyki, a pierwszą rzeczą, która nabrała sensu, było doradztwo w zakresie etyki. Nie widziałem wtedy rynku na takie usługi, bo nie było takiego, więc czekałem. A potem Cambridge Analytica, BLM i #MeToo trafiły na pierwsze strony gazet w całym kraju i nagle wzrosła świadomość potrzeby.

Jak ważne dla firm jest wprowadzenie Oświadczenia dotyczącego etyki AI?

Oświadczenie dotyczące etyki AI nie jest niezbędne, ale jest niezwykle przydatnym narzędziem do wyznaczania celów. Wprowadzając program etyki sztucznej inteligencji w swojej organizacji, chcesz, aby identyfikował, ograniczał i zarządzał różnymi ryzykami etycznymi, reputacyjnymi, regulacyjnymi i prawnymi. To jego główna funkcja. Oświadczenie etyczne pomaga w określeniu, jak będzie wyglądać sytuacja, gdy zostanie wdrożona infrastruktura, proces i praktyki umożliwiające osiągnięcie tej funkcji. O ile strategia wymaga celu – co zawsze ma miejsce – Oświadczenie dotyczące etyki AI jest dobrym sposobem na wyrażenie tych celów, choć nie jest to jedyny sposób.

W jaki sposób firmy mogą zapewnić przełożenie oświadczenia etycznego na procesy i praktykę?

Oświadczenie etyczne to tylko mały krok we właściwym kierunku. Jeśli chcesz kontynuować, następnym naturalnym krokiem jest dokonanie oceny tego, gdzie jesteś w stosunku do celów wyrażonych w tym stwierdzeniu. Kiedy już wiesz, gdzie są największe i najbardziej ryzykowne luki – czyli gdzie jesteś najbardziej narażony na ryzyko nieosiągnięcia swoich celów – możesz zacząć opracowywać rozwiązania, które pozwolą zawęzić te luki. Może to komisja etyki. Być może jest to proces należytej staranności podczas opracowywania produktu. Być może poprawiło się podejście do danych w działach niezwiązanych z produktem, takich jak marketing i HR. Prawdopodobnie to wszystko i jeszcze więcej.

Jakie rozwiązania powinny wdrożyć firmy, aby uniknąć stronniczości w stosunku do rzeczywistego algorytmu sztucznej inteligencji?

Istnieje wiele narzędzi technicznych umożliwiających identyfikację stronniczości, ale są one ograniczone. Umożliwią ci porównanie wyników modelu z dziesiątkami metryk ilościowych oferowanych w akademickiej literaturze dotyczącej etyki ML, ale musisz zachować ostrożność, ponieważ te metryki nie są wzajemnie kompatybilne. Należy zatem podjąć merytoryczną, etyczną decyzję: który z tych wskaźników jest właściwy w tym kontekście?

Oprócz korzystania z takiego narzędzia, uzupełnionego o odpowiedzialny sposób odpowiedzi na to pytanie, zespoły produktowe powinny pomyśleć o tym, gdzie może wkraść się uprzedzenie, zanim zaczną budować. W jaki sposób można to uwzględnić lub odzwierciedlić w zbiorach danych szkoleniowych? A co z określeniem funkcji celu? A co z ustaleniem progu? Jest wiele miejsc, w których może wkraść się stronniczość. Przemyślenie, gdzie może ona wystąpić w bieżącym projekcie i jak może się tam dostać, jest niezbędne do zidentyfikowania i złagodzenia uprzedzeń.

Firmy zajmujące się sztuczną inteligencją są znane z tego, że są zdominowane przez białych mężczyzn, którzy mogą w sposób niezamierzony zaprogramować pewne uprzedzenia w systemie sztucznej inteligencji. Aby tego uniknąć, jakich cech powinny szukać działy kadr?

Jestem zwolennikiem większych możliwości i większej różnorodności wśród inżynierów i ogólnie zespołów zajmujących się produktami. To powiedziawszy, myślę, że jest to patrzenie na sprawy przez niewłaściwy obiektyw. Podstawowym problemem związanym z stronniczymi algorytmami nie jest to, że uprzedzenia jakiegoś białego człowieka prowadzą do stronniczego kodu. Chodzi o to, że zbiory uczące danych są stronnicze. Faktycznie, niedawny artykuł z Kolumbii – „Stronniczni programiści? Lub stronnicze dane? Eksperyment terenowy w zakresie operacjonalizacji etyki sztucznej inteligencji” – stwierdzono, że „[p]programiści, którzy rozumieją wskazówki techniczne, skutecznie zmniejszają stronniczość” oraz że „[a]lgorytmiczne przewidywania dokonywane przez programistki sztucznej inteligencji kobiet i mniejszości nie wykazują mniej stronniczości algorytmicznej ani dyskryminacji”. Zatem chociaż działy kadr powinny zwracać uwagę na kwestie różnorodności, nie jest jasne, czy strategie ograniczania stronniczych wyników sztucznej inteligencji powinny przede wszystkim – a co dopiero wyłącznie – skupiać się na decyzjach o zatrudnieniu w związku z działaniami na rzecz różnorodności.

Czy mógłbyś omówić, czym jest należyta staranność w zakresie ryzyka etycznego i dlaczego firmy powinny ją wdrożyć?

Badanie due diligence ryzyka etycznego to próba wykrycia różnych zagrożeń etycznych, które mogą powstać w związku z tworzonym przez Ciebie produktem, w tym sposobu jego wdrożenia, sposobu jego użycia i niewłaściwego użycia itp. Chcesz skupić się na cechach produktu produktu – zarówno tego, co posiada, jak i tego, czego mu brakuje – oraz tego, w jaki sposób mogą one prowadzić, jeśli zostaną zastosowane w różnych kontekstach, do nadużyć etycznych. Jeśli zostanie to zrobione dobrze, jest to kontrola systemowa i wyczerpująca. Oczywiście, chociaż możesz dołożyć wszelkich starań, aby rozejrzeć się za rogiem, jest całkiem prawdopodobne, że przeoczysz pewne rzeczy, dlatego ważne jest ciągłe monitorowanie.

Jeśli chodzi o to, dlaczego firmy powinny to wdrożyć: muszą jedynie wziąć pod uwagę ryzyko etyczne, reputacyjne, regulacyjne i prawne wynikające z niezastosowania się do tego rozwiązania. Pomyśl o Optum w wiadomościach i objętym dochodzeniem regulacyjnym dotyczącym (rzekomo) stronniczego algorytmu, który zalecał pracownikom służby zdrowia zwracanie większej uwagi na białych pacjentów niż na bardziej chorych czarnych pacjentów. Lub Goldman Sachs, w którym toczy się dochodzenie w sprawie limitów kredytowych Apple Card, które rzekomo dyskryminują kobiety. Albo oprogramowanie Amazon do zatrudniania, które przed wdrożeniem odrzucono ze względu na obawy dotyczące stronniczości. Lub pozew IBM przez Los Angeles za rzekome sprzeniewierzenie danych zebranych z aplikacji pogodowej. Albo Facebooka….

Czy jest coś jeszcze, czym chciałbyś się podzielić na temat Virtue Consultants?

Virtue pomaga kierownictwu wyższego szczebla we wdrażaniu etyki sztucznej inteligencji w praktyce, niezależnie od tego, czy chodzi o edukowanie i podnoszenie kwalifikacji ludzi w tym temacie, pisanie oświadczenia dotyczącego etyki sztucznej inteligencji, tworzenie i wdrażanie praktycznych ram ryzyka etycznego sztucznej inteligencji, czy po prostu pełnienie roli doradców w zakresie etyki sztucznej inteligencji. Jeśli to brzmi interesująco, ludzie powinni przyjść się przywitać.

Dziękuję za wspaniały wywiad. Czytelnicy chcący dowiedzieć się więcej o Reidzie powinni odwiedzić tę stronę Reida Blackmana, lub możesz odwiedzić Konsultanci Cnoty.

Partner-założyciel unite.AI i członek Rada Technologiczna Forbesa, Antoine jest futurysta który jest pasjonatem przyszłości sztucznej inteligencji i robotyki.

Jest także Założycielem Securities.io, witryna internetowa skupiająca się na inwestowaniu w przełomowe technologie.