stub Przedstawiamy nowy poziom przejrzystości dzięki sztucznej inteligencji - Liderzy myśli - Unite.AI
Kontakt z nami

Liderzy myśli

Przedstawiamy nowy poziom przejrzystości dzięki sztucznej inteligencji – liderzy myśli

mm
Zaktualizowano on

Balakrishna DR, starszy wiceprezes, szef oferty usług – usługi w zakresie energii, komunikacji, usług oraz sztucznej inteligencji i automatyki, pod adresem Infosys.

9 stycznia 2020 r. Światowa Organizacja Zdrowia powiadomiła opinię publiczną o wybuchu epidemii koronawiru w Chinach. Trzy dni wcześniej amerykańskie Centra Kontroli i Zapobiegania Chorobom rozgłosiły tę wiadomość. Ale to był Kanadyjska platforma monitorowania zdrowia, która pokonała ich obu, wysyłając wiadomość o wybuchu epidemii do swoich klientów już 31 grudnia 2019 roku! Platforma BlueDot wykorzystuje algorytmy oparte na sztucznej inteligencji, które przeszukują obcojęzyczne doniesienia prasowe, sieci dotyczące chorób zwierząt i roślin oraz oficjalne oświadczenia, aby z wyprzedzeniem ostrzegać klientów, aby unikali stref niebezpiecznych, takich jak Wuhan.

W ciągu ostatnich kilku lat sztuczna inteligencja stała się kluczowym źródłem transformacji, zakłóceń i przewagi konkurencyjnej w dzisiejszej szybko zmieniającej się gospodarce. Od śledzenia epidemii, przez obronność, po opiekę zdrowotną, pojazdy autonomiczne i wszystko pomiędzy, sztuczna inteligencja zyskuje coraz szersze zastosowanie. PwC przewiduje, że sztuczna inteligencja może wnieść do światowej gospodarki aż do 15.7 biliona dolarów w 2030 rokuprzy obecnym tempie wzrostu.

Jednak pomimo wszystkich nadziei, jakie niesie ze sobą sztuczna inteligencja, nadal stwarza ona pytania bez odpowiedzi dotyczące przejrzystości i wiarygodności. Potrzeba zrozumienia, przewidywania i zaufania zdolnościom decyzyjnym systemów AI jest ważna szczególnie w obszarach kluczowych dla życia, śmierci i dobrego samopoczucia.

 

W nieznane

Kiedy po raz pierwszy wprowadzono zautomatyzowane systemy rozumowania w celu wspomagania podejmowania decyzji, opierały się one na ręcznie opracowanych regułach. Chociaż ułatwiło to interpretację i modyfikację ich zachowania, nie były one skalowalne. Aby sprostać tej ostatniej potrzebie, pojawiły się modele oparte na uczeniu maszynowym; nie wymagały interwencji człowieka i mogły trenować na podstawie danych – im więcej, tym lepiej. Chociaż modele głębokiego uczenia się nie mają sobie równych pod względem możliwości modelowania i zakresu zastosowania, fakt, że modele te w większości mają charakter czarnych skrzynek, rodzi niepokojące pytania dotyczące ich prawdziwości, wiarygodności i stronniczości w kontekście ich szerokiego zastosowania.

Obecnie nie ma bezpośredniego mechanizmu umożliwiającego prześledzenie rozumowania używanego pośrednio w modelach głębokiego uczenia się. W przypadku modeli uczenia maszynowego, które mają charakter czarnej skrzynki, podstawowy rodzaj wyjaśnialności nazywany jest wyjaśnialnością post hoc, co oznacza, że ​​wyjaśnienia wywodzą się z natury i właściwości wyników generowanych przez model. Wczesne próby wyodrębnienia reguł z sieci neuronowych (jak wcześniej nazywano głębokie uczenie się) nie są obecnie podejmowane, ponieważ sieci stały się zbyt duże i zróżnicowane, aby możliwe było wyodrębnienie reguł. Istnieje zatem pilna potrzeba wprowadzenia interpretowalności i przejrzystości w samej strukturze modelowania sztucznej inteligencji.

 

Wyjdź z nocy, wejdź do światła

Ta obawa stworzyła potrzebę przejrzystości w uczeniu maszynowym, co doprowadziło do rozwoju wyjaśnialnej sztucznej inteligencji, czyli XAI. Ma na celu rozwiązanie głównych problemów, które utrudniają nam pełne zaufanie do procesu decyzyjnego AI – w tym stronniczości i przejrzystości. Ta nowa dziedzina sztucznej inteligencji zapewnia odpowiedzialność za zapewnienie, że sztuczna inteligencja przyniesie społeczeństwu lepsze wyniki dla wszystkich zainteresowanych.

XAI będzie miało kluczowe znaczenie, pomagając w eliminowaniu uprzedzeń nieodłącznie związanych z systemami i algorytmami sztucznej inteligencji, które są programowane przez osoby, których pochodzenie i doświadczenia w niezamierzony sposób prowadzą do rozwoju systemów sztucznej inteligencji wykazujących stronniczość. Mogą wkraść się niepożądane uprzedzenia, takie jak dyskryminacja określonej narodowości lub pochodzenia etnicznego, ponieważ system dodaje do nich wartość w oparciu o rzeczywiste dane. Dla ilustracji można stwierdzić, że typowe osoby niespłacające zobowiązań pochodzą z określonego pochodzenia etnicznego, jednakże wdrażanie jakiejkolwiek restrykcyjnej polityki opartej na tym może być sprzeczne z uczciwymi praktykami. Błędne dane są kolejną przyczyną stronniczości. Na przykład, jeśli określony skaner do rozpoznawania twarzy jest niedokładny w 5% przypadków ze względu na karnację osoby lub światło padające na twarz, może to spowodować stronniczość. I wreszcie, jeśli Twoje przykładowe dane nie są prawdziwą reprezentacją całej populacji, stronniczość jest nieunikniona.

XAI ma na celu zbadanie, w jaki sposób podejmowane są decyzje dotyczące czarnych skrzynek systemów AI. Sprawdza i próbuje zrozumieć kroki i modele związane z podejmowaniem decyzji. Odpowiada na kluczowe pytania, takie jak: Dlaczego system AI dokonał konkretnej prognozy lub decyzji? Dlaczego system AI nie zrobił czegoś innego? Kiedy system AI odniósł sukces, a kiedy porażkę? Kiedy systemy AI dają wystarczającą pewność decyzji, że można jej zaufać i w jaki sposób system AI może korygować błędy?

 

Wyjaśnialna, przewidywalna i identyfikowalna sztuczna inteligencja

Jednym ze sposobów uzyskania wyjaśnialności systemów sztucznej inteligencji jest użycie algorytmów uczenia maszynowego, które z natury są wyjaśnialne. Na przykład prostsze formy uczenia maszynowego, takie jak drzewa decyzyjne, klasyfikatory Bayesa i inne algorytmy, które zapewniają pewną identyfikowalność i przejrzystość w podejmowaniu decyzji. Mogą zapewnić widoczność potrzebną dla krytycznych systemów AI bez poświęcania zbyt dużej wydajności i dokładności.

Dostrzegając potrzebę wyjaśnienia głębokiego uczenia się i innych bardziej złożonych podejść algorytmicznych, amerykańska Agencja Zaawansowanych Projektów Badawczych w dziedzinie Obronności (DARPA) podejmuje wysiłki mające na celu opracowywać zrozumiałe rozwiązania w zakresie sztucznej inteligencji w ramach szeregu finansowanych inicjatyw badawczych. DARPA opisuje wyjaśnialność sztucznej inteligencji w trzech częściach, które obejmują: dokładność przewidywania, co oznacza, że ​​modele wyjaśnią, w jaki sposób wyciąga się wnioski w celu usprawnienia przyszłego procesu decyzyjnego; zrozumienie decyzji i zaufanie od użytkowników i operatorów, a także kontrola i identyfikowalność działań podejmowane przez systemy AI.

Identyfikowalność umożliwi ludziom wejście w pętle decyzyjne sztucznej inteligencji i umożliwi zatrzymanie lub kontrolowanie jej zadań, gdy tylko zajdzie taka potrzeba. Oczekuje się, że system sztucznej inteligencji nie tylko wykona określone zadanie lub narzuci decyzje, ale także zapewni przejrzysty raport wyjaśniający, dlaczego podjął określone decyzje, wraz z uzasadnieniem.

Standaryzacja algorytmów, a nawet podejść XAI nie jest obecnie możliwa, ale z pewnością możliwa byłaby standaryzacja poziomów przejrzystości/poziomów wyjaśnialności. Organizacje normalizacyjne próbują dojść do wspólnego, standardowego zrozumienia tych poziomów przejrzystości, aby ułatwić komunikację między użytkownikami końcowymi a dostawcami technologii.

Ponieważ rządy, instytucje, przedsiębiorstwa i ogół społeczeństwa zaczynają uzależniać się od systemów opartych na sztucznej inteligencji, zdobycie ich zaufania poprzez większą przejrzystość procesu decyzyjnego będzie miało fundamentalne znaczenie. Rozpoczęcie pierwszej globalnej konferencji poświęconej wyłącznie XAI, Międzynarodowej Wspólnej Konferencji na temat sztucznej inteligencji: Warsztaty na temat wyjaśnialnej sztucznej inteligencji, jest kolejnym dowodem na to, że nadeszła era XAI.

Balakrishna, popularnie znany jako Bali DR, jest dyrektorem ds. sztucznej inteligencji i automatyzacji w firmie Infosys gdzie kieruje zarówno automatyzacją wewnętrzną dla Infosys, jak i świadczy niezależne usługi automatyzacji, wykorzystując produkty dla klientów. Bali współpracuje z Infosys od ponad 25 lat i zajmował stanowiska związane ze sprzedażą, zarządzaniem programami i dostawami w różnych lokalizacjach geograficznych i branżach.