stub Czym jest wyjaśnialna sztuczna inteligencja? - Unite.AI
Kontakt z nami
Kurs mistrzowski AI:

AI 101

Co to jest wytłumaczalna sztuczna inteligencja?

Zaktualizowano on
Zdjęcie: DeepMind na Unsplash

W miarę jak sztuczna inteligencja (AI) staje się coraz bardziej złożona i powszechnie stosowana w społeczeństwie, jeden z najważniejszych zestawów procesów i metod jest wyjaśnialny (AI), czasami nazywany XAI. 

Wyjaśnialną sztuczną inteligencję można zdefiniować jako:

  • Zestaw procesów i metod, które pomagają użytkownikom zrozumieć wyniki algorytmów uczenia maszynowego i zaufać im. 

Jak można się domyślić, ta możliwość wyjaśnienia jest niezwykle ważna, ponieważ algorytmy sztucznej inteligencji przejmują kontrolę nad wieloma sektorami, co wiąże się z ryzykiem stronniczości, błędnych algorytmów i innych problemów. Osiągając przejrzystość i łatwość wyjaśnienia, świat może naprawdę wykorzystać moc sztucznej inteligencji. 

Wyjaśnialna sztuczna inteligencja, jak sama nazwa wskazuje, pomaga opisać model sztucznej inteligencji, jej wpływ i potencjalne błędy. Odgrywa również rolę w charakteryzowaniu dokładności, uczciwości, przejrzystości i wyników modelu w procesach decyzyjnych opartych na sztucznej inteligencji. 

Dzisiejsze organizacje działające w oparciu o sztuczną inteligencję powinny zawsze stosować zrozumiałe procesy sztucznej inteligencji, aby pomóc w budowaniu zaufania do modeli sztucznej inteligencji w środowisku produkcyjnym. Wyjaśnialna sztuczna inteligencja jest również kluczem do stania się odpowiedzialną firmą w dzisiejszym środowisku sztucznej inteligencji.

Ponieważ dzisiejsze systemy sztucznej inteligencji są tak zaawansowane, ludzie zwykle przeprowadzają proces obliczeniowy, aby odtworzyć, w jaki sposób algorytm doszedł do wyniku. Proces ten staje się „czarną skrzynką”, co oznacza, że ​​nie da się go zrozumieć. Kiedy te niewytłumaczalne modele są opracowywane bezpośrednio na podstawie danych, nikt nie jest w stanie zrozumieć, co się w nich dzieje. 

Rozumiejąc, jak systemy AI działają dzięki zrozumiałej sztucznej inteligencji, programiści mogą zapewnić, że system działa tak, jak powinien. Może również pomóc w zapewnieniu, że model spełnia standardy regulacyjne, a także zapewnia możliwość zakwestionowania lub zmiany modelu. 

Zdjęcie: dr Matt Turek/DARPA

Różnice między AI i XAI

Niektóre kluczowe różnice pomagają oddzielić „zwykłą” sztuczną inteligencję od możliwej do wyjaśnienia sztucznej inteligencji, ale co najważniejsze, XAI wdraża określone techniki i metody, które pomagają zapewnić identyfikowalność i wyjaśnienie każdej decyzji w procesie ML. Dla porównania, zwykła sztuczna inteligencja zwykle uzyskuje wynik za pomocą algorytmu ML, ale nie można w pełni zrozumieć, w jaki sposób algorytm doszedł do wyniku. W przypadku zwykłej sztucznej inteligencji niezwykle trudno jest sprawdzić jej dokładność, co skutkuje utratą kontroli, odpowiedzialności i możliwości audytu. 

Korzyści z wyjaśnialnej sztucznej inteligencji 

Każda organizacja chcąca wdrożyć wyjaśnialną sztuczną inteligencję ma wiele korzyści, takich jak: 

  • Szybsze wyniki: Wyjaśnialna sztuczna inteligencja umożliwia organizacjom systematyczne monitorowanie modeli i zarządzanie nimi w celu optymalizacji wyników biznesowych. Możliwe jest ciągłe ocenianie i ulepszanie wydajności modelu oraz dostrajanie jego rozwoju.
  • Ogranicz ryzyko: Przyjmując wyjaśnialne procesy AI, masz pewność, że Twoje modele AI są zrozumiałe i przejrzyste. Możesz zarządzać przepisami, zgodnością, ryzykiem i innymi wymaganiami, minimalizując jednocześnie obciążenie związane z ręczną inspekcją. Wszystko to pomaga również ograniczyć ryzyko niezamierzonej stronniczości. 
  • Budować zaufanie: Wyjaśnialna sztuczna inteligencja pomaga budować zaufanie do produkcyjnej sztucznej inteligencji. Modele AI można szybko wprowadzić do produkcji, można zapewnić interpretację i wyjaśnialność, a proces oceny modelu można uprościć i uczynić bardziej przejrzystym. 

Techniki wyjaśnialnej sztucznej inteligencji

Istnieje kilka technik XAI, które powinna rozważyć każda organizacja. Składają się one z trzech głównych metod: dokładność prognozy, śledzenie historii, zrozumienie decyzji

Pierwsza z trzech metod, dokładność prognozy, jest niezbędne, aby skutecznie wykorzystywać sztuczną inteligencję w codziennych operacjach. Można przeprowadzać symulacje, a wyniki XAI można porównać z wynikami w zestawie danych szkoleniowych, co pomaga określić dokładność przewidywań. Jedną z bardziej popularnych technik umożliwiających osiągnięcie tego celu są lokalne interpretowalne wyjaśnienia niezależne od modelu (LIME), technika wyjaśniająca przewidywanie klasyfikatorów przez algorytm uczenia maszynowego. 

Druga metoda to śledzenie historii, co osiąga się poprzez ograniczenie sposobu podejmowania decyzji, a także ustanowienie węższego zakresu reguł i funkcji uczenia maszynowego. Jedną z najpowszechniejszych technik identyfikowalności jest DeepLIFT, czyli ważne funkcje głębokiego uczenia się. DeepLIFT porównuje aktywację każdego neuronu z neuronem referencyjnym, demonstrując jednocześnie możliwe do prześledzenia powiązanie pomiędzy każdym aktywowanym neuronem. Pokazuje także zależności pomiędzy nimi. 

Trzecia i ostatnia metoda to zrozumienie decyzji, która w przeciwieństwie do pozostałych dwóch metod koncentruje się na człowieku. Rozumienie decyzji obejmuje edukację organizacji, a w szczególności zespołu pracującego z sztuczną inteligencją, aby umożliwić im zrozumienie, w jaki sposób i dlaczego sztuczna inteligencja podejmuje decyzje. Metoda ta jest kluczowa dla budowania zaufania do systemu. 

Wyjaśnialne zasady sztucznej inteligencji

Aby zapewnić lepsze zrozumienie XAI i jego zasad, Narodowy Instytut Standardów (NIST), będący częścią Departamentu Handlu Stanów Zjednoczonych, podaje definicje czterech zasad wyjaśnialnej sztucznej inteligencji: 

  1. System sztucznej inteligencji powinien dostarczać dowodów, wsparcia lub uzasadnienia dla każdego wyniku. 
  2. System sztucznej inteligencji powinien udzielać wyjaśnień zrozumiałych dla jego użytkowników. 
  3. Wyjaśnienie powinno dokładnie odzwierciedlać proces stosowany przez system w celu uzyskania wyniku. 
  4. System sztucznej inteligencji powinien działać wyłącznie w warunkach, dla których został zaprojektowany, i nie powinien generować wyników, jeśli nie ma wystarczającej pewności co do wyniku. 

Zasady te można jeszcze bardziej podzielić na: 

  • Znaczący: Aby osiągnąć zasadę sensowności, użytkownik powinien zrozumieć dostarczone wyjaśnienie. Może to również oznaczać, że w przypadku korzystania z algorytmu sztucznej inteligencji przez różnych typów użytkowników może być kilka wyjaśnień. Na przykład w przypadku samochodu autonomicznego jedno z wyjaśnień może być następujące: „Sztuczna inteligencja sklasyfikowała plastikową torbę na drodze jako kamień i dlatego podjęła działania, aby w nią nie uderzyć”. Chociaż ten przykład zadziałałby w przypadku sterownika, nie byłby zbyt przydatny dla programisty AI, który chce rozwiązać problem. W takim przypadku deweloper musi zrozumieć, dlaczego nastąpiła błędna klasyfikacja. 
  • Dokładność wyjaśnienia: W przeciwieństwie do dokładności wyjściowej, dokładność wyjaśniania polega na tym, że algorytm AI dokładnie wyjaśnia, w jaki sposób osiągnął swój wynik. Na przykład, jeśli algorytm zatwierdzania kredytu wyjaśnia decyzję na podstawie dochodów wynikających z wniosku, podczas gdy w rzeczywistości została ona oparta na miejscu zamieszkania wnioskodawcy, wyjaśnienie byłoby niedokładne. 
  • Ograniczenia wiedzy: Granice wiedzy sztucznej inteligencji można osiągnąć na dwa sposoby, a polega to na tym, że dane wejściowe wykraczają poza wiedzę specjalistyczną systemu. Na przykład, jeśli zbudowano system klasyfikacji gatunków ptaków i podano mu zdjęcie jabłka, powinien on być w stanie wyjaśnić, że dane wejściowe nie są ptakiem. Jeżeli system otrzyma niewyraźny obraz, powinien być w stanie zgłosić, że nie jest w stanie zidentyfikować ptaka na obrazie, lub alternatywnie, że jego identyfikacja jest bardzo mała. 

Rola danych w wyjaśnialnej sztucznej inteligencji

Dane są jednym z najważniejszych elementów dającej się wyjaśnić sztucznej inteligencji. 

Zgodnie z Google, jeśli chodzi o dane i dającą się wyjaśnić sztuczną inteligencję, „system sztucznej inteligencji najlepiej zrozumieć na podstawie leżących u jego podstaw danych szkoleniowych i procesu szkoleniowego, a także wynikającego z nich modelu sztucznej inteligencji”. Zrozumienie tego zależy od możliwości odwzorowania wytrenowanego modelu sztucznej inteligencji na dokładny zbiór danych użyty do jego wytrenowania, a także od możliwości dokładnego zbadania danych. 

Aby zwiększyć wyjaśnialność modelu, należy zwrócić uwagę na dane uczące. Zespoły powinny określić pochodzenie danych wykorzystywanych do uczenia algorytmu, legalność i etykę związaną z jego uzyskaniem, wszelkie potencjalne błędy w danych oraz to, co można zrobić, aby złagodzić wszelkie błędy. 

Innym krytycznym aspektem danych i XAI jest to, że należy wykluczyć dane nieistotne dla systemu. Aby to osiągnąć, nie wolno włączać nieistotnych danych do zbioru uczącego ani do danych wejściowych. 

Google zalecił zestaw praktyk zapewniających możliwość interpretacji i odpowiedzialności: 

  • Zaplanuj swoje opcje, aby dążyć do interpretacji
  • Traktuj interpretowalność jako kluczową część doświadczenia użytkownika
  • Zaprojektuj model tak, aby był możliwy do interpretacji
  • Wybierz metryki odzwierciedlające cel końcowy i zadanie końcowe
  • Zrozumienie przeszkolonego modelu
  • Przekazuj wyjaśnienia użytkownikom modelu
  • Przeprowadź wiele testów, aby upewnić się, że system AI działa zgodnie z oczekiwaniami 

Postępując zgodnie z tymi zalecanymi praktykami, Twoja organizacja może mieć pewność, że osiągnie wyjaśnioną sztuczną inteligencję, która w dzisiejszym środowisku jest kluczem dla każdej organizacji opartej na sztucznej inteligencji. 

 

Alex McFarland jest dziennikarzem i pisarzem zajmującym się sztuczną inteligencją badającym najnowsze osiągnięcia w dziedzinie sztucznej inteligencji. Współpracował z wieloma startupami i publikacjami AI na całym świecie.