- Terminologia (A do D)
- Kontrola zdolności AI
- Operacje AI
- Albumentacje
- Wydajność aktywów
- Autokoder
- Propagacja wsteczna
- Twierdzenie Bayesa
- Big Data
- Chatbot: przewodnik dla początkujących
- Myślenie obliczeniowe
- Wizja komputerowa
- Macierz zamieszania
- Konwolucyjne sieci neuronowe
- Bezpieczeństwo cybernetyczne
- Tkanina danych
- Opowiadanie historii
- Nauka danych
- Magazyn danych
- Drzewo decyzyjne
- Deepfakes
- głęboki Learning
- Uczenie się o głębokim wzmocnieniu
- DevOps
- DevSecOps
- Modele dyfuzyjne
- Cyfrowy bliźniak
- Redukcja wymiarowości
- Terminologia (E do K)
- Sztuczna inteligencja
- Emocje AI
- Nauka zespołowa
- Etyczne hakowanie
- ETL
- Wytłumaczalne AI
- Sfederowane uczenie się
- FinOps
- generatywna sztuczna inteligencja
- Generatywna sieć przeciwników
- Generatywny a dyskryminacyjny
- Wzmocnienie gradientu
- Gradientowe zejście
- Nauka kilku strzałów
- Klasyfikacja obrazu
- Operacje IT (ITops)
- Automatyzacja incydentów
- Inżynieria wpływu
- Klastrowanie K-średnich
- K-Najbliżsi sąsiedzi
- Terminologia (od L do Q)
- Terminologia (od R do Z)
- Uczenie się ze wzmocnieniem
- Odpowiedzialna sztuczna inteligencja
- RLHF
- Automatyzacja procesów robotycznych
- Strukturalne vs niestrukturalne
- Analiza sentymentów
- Nadzorowany kontra bez nadzoru
- Wsparcie maszyn wektorowych
- Dane syntetyczne
- Media syntetyczne
- Klasyfikacja tekstu
- TinyML
- Przenieś naukę
- Transformatorowe sieci neuronowe
- Test Turinga
- Wyszukiwanie podobieństwa wektorów
AI 101
Co to jest wytłumaczalna sztuczna inteligencja?
Spis treści
W miarę jak sztuczna inteligencja (AI) staje się coraz bardziej złożona i powszechnie stosowana w społeczeństwie, jeden z najważniejszych zestawów procesów i metod jest wyjaśnialny (AI), czasami nazywany XAI.
Wyjaśnialną sztuczną inteligencję można zdefiniować jako:
- Zestaw procesów i metod, które pomagają użytkownikom zrozumieć wyniki algorytmów uczenia maszynowego i zaufać im.
Jak można się domyślić, ta możliwość wyjaśnienia jest niezwykle ważna, ponieważ algorytmy sztucznej inteligencji przejmują kontrolę nad wieloma sektorami, co wiąże się z ryzykiem stronniczości, błędnych algorytmów i innych problemów. Osiągając przejrzystość i łatwość wyjaśnienia, świat może naprawdę wykorzystać moc sztucznej inteligencji.
Wyjaśnialna sztuczna inteligencja, jak sama nazwa wskazuje, pomaga opisać model sztucznej inteligencji, jej wpływ i potencjalne błędy. Odgrywa również rolę w charakteryzowaniu dokładności, uczciwości, przejrzystości i wyników modelu w procesach decyzyjnych opartych na sztucznej inteligencji.
Dzisiejsze organizacje działające w oparciu o sztuczną inteligencję powinny zawsze stosować zrozumiałe procesy sztucznej inteligencji, aby pomóc w budowaniu zaufania do modeli sztucznej inteligencji w środowisku produkcyjnym. Wyjaśnialna sztuczna inteligencja jest również kluczem do stania się odpowiedzialną firmą w dzisiejszym środowisku sztucznej inteligencji.
Ponieważ dzisiejsze systemy sztucznej inteligencji są tak zaawansowane, ludzie zwykle przeprowadzają proces obliczeniowy, aby odtworzyć, w jaki sposób algorytm doszedł do wyniku. Proces ten staje się „czarną skrzynką”, co oznacza, że nie da się go zrozumieć. Kiedy te niewytłumaczalne modele są opracowywane bezpośrednio na podstawie danych, nikt nie jest w stanie zrozumieć, co się w nich dzieje.
Rozumiejąc, jak systemy AI działają dzięki zrozumiałej sztucznej inteligencji, programiści mogą zapewnić, że system działa tak, jak powinien. Może również pomóc w zapewnieniu, że model spełnia standardy regulacyjne, a także zapewnia możliwość zakwestionowania lub zmiany modelu.
Różnice między AI i XAI
Niektóre kluczowe różnice pomagają oddzielić „zwykłą” sztuczną inteligencję od możliwej do wyjaśnienia sztucznej inteligencji, ale co najważniejsze, XAI wdraża określone techniki i metody, które pomagają zapewnić identyfikowalność i wyjaśnienie każdej decyzji w procesie ML. Dla porównania, zwykła sztuczna inteligencja zwykle uzyskuje wynik za pomocą algorytmu ML, ale nie można w pełni zrozumieć, w jaki sposób algorytm doszedł do wyniku. W przypadku zwykłej sztucznej inteligencji niezwykle trudno jest sprawdzić jej dokładność, co skutkuje utratą kontroli, odpowiedzialności i możliwości audytu.
Korzyści z wyjaśnialnej sztucznej inteligencji
Każda organizacja chcąca wdrożyć wyjaśnialną sztuczną inteligencję ma wiele korzyści, takich jak:
- Szybsze wyniki: Wyjaśnialna sztuczna inteligencja umożliwia organizacjom systematyczne monitorowanie modeli i zarządzanie nimi w celu optymalizacji wyników biznesowych. Możliwe jest ciągłe ocenianie i ulepszanie wydajności modelu oraz dostrajanie jego rozwoju.
- Ogranicz ryzyko: Przyjmując wyjaśnialne procesy AI, masz pewność, że Twoje modele AI są zrozumiałe i przejrzyste. Możesz zarządzać przepisami, zgodnością, ryzykiem i innymi wymaganiami, minimalizując jednocześnie obciążenie związane z ręczną inspekcją. Wszystko to pomaga również ograniczyć ryzyko niezamierzonej stronniczości.
- Budować zaufanie: Wyjaśnialna sztuczna inteligencja pomaga budować zaufanie do produkcyjnej sztucznej inteligencji. Modele AI można szybko wprowadzić do produkcji, można zapewnić interpretację i wyjaśnialność, a proces oceny modelu można uprościć i uczynić bardziej przejrzystym.
Techniki wyjaśnialnej sztucznej inteligencji
Istnieje kilka technik XAI, które powinna rozważyć każda organizacja. Składają się one z trzech głównych metod: dokładność prognozy, śledzenie historii, zrozumienie decyzji.
Pierwsza z trzech metod, dokładność prognozy, jest niezbędne, aby skutecznie wykorzystywać sztuczną inteligencję w codziennych operacjach. Można przeprowadzać symulacje, a wyniki XAI można porównać z wynikami w zestawie danych szkoleniowych, co pomaga określić dokładność przewidywań. Jedną z bardziej popularnych technik umożliwiających osiągnięcie tego celu są lokalne interpretowalne wyjaśnienia niezależne od modelu (LIME), technika wyjaśniająca przewidywanie klasyfikatorów przez algorytm uczenia maszynowego.
Druga metoda to śledzenie historii, co osiąga się poprzez ograniczenie sposobu podejmowania decyzji, a także ustanowienie węższego zakresu reguł i funkcji uczenia maszynowego. Jedną z najpowszechniejszych technik identyfikowalności jest DeepLIFT, czyli ważne funkcje głębokiego uczenia się. DeepLIFT porównuje aktywację każdego neuronu z neuronem referencyjnym, demonstrując jednocześnie możliwe do prześledzenia powiązanie pomiędzy każdym aktywowanym neuronem. Pokazuje także zależności pomiędzy nimi.
Trzecia i ostatnia metoda to zrozumienie decyzji, która w przeciwieństwie do pozostałych dwóch metod koncentruje się na człowieku. Rozumienie decyzji obejmuje edukację organizacji, a w szczególności zespołu pracującego z sztuczną inteligencją, aby umożliwić im zrozumienie, w jaki sposób i dlaczego sztuczna inteligencja podejmuje decyzje. Metoda ta jest kluczowa dla budowania zaufania do systemu.
Wyjaśnialne zasady sztucznej inteligencji
Aby zapewnić lepsze zrozumienie XAI i jego zasad, Narodowy Instytut Standardów (NIST), będący częścią Departamentu Handlu Stanów Zjednoczonych, podaje definicje czterech zasad wyjaśnialnej sztucznej inteligencji:
- System sztucznej inteligencji powinien dostarczać dowodów, wsparcia lub uzasadnienia dla każdego wyniku.
- System sztucznej inteligencji powinien udzielać wyjaśnień zrozumiałych dla jego użytkowników.
- Wyjaśnienie powinno dokładnie odzwierciedlać proces stosowany przez system w celu uzyskania wyniku.
- System sztucznej inteligencji powinien działać wyłącznie w warunkach, dla których został zaprojektowany, i nie powinien generować wyników, jeśli nie ma wystarczającej pewności co do wyniku.
Zasady te można jeszcze bardziej podzielić na:
- Znaczący: Aby osiągnąć zasadę sensowności, użytkownik powinien zrozumieć dostarczone wyjaśnienie. Może to również oznaczać, że w przypadku korzystania z algorytmu sztucznej inteligencji przez różnych typów użytkowników może być kilka wyjaśnień. Na przykład w przypadku samochodu autonomicznego jedno z wyjaśnień może być następujące: „Sztuczna inteligencja sklasyfikowała plastikową torbę na drodze jako kamień i dlatego podjęła działania, aby w nią nie uderzyć”. Chociaż ten przykład zadziałałby w przypadku sterownika, nie byłby zbyt przydatny dla programisty AI, który chce rozwiązać problem. W takim przypadku deweloper musi zrozumieć, dlaczego nastąpiła błędna klasyfikacja.
- Dokładność wyjaśnienia: W przeciwieństwie do dokładności wyjściowej, dokładność wyjaśniania polega na tym, że algorytm AI dokładnie wyjaśnia, w jaki sposób osiągnął swój wynik. Na przykład, jeśli algorytm zatwierdzania kredytu wyjaśnia decyzję na podstawie dochodów wynikających z wniosku, podczas gdy w rzeczywistości została ona oparta na miejscu zamieszkania wnioskodawcy, wyjaśnienie byłoby niedokładne.
- Ograniczenia wiedzy: Granice wiedzy sztucznej inteligencji można osiągnąć na dwa sposoby, a polega to na tym, że dane wejściowe wykraczają poza wiedzę specjalistyczną systemu. Na przykład, jeśli zbudowano system klasyfikacji gatunków ptaków i podano mu zdjęcie jabłka, powinien on być w stanie wyjaśnić, że dane wejściowe nie są ptakiem. Jeżeli system otrzyma niewyraźny obraz, powinien być w stanie zgłosić, że nie jest w stanie zidentyfikować ptaka na obrazie, lub alternatywnie, że jego identyfikacja jest bardzo mała.
Rola danych w wyjaśnialnej sztucznej inteligencji
Dane są jednym z najważniejszych elementów dającej się wyjaśnić sztucznej inteligencji.
Zgodnie z Google, jeśli chodzi o dane i dającą się wyjaśnić sztuczną inteligencję, „system sztucznej inteligencji najlepiej zrozumieć na podstawie leżących u jego podstaw danych szkoleniowych i procesu szkoleniowego, a także wynikającego z nich modelu sztucznej inteligencji”. Zrozumienie tego zależy od możliwości odwzorowania wytrenowanego modelu sztucznej inteligencji na dokładny zbiór danych użyty do jego wytrenowania, a także od możliwości dokładnego zbadania danych.
Aby zwiększyć wyjaśnialność modelu, należy zwrócić uwagę na dane uczące. Zespoły powinny określić pochodzenie danych wykorzystywanych do uczenia algorytmu, legalność i etykę związaną z jego uzyskaniem, wszelkie potencjalne błędy w danych oraz to, co można zrobić, aby złagodzić wszelkie błędy.
Innym krytycznym aspektem danych i XAI jest to, że należy wykluczyć dane nieistotne dla systemu. Aby to osiągnąć, nie wolno włączać nieistotnych danych do zbioru uczącego ani do danych wejściowych.
Google zalecił zestaw praktyk zapewniających możliwość interpretacji i odpowiedzialności:
- Zaplanuj swoje opcje, aby dążyć do interpretacji
- Traktuj interpretowalność jako kluczową część doświadczenia użytkownika
- Zaprojektuj model tak, aby był możliwy do interpretacji
- Wybierz metryki odzwierciedlające cel końcowy i zadanie końcowe
- Zrozumienie przeszkolonego modelu
- Przekazuj wyjaśnienia użytkownikom modelu
- Przeprowadź wiele testów, aby upewnić się, że system AI działa zgodnie z oczekiwaniami
Postępując zgodnie z tymi zalecanymi praktykami, Twoja organizacja może mieć pewność, że osiągnie wyjaśnioną sztuczną inteligencję, która w dzisiejszym środowisku jest kluczem dla każdej organizacji opartej na sztucznej inteligencji.
Alex McFarland jest dziennikarzem i pisarzem zajmującym się sztuczną inteligencją badającym najnowsze osiągnięcia w dziedzinie sztucznej inteligencji. Współpracował z wieloma startupami i publikacjami AI na całym świecie.