Connect with us

Liderzy opinii

Gdy AI wkracza w operacje, wyjaśnialność staje się niezbędna

mm

Przyjęcie sztucznej inteligencji w przedsiębiorstwach wkroczyło w bardziej pragmatyczną fazę. Dla liderów technologicznych wyzwaniem nie jest już przekonywanie organizacji, że sztuczna inteligencja ma potencjał. Chodzi o to, by systemy wpływające na decyzje operacyjne były zrozumiałe, zarządzalne i bronione.

Sztuczna inteligencja uzyskuje swoje miejsce w przedsiębiorstwie, gdy ludzie są skłonni na nią polegać. To zaufanie nie opiera się wyłącznie na statystykach wydajności. Zależy od tego, czy zespoły czują, że zachowują kontrolę, gdy automatyzacja staje się częścią codziennych przepływów pracy.

W wielu organizacjach ten poczucie kontroli pozostaje niepewne.

Dlaczego nieprzezroczystość spowalnia przyjęcie

Sztuczna inteligencja jest teraz wbudowana w operacje IT, od routingu żądań usługi do korelacji incydentów i planowania pojemności. Są to środowiska, w których decyzje są wzajemnie powiązane, a błędy eskalują szybko. Gdy dane wyjściowe sztucznej inteligencji pojawiają się bez kontekstu, zespoły często wahają się. Automatyzacja może być technicznie wdrożona, ale jej zalecenia są sprawdzane, opóźnione lub dyskretnie odsunięte na bok.

To zachowanie jest często mylone z oporem przed zmianą. W rzeczywistości odzwierciedla ono profesjonalną odpowiedzialność w środowiskach operacyjnych o wysokim ryzyku. Publiczne przykłady awarii sztucznej inteligencji zwiększyły tę ostrożność. Gdy automatyczne systemy generują dane wyjściowe, które wydają się pewne, ale okazują się błędne, szkoda rzadko jest spowodowana wyłącznie ambicją. Wynika ona z nieprzezroczystości. Jeśli nikt nie może wyjaśnić, w jaki sposób doszło do wniosku, zaufanie jest niszczone, nawet jeśli system jest zwykle dokładny.

W zespołach IT manifestuje się to w sposób subtelny. Automatyzacja działa w trybie doradczym, a nie wykonawczym. Inżynierowie pozostają odpowiedzialni za wyniki, ale oczekuje się, że zaufają rozumowaniu, którego nie mogą zinspekcjonować. Z czasem ten brak równowagi tworzy tarcie. Sztuczna inteligencja jest obecna, ale jej wartość jest ograniczona.

Przezroczysty proces sztucznej inteligencji

Większa przezroczystość i wyjaśnialność mogą rozwiązać ten problem, przywracając odpowiedzialność w podejmowaniu decyzji automatycznych. Wyjaśnialna sztuczna inteligencja nie oznacza ujawniania każdego wewnętrznego obliczenia. Oznacza to dostarczanie wglądu, który jest istotny dla operatorów ludzkich; które dane wpłynęły na decyzję, które warunki miały największy ciężar, i jak oceniano poziomy ufności. Ten kontekst pozwala zespołom ocenić, czy dane wyjściowe są zgodne z rzeczywistością operacyjną.

Znana również jako sztuczna inteligencja białej skrzynki, wyjaśnialna sztuczna inteligencja tworzy rodzaj warstwy interpretacyjnej, wyjaśniającej, w jaki sposób podjęto decyzje sztucznej inteligencji, zamiast pozostawiać jej procesy i logikę ukryte przed wzrokiem. To nie tylko oznacza, że systemy sztucznej inteligencji mogą stać się częścią bardziej odpowiedzialnej ramy, ale także, że użytkownicy rozumieją, jak działa każdy system. Oznacza to również możliwość identyfikacji słabości modeli sztucznej inteligencji i zabezpieczenia przed uprzedzeniami.

Co więcej, wyjaśnialność oznacza, że gdy coś pójdzie nie tak, zespoły mogą śledzić ścieżkę rozumowania, zidentyfikować słabe sygnały i udoskonalić proces. Bez tej widoczności błędy są albo powtarzane, albo całkowicie unikane przez wyłączenie automatyzacji.

Wyjaśnialność w działaniu

Rozważmy zarządzanie incydentami. Sztuczna inteligencja jest często używana do grupowania alertów i sugerowania prawdopodobnych przyczyn. W dużych środowiskach przedsiębiorstw jeden błędnie sklasyfikowany zależność podczas dużego incydentu może opóźnić rozwiązanie o godziny, wciągając wiele zespołów do równoległych dochodzeń, podczas gdy usługi skierowane do klienta pozostają pogorszone. Gdy te sugestie są acompanhowane przez jasne wyjaśnienie, które systemy były zaangażowane, jak zależności zostały uzyskane lub które incydenty były odniesione, inżynierowie mogą szybko ocenić rekomendację. Jeśli okaże się, że jest to błędne, ten wgląd może być użyty do udoskonalenia zarówno modelu, jak i procesu.

Bez tej przejrzystości zespoły wracają do ręcznej diagnostyki, niezależnie od tego, jak zaawansowana jest sztuczna inteligencja.

Odpowiedzialność i własność

Wyjaśnialność również zmienia sposób, w jaki odpowiedzialność jest rozdzielana. W środowiskach operacyjnych odpowiedzialność nie znika tylko dlatego, że decyzja została zautomatyzowana. Ktoś musi nadal stać za wynikiem. Gdy sztuczna inteligencja może wyjaśnić się, odpowiedzialność staje się bardziej klarowna i zarządzalna. Decyzje mogą być przeglądane, uzasadnione i udoskonalone bez uciekania się do obronnych rozwiązań.

Istnieje również korzyść z zarządzania, choć rzadko jest to główny motywator wewnętrzny. Istniejące ramy ochrony danych i odpowiedzialności już wymagają od organizacji wyjaśniania zautomatyzowanych decyzji w określonych kontekstach. Gdy regulacje dotyczące sztucznej inteligencji będą nadal rozwijane, systemy, które nie mają przejrzystości, mogą narażać organizacje na niepotrzebne ryzyko.

Jednak większa wartość wyjaśnialności leży w odporności, a nie w zgodności. Zespoły, które rozumieją swoje systemy, szybciej się regenerują. Rozwiązują incydenty bardziej efektywnie i spędzają mniej czasu na debatach, czy automatyzacja powinna być ufana w pierwszej kolejności.

Projektowanie sztucznej inteligencji dla doskonałości operacyjnej

Inżynierowie są szkoleni do kwestionowania założeń, inspekcji zależności i testowania wyników. Gdy automatyzacja wspiera te instynkty, zamiast ich omijać, przyjęcie staje się współpracą i częścią procesu, a nie nałożoną strukturą.

Istnieje, nieuchronnie, koszt budowy systemów w ten sposób. Wyjaśnialna sztuczna inteligencja wymaga dyscyplinowanych praktyk danych, przemyślanych wyborów projektowych i wykwalifikowanego personelu, który może interpretować dane wyjściowe w sposób odpowiedzialny. Może nie skalować się tak szybko, jak nieprzezroczyste modele zoptymalizowane wyłącznie pod kątem prędkości lub nowości. Jednak zwrot z tej inwestycji jest stabilnością.

Organizacje, które priorytetowo traktują wyjaśnialność, widzą mniej zablokowanych inicjatyw i mniej podejmowania decyzji w ukryciu. Automatyzacja staje się godnym zaufania warstwą w ramach operacji, a nie równoległym eksperymentem prowadzonym w izolacji. Czas do wartości poprawia się nie dlatego, że systemy są szybsze, ale dlatego, że zespoły są skłonne je w pełni wykorzystywać.

Skalowanie odpowiedzialnie

Gdy sztuczna inteligencja staje się stałym elementem infrastruktury przedsiębiorstwa, sukces będzie określany mniej ambicją, a bardziej niezawodnością. Systemy, które mogą wyjaśnić swoje decyzje, są łatwiejsze do zaufania, łatwiejsze do udoskonalenia i łatwiejsze do poparcia, gdy wyniki są kwestionowane.

W środowiskach operacyjnych inteligencja skaluje się tylko wtedy, gdy zrozumienie idzie w parze z automatyzacją.

VimalRaj Sampathkumar, Technical Head - UK & Ireland, ManageEngine, jest menadżerem ds. przedsprzedaży i strategicznych rachunków z 13-letnim doświadczeniem w sprzedaży technicznej, zarządzaniu rachunkami i sukcesie klienta. Ma głęboką wiedzę techniczną w zakresie konsultacji i wdrażania aplikacji ITSM, ITOM, SIEM, zarządzania punktami końcowymi, CRM, ATS i HCM/HRIS na całym świecie. Jego specjalność polega na zwiększaniu przychodu i udziału w rynku poprzez dostarczanie rozwiązań ukierunkowanych na klienta, demonstrację wartości produktu oraz budowanie podstawy dla lojalnych, długoterminowych relacji z klientami. W wolnym czasie lubi grać w krykieta, czytać i podróżować.