Connect with us

Jak AI wyjaśnialne buduje zaufanie i odpowiedzialność

Liderzy opinii

Jak AI wyjaśnialne buduje zaufanie i odpowiedzialność

mm

Przedsiębiorstwa już wcześniej w pełni zaangażowały się w wdrożenie sztucznej inteligencji, rywalizując o wdrożenie chatbotów, generatorów treści i narzędzi wspomagających decyzje we wszystkich obszarach swojej działalności. Według McKinsey, 78% firm używa sztucznej inteligencji w co najmniej jednej funkcji biznesowej.

Szał wdrożeń jest zrozumiały — wszyscy widzą potencjalną wartość. Ale w tym pośpiechu wiele organizacji pomija fakt, że wszystkie technologie oparte na sieciach neuronowych, w tym każdy system LLM i generatywny system sztucznej inteligencji używany dzisiaj i w przewidywalnej przyszłości, mają znaczącą wadę: są nieprzewidywalne i ostatecznie niekontrolowalne.

Jak niektórzy się dowiedzieli, może to mieć prawdziwe konsekwencje. W jednym dealachu Chevroleta, który wdrożył chatbota na swojej stronie internetowej, klient przekonał chatbota zasilanego przez ChatGPT do sprzedaży mu Chevroleta Tahoe za tylko 1 dolar. Inny klient poprosił tego samego chatbota o napisanie skryptu Pythona dla złożonych równań dynamiki płynów, co zrobił z radością. Dealern miał szybko wyłączyć boty po tym, jak te incydenty stały się virale.

W zeszłym roku Air Canada przegrało w sądzie najniższej instancji, gdy twierdziło, że jego chatbot, który dał pasażerowi nieprawidłowe informacje o zniżce z powodu śmierci, „jest odrębną jednostką prawną odpowiedzialną za swoje własne działania”.

Ta nieprzewidywalność wynika z podstawowej architektury LLM. Są tak duże i złożone, że nie można zrozumieć, jak dochodzą do konkretnych odpowiedzi lub przewidzieć, co wygenerują, dopóki nie wyprodukują wyjścia. Większość organizacji odpowiada na ten problem niezawodności bez pełnego rozpoznania go.

Rozsądkowe rozwiązanie polega na sprawdzaniu wyników sztucznej inteligencji ręcznie, co działa, ale dramatycznie ogranicza potencjał tej technologii. Gdy sztuczna inteligencja jest ograniczona do bycia osobistym asystentem — tworzenia tekstu, prowadzenia notatek z spotkań, podsumowywania dokumentów i pomocy w kodowaniu — dostarcza skromne zyski produktywności. Nie wystarczająco, aby rewolucjonizować gospodarkę.

Prawdziwe korzyści sztucznej inteligencji pojawią się, gdy przestaniemy używać jej do wspomagania istniejących prac i zamiast tego przeprojektujemy całe procesy, systemy i firmy, aby używać sztucznej inteligencji bez udziału ludzi na każdym etapie. Rozważmy proces obsługi kredytów: jeśli bank daje oficerom kredytowym asystenta sztucznej inteligencji, aby podsumować wnioski, mogą pracować 20-30% szybciej. Ale wdrożenie sztucznej inteligencji do obsługi całego procesu decyzyjnego (z odpowiednimi zabezpieczeniami) mogłoby obniżyć koszty o ponad 90% i wyeliminować prawie cały czas przetwarzania. To jest różnica między stopniową poprawą a transformacją.

Ścieżka do niezawodnego wdrożenia sztucznej inteligencji

Wykorzystanie pełnego potencjału sztucznej inteligencji bez ulegania jej nieprzewidywalności wymaga wyrafinowanego połączenia podejść technicznych i strategicznego myślenia. Chociaż kilka obecnych metod oferuje częściowe rozwiązania, każda z nich ma znaczące ograniczenia.

Niektóre organizacje próbują łagodzić problemy niezawodności poprzez systemowe „nudowanie” — delikatne kierowanie zachowaniem sztucznej inteligencji w pożądanych kierunkach, aby odpowiadała w określony sposób na pewne dane wejściowe. Badacze z Anthropic wykazali kruchność tego podejścia, identyfikując „cechę Golden Gate Bridge” w sieci neuronowej Claude i, poprzez sztuczne wzmocnienie jej, spowodowali, że Claude rozwinął kryzys tożsamości. Gdy zapytano go o jego fizyczną postać, zamiast przyznać, że nie ma jej, Claude twierdził, że jest mostem Golden Gate. Ten eksperyment ujawnił, jak łatwo można zmienić podstawowe funkcjonowanie modelu i że każde „nudowanie” reprezentuje kompromis, potencjalnie poprawiając jeden aspekt wydajności, jednocześnie degradując inne.

Inne podejście polega na tym, aby sztuczna inteligencja monitorowała inną sztuczną inteligencję. Chociaż ten warstwowy podejście może wyłapać niektóre błędy, wprowadza dodatkową złożoność i nadal nie osiąga kompleksowej niezawodności. Twardo zakodowane „barierki ochronne” to bardziej bezpośrednia interwencja, jak blokowanie odpowiedzi zawierających określone słowa kluczowe lub wzorce, takie jak składniki prekursorowe broni. Chociaż skuteczne przeciwko znanym problemom, te barierki nie mogą przewidzieć nowych, problematycznych wyników, które pojawiają się z tych złożonych systemów.

Bardziej skuteczne podejście polega na budowaniu procesów zorientowanych na sztuczną inteligencję, które mogą działać autonomicznie, z ludzkim nadzorem strategicznie umieszczonym, aby wyłapać problemy niezawodności, zanim spowodują prawdziwe problemy w świecie rzeczywistym. Nie chciałbyś, aby sztuczna inteligencja bezpośrednio zatwierdzała lub odrzucała wnioski o kredyt, ale sztuczna inteligencja mogłaby przeprowadzić wstępną ocenę dla operatorów ludzkich do przeglądu. To może działać, ale opiera się na ludzkiej czujności, aby wyłapać błędy sztucznej inteligencji, i podważa potencjalne zyski wydajności z użycia sztucznej inteligencji.

Budowanie przyszłości

Te częściowe rozwiązania wskazują na bardziej kompleksowe podejście. Organizacje, które fundamentalnie przebudowują sposób, w jaki wykonują swoją pracę, zamiast po prostu uzupełniać istniejące procesy o pomoc sztucznej inteligencji, uzyskają największą przewagę. Ale sztuczna inteligencja nigdy nie powinna być ostatnim krokiem w procesie o wysokich stawkach lub decyzji, więc jaka jest najlepsza ścieżka do przodu?

Po pierwsze, sztuczna inteligencja buduje powtarzalny proces, który niezawodnie i przejrzyście dostarczy spójnych wyników. Po drugie, ludzie przeglądają proces, aby upewnić się, że rozumieją, jak on działa i że dane wejściowe są odpowiednie. Wreszcie, proces działa autonomicznie — bez użycia sztucznej inteligencji — z okazjonalnym przeglądem wyników przez ludzi.

Rozważmy przemysł ubezpieczeniowy. Konwencjonalne podejście mogłoby dodać asystentów sztucznej inteligencji, aby pomóc procesorom roszczeń pracować bardziej wydajnie. Bardziej rewolucyjne podejście użyłoby sztucznej inteligencji do opracowania nowych narzędzi — takich jak analiza zdjęć uszkodzeń za pomocą widzenia komputerowego lub ulepszone modele wykrywania oszustw, które identyfikują podejrzane wzorce — i połączyło te narzędzia w zautomatyzowane systemy zarządzane przez jasne, zrozumiałe reguły. Ludzie projektowaliby i monitorowaliby te systemy, zamiast przetwarzać poszczególne roszczenia.

To podejście utrzymuje nadzór ludzki na krytycznym etapie, gdzie ma to największe znaczenie: projekcie i walidacji samego systemu. Pozwala na wykładnicze zyski wydajności, jednocześnie eliminując ryzyko, że nieprzewidywalność sztucznej inteligencji doprowadzi do szkodliwych skutków w poszczególnych przypadkach.

Sztuczna inteligencja mogłaby na przykład zidentyfikować potencjalne wskaźniki zdolności do spłaty kredytu w danych transakcyjnych. Eksperci ludzcy mogliby następnie ocenić te wskaźniki pod kątem uczciwości i zbudować jawne, zrozumiałe modele, aby potwierdzić ich moc predykcyjną.

To podejście do sztucznej inteligencji wyjaśnialnej stworzy wyraźną granicę między organizacjami, które używają sztucznej inteligencji powierzchownie, a tymi, które przekształcają swoje operacje wokół niej. Te ostatnie będą coraz bardziej wyprzedzać swoich konkurentów w branży, będąc w stanie oferować produkty i usługi po cenach, których ich konkurenci nie są w stanie dorównać.

W przeciwieństwie do czarnej skrzynki sztucznej inteligencji, systemy sztucznej inteligencji wyjaśnialnej zapewniają, że ludzie utrzymują znaczący nadzór nad zastosowaniem tej technologii, tworząc przyszłość, w której sztuczna inteligencja uzupełnia ludzki potencjał, zamiast po prostu zastępować ludzką pracę.

Jamie Twiss jest doświadczonym bankierem i naukowcem danych, który pracuje na styku nauki o danych, sztucznej inteligencji i pożyczek konsumenckich. Obecnie pełni funkcję Dyrektora Generalnego Carrington Labs, wiodącego dostawcy wyjaśnialnych rozwiązań do oceny ryzyka kredytowego i pożyczek opartych na sztucznej inteligencji. Wcześniej był Dyrektorem ds. Danych w dużym australijskim banku. Przedtem pracował na różnych stanowiskach w bankowości i usługach finansowych, rozpoczynając swoją karierę jako konsultant w firmie McKinsey & Company.