stub Wyjaśnialność może rozwiązać problem sztucznej inteligencji każdej branży: brak przejrzystości – Unite.AI
Kontakt z nami

Liderzy myśli

Wyjaśnialność może rozwiązać problem sztucznej inteligencji każdej branży: brak przejrzystości

mm

Opublikowany

 on

Przez: Migüel Jetté, wiceprezes ds. badań i rozwoju, przemówienie, Obrót silnika.

Być może sztuczna inteligencja na swoich początkowych etapach mogła spocząć na laurach nowości. Uczenie maszynowe mogło uczyć się powoli i utrzymywać nieprzejrzysty proces, w którym obliczenia sztucznej inteligencji nie były w stanie przeniknąć przeciętnego konsumenta. To się zmienia. W miarę jak coraz więcej branż, takich jak opieka zdrowotna, finanse i wymiar sprawiedliwości w sprawach karnych, zaczyna wykorzystywać sztuczną inteligencję w sposób, który może mieć realny wpływ na życie ludzi, coraz więcej osób chce wiedzieć, w jaki sposób wykorzystywane są algorytmy, w jaki sposób pozyskiwane są dane i po prostu jak dokładne są jego możliwości. Jeśli firmy chcą pozostać w czołówce innowacji na swoich rynkach, muszą polegać na sztucznej inteligencji, której zaufają ich odbiorcy. Wyjaśnialność sztucznej inteligencji jest kluczowym elementem pogłębienia tej relacji.

Wyjaśnialność sztucznej inteligencji różni się od standardowych procedur sztucznej inteligencji, ponieważ umożliwia ludziom zrozumienie, w jaki sposób algorytmy uczenia maszynowego tworzą dane wyjściowe. Wyjaśnialna sztuczna inteligencja to system, który może zapewnić ludziom potencjalne wyniki i niedociągnięcia. To system uczenia maszynowego, który może spełnić bardzo ludzkie pragnienie uczciwości, odpowiedzialności i poszanowania prywatności. Wyjaśnialna sztuczna inteligencja jest niezbędna, aby firmy mogły budować zaufanie konsumentów.

Podczas gdy sztuczna inteligencja się rozwija, dostawcy sztucznej inteligencji muszą zrozumieć, że czarna skrzynka nie może tego zrobić. Modele czarnych skrzynek są tworzone bezpośrednio na podstawie danych i często nawet programista, który stworzył algorytm, nie jest w stanie określić, co kierowało wyuczonymi nawykami maszyny. Ale sumienny konsument nie chce zajmować się czymś tak nieprzeniknionym, że nie można go pociągnąć do odpowiedzialności. Ludzie chcą wiedzieć, w jaki sposób algorytm sztucznej inteligencji osiąga konkretny wynik bez tajemnicy dotyczącego źródła danych wejściowych i kontrolowanych wyników, zwłaszcza gdy błędne obliczenia sztucznej inteligencji często wynikają z błędu maszyny. W miarę jak sztuczna inteligencja staje się coraz bardziej zaawansowana, ludzie chcą mieć dostęp do procesu uczenia maszynowego, aby zrozumieć, w jaki sposób algorytm doszedł do określonego wyniku. Liderzy w każdej branży muszą zrozumieć, że prędzej czy później ludzie nie będą już preferować takiego dostępu, ale będą go żądać jako niezbędnego poziomu przejrzystości.

Szczególnie cenione są systemy ASR, takie jak asystenci obsługujący głos, technologia transkrypcji i inne usługi przekształcające mowę ludzką na tekst nękany uprzedzeniami. Gdy usługa jest wykorzystywana ze względów bezpieczeństwa, błędy wynikające z akcentu, wieku lub pochodzenia danej osoby mogą być poważnymi błędami, dlatego problem należy potraktować poważnie. ASR można skutecznie wykorzystać w kamerach policyjnych, na przykład do automatycznego nagrywania i transkrypcji interakcji, co pozwala na prowadzenie rejestru, który, jeśli zostanie dokładnie przepisany, może uratować życie. Praktyka wyjaśnialności będzie wymagać, aby sztuczna inteligencja nie polegała wyłącznie na zakupionych zbiorach danych, ale starała się zrozumieć charakterystykę przychodzącego dźwięku, która może przyczynić się do ewentualnych błędów. Jaki jest profil akustyczny? Czy w tle słychać hałas? Czy mówca pochodzi z kraju, w którym nie ma mowy o pierwszym języku angielskim, czy też z pokolenia posługującego się słownictwem, którego sztuczna inteligencja jeszcze się nie nauczyła? Uczenie maszynowe musi działać proaktywnie, przyspieszając uczenie się i może rozpocząć się od gromadzenia danych, które pozwolą uwzględnić te zmienne.

Konieczność staje się oczywista, ale droga do wdrożenia tej metodologii nie zawsze będzie prosta. Tradycyjną odpowiedzią na ten problem jest dodanie większej ilości danych, ale konieczne będzie bardziej wyrafinowane rozwiązanie, zwłaszcza gdy zakupione zbiory danych, z których korzysta wiele firm, są z natury stronnicze. Dzieje się tak dlatego, że historycznie trudno było wyjaśnić konkretną decyzję podjętą przez sztuczną inteligencję, a to ze względu na charakter złożoności kompleksowych modeli. Jednak teraz możemy i możemy zacząć od pytania, jak ludzie w ogóle stracili zaufanie do sztucznej inteligencji.

Nieuchronnie sztuczna inteligencja będzie popełniać błędy. Firmy muszą tworzyć modele, które będą świadome potencjalnych niedociągnięć, identyfikować, kiedy i gdzie występują problemy, a także tworzyć ciągłe rozwiązania w celu budowania silniejszych modeli sztucznej inteligencji:

  1. Kiedy coś pójdzie nie tak, programiści będą musieli wyjaśnić, co się stało i opracować natychmiastowy plan za ulepszenie modelu, aby zmniejszyć przyszłe, podobne błędy.
  2. Aby maszyna rzeczywiście wiedziała, czy postąpiła dobrze, czy źle, naukowcy muszą to wiedzieć stworzyć pętlę sprzężenia zwrotnego aby sztuczna inteligencja mogła uczyć się swoich wad i ewoluować.
  3. Innym sposobem na budowanie zaufania przez ASR w czasie, gdy sztuczna inteligencja jest wciąż udoskonalana, jest stworzyć system, który może zapewnić ocenę pewnościi podaj powody, dla których sztuczna inteligencja jest mniej pewna. Na przykład firmy zazwyczaj generują oceny od zera do 100, aby odzwierciedlić niedoskonałości własnej sztucznej inteligencji i zapewnić przejrzystość wobec klientów. W przyszłości systemy mogą dostarczać post hoc wyjaśnień, dlaczego dźwięk był trudny, oferując więcej metadanych na temat dźwięku, takich jak postrzegany poziom hałasu lub mniej zrozumiały akcent.

Dodatkowa przejrzystość zapewni lepszy nadzór człowieka nad szkoleniem i wydajnością sztucznej inteligencji. Im bardziej jesteśmy otwarci na to, gdzie musimy się ulepszyć, tym bardziej jesteśmy odpowiedzialni za podejmowanie działań w związku z tymi ulepszeniami. Na przykład badacz może chcieć wiedzieć, dlaczego wyprowadzono błędny tekst, aby móc złagodzić problem, podczas gdy specjalista ds. transkrypcji może potrzebować dowodów na to, dlaczego ASR błędnie zinterpretował dane wejściowe, aby pomóc im w ocenie ich ważności. Utrzymywanie ludzi na bieżąco może złagodzić niektóre z najbardziej oczywistych problemów, które pojawiają się, gdy sztuczna inteligencja nie jest kontrolowana. Może także przyspieszyć czas wymagany przez sztuczną inteligencję do wykrycia błędów, ulepszenia i ostatecznie skorygowania się w czasie rzeczywistym.

Sztuczna inteligencja może poprawić życie ludzi, ale tylko wtedy, gdy ludzie zbudują ją tak, aby produkowała prawidłowo. Musimy pociągnąć do odpowiedzialności nie tylko te systemy, ale także ludzi stojących za innowacjami. Oczekuje się, że przyszłe systemy sztucznej inteligencji będą przestrzegać zasad określonych przez ludzi i tylko do tego czasu będziemy mieli system, któremu ludzie ufają. Nadszedł czas, aby położyć podwaliny i dążyć do przestrzegania tych zasad już teraz, gdy ostatecznie to ludzie nadal służą sobie.

Miguel Jetté jest szefem działu badań i rozwoju AI w firmie Obrót silnika, platforma do transkrypcji mowy na tekst łącząca sztuczną inteligencję z wykwalifikowanymi ludźmi. Kieruje zespołem odpowiedzialnym za rozwój najdokładniejszej na świecie platformy AI umożliwiającej zamianę mowy na tekst. Jego pasją jest rozwiązywanie złożonych problemów przy jednoczesnej poprawie jakości życia. Jest oddany zwiększaniu integracji i równości w budownictwie za pomocą technologii. Przez ponad dwie dekady pracował nad wdrażaniem technologii głosowych w takich firmach jak Nuance Communications i VoiceBox. Uzyskał tytuł magistra matematyki i statystyki na Uniwersytecie McGill w Montrealu. Kiedy nie rozwija komunikacji poprzez sztuczną inteligencję, spędza czas jako fotograf zawodów wspinaczkowych.