Sztuczna inteligencja
Naukowcy opracowali narzędzie „DeepTrust”, aby pomóc zwiększyć zaufanie do sztucznej inteligencji

Bezpieczeństwo i zaufanie do sztucznej inteligencji (AI) jest jednym z największych aspektów tej technologii. Jest ciągle ulepszane i rozwijane przez najlepszych ekspertów w różnych dziedzinach, i będzie kluczowe dla pełnej implementacji AI w społeczeństwie.
Część tej nowej pracy powstaje na Uniwersytecie Południowej Kalifornii, gdzie naukowcy z USC Viterbi Engineering opracowali nowe narzędzie zdolne do generowania automatycznych wskaźników, czy algorytmy AI są godne zaufania w swoich danych i prognozach.
Badania zostały opublikowane w Frontiers in Artificial Intelligence, pod tytułem „Istnieje nadzieja po wszystkim: ilościowy opis opinii i zaufania w sieciach neuronowych”. Autorami artykułu są Mingxi Cheng, Shahin Nazarian i Paul Bogdan z USC Cyber Physical Systems Group.
Zaufanie do sieci neuronowych
Jednym z największych zadań w tej dziedzinie jest uzyskanie sieci neuronowych, które generują prognozy, którym można ufać. W wielu przypadkach jest to to, co powstrzymuje pełne wdrożenie technologii opartej na AI.
Na przykład, samochody autonomiczne muszą działać niezależnie i podejmować dokładne decyzje na autopilocie. Muszą być w stanie podejmować te decyzje ekstremalnie szybko, rozpoznając i identyfikując obiekty na drodze. Jest to kluczowe, szczególnie w sytuacjach, w których technologia musi rozróżnić różnicę między wzniesieniem, innym obiektem a żywą istotą.
Inne scenariusze obejmują decyzję samochodu autonomicznego o tym, co zrobić, gdy inny samochód jedzie mu prosto w twarz, a najbardziej skomplikowaną decyzją jest ta, czy samochód autonomiczny musi zdecydować, czy uderzyć w to, co postrzega jako inny samochód, jakiś obiekt czy żywą istotę.
To wszystko oznacza, że wkładamy ogromną ilość zaufania w możliwość oprogramowania samochodu autonomicznego do podjęcia słusznej decyzji w ułamku sekundy. Staje się to jeszcze trudniejsze, gdy jest sprzeczna informacja z różnych czujników, takich jak wizja komputerowa z kamer i Lidar.
Prowadzący autor Minxi Cheng zdecydował się podjąć ten projekt po tym, jak pomyślał: „Nawet ludzie mogą być niezdecydowani w pewnych sytuacjach podejmowania decyzji. W przypadku sprzecznych informacji, dlaczego maszyny nie mogą nam powiedzieć, kiedy nie wiedzą?”
DeepTrust
Narzędzie stworzone przez naukowców nazywa się DeepTrust i jest w stanie ilościowo określić ilość niepewności, według Paula Bogdana, associate profesora w Ming Hsieh Department of Electrical and Computer Engineering.
Zespół spędził prawie dwa lata na opracowaniu DeepTrust, głównie używając logiki subiektywnej do oceny sieci neuronowych. W jednym przykładzie działania narzędzia, było ono w stanie obejrzeć sondaże wyborów prezydenckich w 2016 roku i przewidzieć, że był większy margines błędu dla zwycięstwa Hillary Clinton.
Narzędzie DeepTrust ułatwia również testowanie niezawodności algorytmów AI, które zwykle są szkolone na milionach punktów danych. Inny sposób robienia tego jest przez niezależne sprawdzanie każdego z punktów danych w celu przetestowania dokładności, co jest ekstremalnie czasochłonnym zadaniem.
Według naukowców, architektura tych systemów sieci neuronowych jest bardziej dokładna, a dokładność i zaufanie mogą być maksymalizowane jednocześnie.
„Według naszej wiedzy, nie ma modelu ilościowego zaufania ani narzędzia dla głębokiego uczenia, sztucznej inteligencji i uczenia maszynowego. To jest pierwsze podejście i otwiera nowe kierunki badań,” mówi Bogdan.
Bogdan uważa również, że DeepTrust może pomóc w przyspieszeniu AI do punktu, w którym będzie „świadome i adaptacyjne.”










