stub Startupy tworzące narzędzia do monitorowania AI i promowania etycznego wykorzystania AI - Unite.AI
Kontakt z nami

Regulacja

Startupy tworzące narzędzia do monitorowania AI i promowania etycznego wykorzystania AI

mm
Zaktualizowano on

Wydaje się, że w ciągu ostatniego roku coraz większą uwagę przywiązywano do zapewnienia etycznego wykorzystania sztucznej inteligencji. Google i Microsoft mają jedno i drugie ostrzegał niedawno inwestorów że niewłaściwe wykorzystanie algorytmów sztucznej inteligencji lub źle zaprojektowane algorytmy sztucznej inteligencji stwarza ryzyko etyczne i prawne. Tymczasem stan Kalifornia właśnie tak zdecydował uchwalać ustawę która zabrania stosowania technologii rozpoznawania twarzy przez kalifornijskie organy ścigania.

Ostatnio startupy takie jak Arthur próbowały zaprojektować narzędzia, które pomogą inżynierom AI określić ilościowo i zakwalifikować działanie ich modeli uczenia maszynowego. Jak donosi Wired, Arthur stara się zapewnić programistom AI zestaw narzędzi, który ułatwi im wykrywanie problemów podczas projektowania aplikacji finansowych, takich jak ujawnianie stronniczości w decyzjach inwestycyjnych lub kredytowych.

Wysiłki Artura mają na celu rozwiązanie problemu Problem „czarnej skrzynki” sztucznej inteligencji. Problem czarnej skrzynki w sztucznej inteligencji opisuje, jak w odróżnieniu od tradycyjnego kodu, który może być łatwo zinterpretowany przez tych, którzy wiedzą, jak go przeczytać, systemy uczenia maszynowego odwzorowują funkcje na zachowanie bez ujawniania powodów, dla których te zachowania zostały wybrane lub jak te funkcje zostały zinterpretowane. Innymi słowy, w systemie czarnej skrzynki dokładna implementacja algorytmu jest niejasna.

Systemy uczenia maszynowego działają poprzez wyodrębnianie wzorców z danych wejściowych i wnioskowanie na ich temat. Osiąga się to zasadniczo poprzez zapisanie przez komputer własnego kodu poprzez manipulację pewnymi funkcjami matematycznymi. Aby rozwiązać ten problem, badacze i inżynierowie potrzebują narzędzi, które ułatwią obserwację i analizę zachowania oprogramowania do uczenia maszynowego. Startupy takie jak Arthur zdają sobie sprawę z trudności rozwiązania tego problemu i nie twierdzą, że mają optymalne rozwiązania, ale mają nadzieję na postęp w tej dziedzinie i ułatwienie otwierania czarnej skrzynki. Mamy nadzieję, że jeśli łatwiej będzie analizować systemy sztucznej inteligencji, łatwiej będzie także korygować problemy, takie jak stronniczość.

Duże firmy, takie jak Facebook, mają już pewne narzędzia do analizy wewnętrznego działania systemów uczenia maszynowego. Na przykład Facebook ma narzędzie o nazwie Fairness Flow, którego zadaniem jest upewnienie się, że reklamy polecające ludziom oferty pracy są kierowane do osób z różnych środowisk. Jest jednak prawdopodobne, że duże zespoły zajmujące się sztuczną inteligencją nie będą chciały inwestować czasu w tworzenie takich narzędzi, dlatego istnieje szansa biznesowa dla firm, które chcą stworzyć narzędzia monitorujące do użytku przez firmy zajmujące się sztuczną inteligencją.

Arthur koncentruje się na tworzeniu narzędzi, które umożliwiają firmom lepsze utrzymanie i monitorowanie systemów AI po ich wdrożeniu. Narzędzia Arthura mają pozwolić firmom zobaczyć, jak wydajność ich systemu zmienia się w czasie, co teoretycznie pozwoli firmom wykryć potencjalne przejawy stronniczości. Jeśli oprogramowanie firmy do rekomendacji pożyczek zacznie wykluczać określone grupy klientów, można ustawić flagę wskazującą, że system wymaga przeglądu, aby upewnić się, że nie dyskryminuje klientów ze względu na wrażliwe cechy, takie jak rasa lub płeć.

Jednak Arthur nie jest jedyną firmą tworzącą narzędzia, które pozwalają firmom zajmującym się sztuczną inteligencją sprawdzać wydajność ich algorytmów. Wiele startupów inwestuje w tworzenie narzędzi do walki z uprzedzeniami i zapewnienia etycznego wykorzystania algorytmów AI. Weights & Biases to kolejny startup tworzący narzędzia pomagające inżynierom uczenia maszynowego analizować potencjalne problemy z ich siecią. Toyota korzystała z narzędzi stworzonych przez firmę Weights & Biases do monitorowania urządzeń do uczenia maszynowego podczas ich treningów. Tymczasem startup Fiddler pracuje nad stworzeniem innego zestawu narzędzi do monitorowania AI. IBM stworzył nawet własną usługę monitorowania o nazwie OpenScale.

Liz O'Sullivan, jedna ze współtwórczyń Arthura, wyjaśniła, że ​​zainteresowanie tworzeniem narzędzi pomagających rozwiązać problem Czarnej Skrzynki wynika z rosnącej świadomości potęgi sztucznej inteligencji.

„Ludzie zaczynają zdawać sobie sprawę, jak potężne mogą być te systemy i że muszą wykorzystywać korzyści w sposób odpowiedzialny” – dodał. – powiedział O’Sullivan.