stub Czym jest odpowiedzialna sztuczna inteligencja? Zasady, wyzwania i korzyści — Unite.AI
Kontakt z nami
Kurs mistrzowski AI:

AI 101

Czym jest odpowiedzialna sztuczna inteligencja? Zasady, wyzwania i korzyści

mm
Zaktualizowano on
Osoba trzymająca w rękach kulę ziemską, stojąc na polach.

Odpowiedzialna sztuczna inteligencja (RAI) odnosi się do projektowania i wdrażania systemów sztucznej inteligencji, które są przejrzyste, bezstronne, odpowiedzialne i zgodne z wytycznymi etycznymi. Ponieważ systemy sztucznej inteligencji stają się coraz bardziej niezawodne i powszechne, kluczowe znaczenie ma zapewnienie ich odpowiedzialnego opracowywania oraz przestrzeganie wytycznych dotyczących bezpieczeństwa i etyki.

Zdrowie, transport, zarządzanie siecią i nadzór aplikacje sztucznej inteligencji o krytycznym znaczeniu dla bezpieczeństwa gdzie awaria systemu może mieć poważne konsekwencje. Duże firmy są świadome, że RAI jest niezbędna do ograniczania zagrożeń technologicznych. Jednak według raportu MIT Sloan/BCG, w którym wzięło udział 1093 respondentów, 54% firm nie posiadało wiedzy i talentu w zakresie odpowiedzialnej sztucznej inteligencji.

Chociaż liderzy myśli i organizacje opracowały zasady odpowiedzialnej sztucznej inteligencji, zapewnienie odpowiedzialnego rozwoju systemów sztucznej inteligencji nadal stwarza wyzwania. Przeanalizujmy szczegółowo ten pomysł:

5 zasad odpowiedzialnej sztucznej inteligencji

1. Uczciwość

Technolodzy powinni projektować procedury, aby systemy sztucznej inteligencji traktowały wszystkie osoby i grupy sprawiedliwie, bez uprzedzeń. Dlatego też uczciwość jest podstawowym wymogiem w zastosowaniach związanych z podejmowaniem decyzji obarczonych wysokim ryzykiem.

Uczciwość jest zdefiniowany jako:

„Badanie wpływu na różne grupy demograficzne i wybór jednej z kilku matematycznych definicji sprawiedliwości grupowej, która odpowiednio spełni pożądany zestaw wymagań prawnych, kulturowych i etycznych”.

2. Odpowiedzialność

Odpowiedzialność oznacza, że ​​osoby i organizacje opracowujące i wdrażające systemy sztucznej inteligencji powinny być odpowiedzialne za swoje decyzje i działania. Zespół wdrażający systemy sztucznej inteligencji powinien zadbać o to, aby ich system sztucznej inteligencji był przejrzysty, możliwy do interpretacji, audytu i nie szkodził społeczeństwu.

Odpowiedzialność obejmuje siedem składniki:

  1. Kontekst (cel, dla którego wymagana jest odpowiedzialność)
  2. Zasięg (podmiot odpowiedzialności)
  3. Agent (kto jest odpowiedzialny?)
  4. Forum (któremu strona odpowiedzialna musi się zgłosić)
  5. Standardy (kryteria odpowiedzialności)
  6. Proces (metoda odpowiedzialności)
  7. Implikacje (konsekwencje odpowiedzialności)

3. Przezroczystość

Przejrzystość oznacza, że ​​powód podejmowania decyzji w systemach AI jest jasny i zrozumiały. Przejrzyste systemy sztucznej inteligencji można wyjaśnić.

Zgodnie z Lista ocen dla godnej zaufania sztucznej inteligencji (ALTAI)przejrzystość składa się z trzech kluczowych elementów:

  1. Identyfikowalność (dostępne są dane, etapy wstępnego przetwarzania i model)
  2. Wyjaśnialność (rozumowanie stojące za podejmowaniem decyzji/przewidywaniem jest jasne)
  3. Otwarta komunikacja (dot. ograniczeń systemu AI)

4. Prywatność

Prywatność jest jedną z głównych zasad odpowiedzialnej sztucznej inteligencji. Odnosi się to do ochrony danych osobowych. Zasada ta zapewnia, że ​​dane osobowe osób są gromadzone i przetwarzane za ich zgodą oraz trzymane z dala od rąk malkontentów.

Jak niedawno udowodniono, był przypadek Clearview, firmy produkującej modele rozpoznawania twarzy dla organów ścigania i uniwersytetów. Brytyjskie organy nadzoru danych pozwał Clearview AI na kwotę 7.5 miliona funtów za zbieranie zdjęć mieszkańców Wielkiej Brytanii z mediów społecznościowych bez zgody w celu utworzenia bazy danych zawierającej 20 miliardów zdjęć.

5. Bezpieczeństwo

Bezpieczeństwo oznacza zapewnienie, że systemy sztucznej inteligencji są bezpieczne i nie stanowią zagrożenia dla społeczeństwa. Przykładem zagrożenia bezpieczeństwa AI jest ataki przeciwstawne. Te złośliwe ataki oszukują modele ML do podejmowania błędnych decyzji. Ochrona systemów sztucznej inteligencji przed atakami cybernetycznymi jest niezbędna dla odpowiedzialnej sztucznej inteligencji.

4 główne wyzwania i ryzyko odpowiedzialnej sztucznej inteligencji

1. Stronniczość

Ludzkie uprzedzenia związane z wiekiem, płcią, narodowością i rasą mogą mieć wpływ na gromadzenie danych, potencjalnie prowadząc do stronniczych modeli sztucznej inteligencji. Badanie Departamentu Handlu USA odkryli, że sztuczna inteligencja rozpoznawania twarzy błędnie identyfikuje osoby kolorowe. Dlatego wykorzystywanie sztucznej inteligencji do rozpoznawania twarzy w organach ścigania może prowadzić do bezprawnych aresztowań. Ponadto tworzenie uczciwych modeli sztucznej inteligencji jest wyzwaniem, ponieważ takie modele istnieją 21 różne parametry do ich definiowania. Istnieje więc kompromis; spełnienie jednego uczciwego parametru AI oznacza poświęcenie innego.

2. Interpretowalność

Interpretowalność jest kluczowym wyzwaniem w rozwoju odpowiedzialnej sztucznej inteligencji. Odnosi się do zrozumienia, w jaki sposób model uczenia maszynowego doszedł do konkretnego wniosku.

Głębokim sieciom neuronowym brakuje możliwości interpretacji, ponieważ działają jak czarne skrzynki z wieloma warstwami ukrytych neuronów, co utrudnia zrozumienie procesu decyzyjnego. Może to stanowić wyzwanie w przypadku podejmowania decyzji o wysokich stawkach, takich jak opieka zdrowotna, finanse itp.

Co więcej, sformalizowanie interpretowalności modeli uczenia maszynowego jest wyzwaniem, ponieważ tak jest subiektywnyspecyficzne dla domeny.

3. Zarządzanie

Zarządzanie odnosi się do zestawu zasad, zasad i procedur nadzorujących rozwój i wdrażanie systemów sztucznej inteligencji. Ostatnio nastąpił znaczny postęp w dyskursie dotyczącym zarządzania sztuczną inteligencją, w ramach którego organizacje przedstawiły ramy i wytyczne etyczne.

Wytyczne etyczne dla godną zaufania sztuczną inteligencję UEAustralijskie ramy etyczne dotyczące sztucznej inteligencjiZasady OECD dotyczące sztucznej inteligencji to przykłady ram zarządzania sztuczną inteligencją.

Jednak szybki postęp w dziedzinie sztucznej inteligencji w ostatnich latach może wyprzedzić ramy zarządzania sztuczną inteligencją. W tym celu potrzebne są ramy oceniające uczciwość, interpretowalność i etykę systemów sztucznej inteligencji.

4. Regulacja

W miarę jak systemy sztucznej inteligencji stają się coraz bardziej powszechne, konieczne są regulacje uwzględniające wartości etyczne i społeczne. Opracowanie przepisów, które nie dławią innowacji w zakresie sztucznej inteligencji, jest kluczowym wyzwaniem w zakresie odpowiedzialnej sztucznej inteligencji.

Nawet mając na uwadze ogólne rozporządzenie o ochronie danych (RODO), kalifornijską ustawę o ochronie prywatności konsumentów (CCPA) i ustawę o ochronie danych osobowych (PIPL) jako organy regulacyjne, badacze sztucznej inteligencji odkryli, że 97% stron internetowych UE nie spełnia wymogów ram prawnych RODO.

Co więcej, ustawodawcy stoją przed m.in istotne wyzwanie w osiągnięciu konsensusu w sprawie definicji sztucznej inteligencji, która obejmuje zarówno klasyczne systemy sztucznej inteligencji, jak i najnowsze zastosowania sztucznej inteligencji.

3 główne zalety odpowiedzialnej sztucznej inteligencji

1. Zmniejszone odchylenie

Odpowiedzialna sztuczna inteligencja zmniejsza stronniczość w procesach decyzyjnych, budując zaufanie do systemów sztucznej inteligencji. Ograniczenie stronniczości w systemach AI może zapewnić sprawiedliwy i sprawiedliwy system opieki zdrowotnej oraz zmniejszyć stronniczość w systemach opartych na sztucznej inteligencji usługi finansowe itd.

2. Większa przejrzystość

Odpowiedzialna sztuczna inteligencja tworzy przejrzyste aplikacje AI, które budują zaufanie do systemów AI. Przejrzyste systemy AI zmniejszyć ryzyko błędów i nadużyć. Większa przejrzystość ułatwia audytowanie systemów sztucznej inteligencji, zdobywa zaufanie zainteresowanych stron i może prowadzić do powstania odpowiedzialnych systemów sztucznej inteligencji.

3. Większe bezpieczeństwo

Bezpieczne aplikacje AI zapewniają prywatność danych, generują wiarygodne i nieszkodliwe wyniki oraz są bezpieczne przed atakami cybernetycznymi.

Giganci technologiczni lubią MicrosoftGoogle, które przodują w opracowywaniu systemów sztucznej inteligencji, opracowały zasady odpowiedzialnej sztucznej inteligencji. Odpowiedzialna sztuczna inteligencja gwarantuje, że innowacje w sztucznej inteligencji nie będą szkodliwe dla jednostek i społeczeństwa.

Liderzy myśli, badacze, organizacje i władze prawne powinny stale przeglądać literaturę dotyczącą odpowiedzialnej sztucznej inteligencji, aby zapewnić bezpieczną przyszłość innowacjom w dziedzinie sztucznej inteligencji.

Więcej treści związanych ze sztuczną inteligencją znajdziesz na stronie zjednoczyć.ai.