Connect with us

Przeponowanie luki zaufania w AI

Liderzy opinii

Przeponowanie luki zaufania w AI

mm

Przyjęcie AI osiągnęło punkt krytyczny. Przedsiębiorstwa z entuzjazmem przyjmują AI, napędzane przez jego obietnicę osiągnięcia poprawy wydajności operacyjnych o rzędy wielkości.

Ostatnie badanie Slack wykazało, że przyjęcie AI nadal przyspiesza, z użyciem AI w miejscach pracy, które doświadczyło最近 24% wzrostu, a 96% ankietowanych dyrektorów exec wierzy, że “jest pilne, aby zintegrować AI z ich operacjami biznesowymi”.

Jednak istnieje rozszerzająca się przepaść między użytecznością AI a rosnącą niepewnością dotyczącą jego potencjalnych niekorzystnych skutków. Tylko 7% pracowników biurowych uważa, że wyniki AI są wystarczająco godne zaufania, aby pomóc im w zadaniach związanych z pracą.

Ta luka jest widoczna w wyraźnym kontraście między entuzjazmem dyrektorów exec dla integracji AI a sceptycyzmem pracowników w odniesieniu do takich czynników, jak:

Rola legislacji w budowaniu zaufania

Aby rozwiązać te wielowymiarowe problemy zaufania, środki legislacyjne są coraz częściej postrzegane jako konieczny krok. Legislacja może odegrać kluczową rolę w regulowaniu rozwoju i wdrożenia AI, tym samym zwiększając zaufanie. Kluczowe podejścia legislacyjne obejmują:

  • Prawa ochrony danych i prywatności: wdrażanie surowych praw ochrony danych zapewnia, że systemy AI odpowiedzialnie zarządzają danymi osobowymi. Prawa takie jak Ogólne Rozporządzenie o Ochronie Danych (RODO) w Unii Europejskiej ustanawiają precedens, nakazując transparentność, minimalizację danych i zgodę użytkownika. W szczególności, artykuł 22 RODO chroni podmioty danych przed potencjalnymi negatywnymi skutkami zautomatyzowanego podejmowania decyzji. Ostatnie decyzje Trybunału Sprawiedliwości Unii Europejskiej (TSUE) potwierdzają prawa osób do niepodlegania zautomatyzowanemu podejmowaniu decyzji. W przypadku Schufa Holding AG, gdzie mieszkaniec Niemiec został odrzucony przez system zautomatyzowanego podejmowania decyzji kredytowych, sąd orzekł, że artykuł 22 wymaga od organizacji wdrożenia środków w celu ochrony praw do prywatności związanych z użyciem technologii AI.
  • Regulacje AI: Unia Europejska uchwaliła rozporządzenie AI (EU AIA), które ma na celu regulowanie użycia systemów AI na podstawie ich poziomu ryzyka. Rozporządzenie obejmuje obowiązkowe wymagania dla systemów AI o wysokim ryzyku, obejmujące obszary takie jak jakość danych, dokumentacja, transparentność i nadzór ludzki. Jednym z głównych korzyści regulacji AI jest promowanie transparentności i wyjaśnialności systemów AI. Ponadto, EU AIA ustanawia wyraźne ramy odpowiedzialności, zapewniając, że deweloperzy, operatorzy i nawet użytkownicy systemów AI są odpowiedzialni za swoje działania i skutki wdrożenia AI. Obejmuje to mechanizmy rekompensaty, jeśli system AI powoduje szkodę. Kiedy osoby i organizacje są odpowiedzialne, buduje to zaufanie, że systemy AI są zarządzane w sposób odpowiedzialny.

Inicjatywy normalizacyjne w celu kształtowania kultury godnej zaufania AI

Przedsiębiorstwa nie muszą czekać na nowe prawa, aby określić, czy ich procesy są zgodne z wytycznymi etycznymi i godnymi zaufania. Regulacje AI współpracują z nowymi inicjatywami normalizacyjnymi, które umożliwiają organizacjom wdrożenie odpowiedzialnego zarządzania AI i najlepszych praktyk w całym cyklu życia systemów AI, obejmującym projektowanie, wdrożenie, rozwój i ostatecznie likwidację.

National Institute of Standards and Technology (NIST) w Stanach Zjednoczonych opracował ramowy plan zarządzania ryzykiem AI, aby pomóc organizacjom w zarządzaniu ryzykiem związanym z AI. Ramowy plan składa się z czterech podstawowych funkcji:

  • Zrozumienie systemu AI i kontekstu, w którym działa. Obejmuje to definiowanie celu, interesariuszy i potencjalnych skutków systemu AI.
  • Ilościowy pomiar ryzyka związanego z systemem AI, w tym aspektów technicznych i nietechnicznych. Obejmuje to ocenę wydajności systemu, niezawodności i potencjalnych uprzedzeń.
  • Wdrożenie strategii w celu złagodzenia zidentyfikowanych ryzyk. Obejmuje to opracowanie polityk, procedur i kontroli, aby zapewnić, że system AI działa w ramach akceptowalnych poziomów ryzyka.
  • Ustanowienie struktur zarządzania i mechanizmów odpowiedzialności w celu nadzorowania systemu AI i procesów zarządzania ryzykiem. Obejmuje to regularne przeglądy i aktualizacje strategii zarządzania ryzykiem.

W odpowiedzi na postępy w technologiach generatywnych AI NIST opublikował also Artificial Intelligence Risk Management Framework: Generative Artificial Intelligence Profile, który zapewnia wytyczne dotyczące łagodzenia konkretnych ryzyk związanych z modelami podstawowymi. Takie środki obejmują ochronę przed niecnych użyciami (np. dezinformacją, degradacją treści, mową nienawiści) i etycznym zastosowaniem AI, które koncentruje się na wartościach ludzkich, takich jak uczciwość, prywatność, bezpieczeństwo informacji, własność intelektualna i zrównoważoność.

Ponadto, Międzynarodowa Organizacja Normalizacyjna (ISO) i Międzynarodowa Komisja Elektrotechniczna (IEC) wspólnie opracowały ISO/IEC 23894, kompleksowy standard zarządzania ryzykiem AI. Ten standard zapewnia systematyczne podejście do identyfikacji i zarządzania ryzykiem w całym cyklu życia AI, w tym identyfikację ryzyka, ocenę ciężkości ryzyka, złagodzenie lub uniknięcie go oraz ciągłe monitorowanie i przegląd.

Przyszłość AI i zaufanie publiczne

Patrząc w przyszłość, przyszłość AI i zaufanie publiczne będzie prawdopodobnie zależało od kilku kluczowych czynników, które są niezbędne dla wszystkich organizacji:

  • Wykonanie kompleksowej oceny ryzyka w celu identyfikacji potencjalnych problemów z zgodnością. Ocenić implikacje etyczne i potencjalne uprzedzenia w systemach AI.
  • Ustanowienie zespołu wielofunkcyjnego, w tym prawników, specjalistów ds. zgodności, IT i naukowców danych. Ten zespół powinien być odpowiedzialny za monitorowanie zmian regulacyjnych i zapewnienie, że systemy AI są zgodne z nowymi regulacjami.
  • Wdrożenie struktury zarządzania, która obejmuje polityki, procedury i role dla zarządzania inicjatywami AI. Zapewnić transparentność w operacjach AI i procesach decyzyjnych.
  • Przeprowadzenie regularnych wewnętrznych audytów w celu zapewnienia zgodności z regulacjami AI. Użyć narzędzi monitorowania, aby śledzić wydajność systemu AI i zgodność z normami regulacyjnymi.
  • Edycja pracowników na temat etyki AI, wymagań regulacyjnych i najlepszych praktyk. Zapewnić ciągłe sesje szkoleniowe, aby personel był poinformowany o zmianach w regulacjach AI i strategiach zgodności.
  • Utrzymywanie szczegółowych rekordów procesów rozwoju AI, użycia danych i kryteriów decyzyjnych. Przygotować się do generowania raportów, które mogą być przedstawione regulatorom, jeśli wymagane.
  • Budowanie relacji z organami regulacyjnymi i uczestniczenie w publicznych konsultacjach. Przedstawiać opinie na temat proponowanych regulacji i szukać wyjaśnień, gdy jest to konieczne.

Kontekstualizacja AI w celu osiągnięcia godnej zaufania AI

Ostatecznie, godna zaufania AI zależy od integralności danych. Zależność generatywnej AI od dużych zbiorów danych nie oznacza dokładności i niezawodności wyników; jeśli cokolwiek, jest to przeciwne standardom. Retrieval Augmented Generation (RAG) to innowacyjna technika, która “łączy statyczne LLM z kontekstowymi danymi. I można ją uznać za bardzo wiedzącego asystenta. Jednego, który dopasowuje kontekst zapytania z konkretnymi danymi z kompleksowej bazy wiedzy“. RAG umożliwia organizacjom tworzenie aplikacji AI dostosowanych do kontekstu, które spełniają oczekiwania dotyczące prywatności, bezpieczeństwa, dokładności i niezawodności. RAG poprawia dokładność generowanych odpowiedzi, pobierając istotne informacje z bazy wiedzy lub repozytorium dokumentów. Pozwala to modelowi opierać swoją generację na dokładnych i aktualnych informacjach.

RAG umożliwia organizacjom budowanie aplikacji AI dostosowanych do celu, które są bardzo dokładne, świadome kontekstu i dostosowalne, aby poprawić podejmowanie decyzji, poprawić doświadczenia klientów, usprawnić operacje i osiągnąć znaczną przewagę konkurencyjną.

Przeponowanie luki zaufania w AI wymaga zapewnienia transparentności, odpowiedzialności i etycznego użycia AI. Chociaż nie ma jednej odpowiedzi na utrzymanie tych standardów, przedsiębiorstwa mają strategie i narzędzia do dyspozycji. Wdrożenie solidnych środków ochrony danych i przestrzeganie standardów regulacyjnych buduje zaufanie użytkowników. Regularne audyty systemów AI pod kątem uprzedzeń i nieścisłości zapewniają uczciwość. Uzupełnienie Large Language Models (LLM) o AI dostosowaną do celu dostarcza zaufanie, integrując własne bazy wiedzy i źródła danych. Zaangażowanie interesariuszy w sprawie możliwości i ograniczeń AI również buduje zaufanie i akceptację.

Godna zaufania AI nie jest łatwa do osiągnięcia, ale jest to istotne zobowiązanie do naszej przyszłości.

Andrew Pery jest Ewangelią AI Ethics w globalnej firmie zautomatyzowania inteligentnego ABBYY. Posiada tytuł magistra prawa z wyróżnieniem ze Northwestern University Pritzker School of Law i jest Certyfikowanym Profesjonalem Prywatności Danych. Pery ma ponad 25 lat doświadczenia w kierowaniu programami zarządzania technologią dla wiodących globalnych firm technologicznych. Jego specjalność to inteligentna automatyzacja procesów dokumentów i inteligencja procesów z szczególną specjalizacją w technologiach AI, oprogramowaniu aplikacyjnym, prywatności danych i etyce AI.