Liderzy opinii
Przeponowanie luki zaufania w AI
Przyjęcie AI osiągnęło punkt krytyczny. Przedsiębiorstwa z entuzjazmem przyjmują AI, napędzane przez jego obietnicę osiągnięcia poprawy wydajności operacyjnych o rzędy wielkości.
Ostatnie badanie Slack wykazało, że przyjęcie AI nadal przyspiesza, z użyciem AI w miejscach pracy, które doświadczyło最近 24% wzrostu, a 96% ankietowanych dyrektorów exec wierzy, że “jest pilne, aby zintegrować AI z ich operacjami biznesowymi”.
Jednak istnieje rozszerzająca się przepaść między użytecznością AI a rosnącą niepewnością dotyczącą jego potencjalnych niekorzystnych skutków. Tylko 7% pracowników biurowych uważa, że wyniki AI są wystarczająco godne zaufania, aby pomóc im w zadaniach związanych z pracą.
Ta luka jest widoczna w wyraźnym kontraście między entuzjazmem dyrektorów exec dla integracji AI a sceptycyzmem pracowników w odniesieniu do takich czynników, jak:
- Uprzedzenia i uczciwość: systemy AI mogą utrwalać lub nawet zaostrzać istniejące uprzedzenia, prowadząc do niesprawiedliwych wyników.
- Prywatność i bezpieczeństwo: pracownicy martwią się o tym, jak ich dane osobowe są zbierane, przechowywane i wykorzystywane przez systemy AI.
- Nieprzezroczyste podejmowanie decyzji: systemy AI często działają jako “czarne skrzynki”, podejmując decyzje, które są trudne dla ludzi do zrozumienia lub wyjaśnienia.
- Lęk przed automatyzacją: istnieje powszechny strach, że AI zastąpi ludzkie miejsca pracy, prowadząc do bezrobocia i niestabilności gospodarczej.
Rola legislacji w budowaniu zaufania
Aby rozwiązać te wielowymiarowe problemy zaufania, środki legislacyjne są coraz częściej postrzegane jako konieczny krok. Legislacja może odegrać kluczową rolę w regulowaniu rozwoju i wdrożenia AI, tym samym zwiększając zaufanie. Kluczowe podejścia legislacyjne obejmują:
- Prawa ochrony danych i prywatności: wdrażanie surowych praw ochrony danych zapewnia, że systemy AI odpowiedzialnie zarządzają danymi osobowymi. Prawa takie jak Ogólne Rozporządzenie o Ochronie Danych (RODO) w Unii Europejskiej ustanawiają precedens, nakazując transparentność, minimalizację danych i zgodę użytkownika. W szczególności, artykuł 22 RODO chroni podmioty danych przed potencjalnymi negatywnymi skutkami zautomatyzowanego podejmowania decyzji. Ostatnie decyzje Trybunału Sprawiedliwości Unii Europejskiej (TSUE) potwierdzają prawa osób do niepodlegania zautomatyzowanemu podejmowaniu decyzji. W przypadku Schufa Holding AG, gdzie mieszkaniec Niemiec został odrzucony przez system zautomatyzowanego podejmowania decyzji kredytowych, sąd orzekł, że artykuł 22 wymaga od organizacji wdrożenia środków w celu ochrony praw do prywatności związanych z użyciem technologii AI.
- Regulacje AI: Unia Europejska uchwaliła rozporządzenie AI (EU AIA), które ma na celu regulowanie użycia systemów AI na podstawie ich poziomu ryzyka. Rozporządzenie obejmuje obowiązkowe wymagania dla systemów AI o wysokim ryzyku, obejmujące obszary takie jak jakość danych, dokumentacja, transparentność i nadzór ludzki. Jednym z głównych korzyści regulacji AI jest promowanie transparentności i wyjaśnialności systemów AI. Ponadto, EU AIA ustanawia wyraźne ramy odpowiedzialności, zapewniając, że deweloperzy, operatorzy i nawet użytkownicy systemów AI są odpowiedzialni za swoje działania i skutki wdrożenia AI. Obejmuje to mechanizmy rekompensaty, jeśli system AI powoduje szkodę. Kiedy osoby i organizacje są odpowiedzialne, buduje to zaufanie, że systemy AI są zarządzane w sposób odpowiedzialny.
Inicjatywy normalizacyjne w celu kształtowania kultury godnej zaufania AI
Przedsiębiorstwa nie muszą czekać na nowe prawa, aby określić, czy ich procesy są zgodne z wytycznymi etycznymi i godnymi zaufania. Regulacje AI współpracują z nowymi inicjatywami normalizacyjnymi, które umożliwiają organizacjom wdrożenie odpowiedzialnego zarządzania AI i najlepszych praktyk w całym cyklu życia systemów AI, obejmującym projektowanie, wdrożenie, rozwój i ostatecznie likwidację.
National Institute of Standards and Technology (NIST) w Stanach Zjednoczonych opracował ramowy plan zarządzania ryzykiem AI, aby pomóc organizacjom w zarządzaniu ryzykiem związanym z AI. Ramowy plan składa się z czterech podstawowych funkcji:
- Zrozumienie systemu AI i kontekstu, w którym działa. Obejmuje to definiowanie celu, interesariuszy i potencjalnych skutków systemu AI.
- Ilościowy pomiar ryzyka związanego z systemem AI, w tym aspektów technicznych i nietechnicznych. Obejmuje to ocenę wydajności systemu, niezawodności i potencjalnych uprzedzeń.
- Wdrożenie strategii w celu złagodzenia zidentyfikowanych ryzyk. Obejmuje to opracowanie polityk, procedur i kontroli, aby zapewnić, że system AI działa w ramach akceptowalnych poziomów ryzyka.
- Ustanowienie struktur zarządzania i mechanizmów odpowiedzialności w celu nadzorowania systemu AI i procesów zarządzania ryzykiem. Obejmuje to regularne przeglądy i aktualizacje strategii zarządzania ryzykiem.
W odpowiedzi na postępy w technologiach generatywnych AI NIST opublikował also Artificial Intelligence Risk Management Framework: Generative Artificial Intelligence Profile, który zapewnia wytyczne dotyczące łagodzenia konkretnych ryzyk związanych z modelami podstawowymi. Takie środki obejmują ochronę przed niecnych użyciami (np. dezinformacją, degradacją treści, mową nienawiści) i etycznym zastosowaniem AI, które koncentruje się na wartościach ludzkich, takich jak uczciwość, prywatność, bezpieczeństwo informacji, własność intelektualna i zrównoważoność.
Ponadto, Międzynarodowa Organizacja Normalizacyjna (ISO) i Międzynarodowa Komisja Elektrotechniczna (IEC) wspólnie opracowały ISO/IEC 23894, kompleksowy standard zarządzania ryzykiem AI. Ten standard zapewnia systematyczne podejście do identyfikacji i zarządzania ryzykiem w całym cyklu życia AI, w tym identyfikację ryzyka, ocenę ciężkości ryzyka, złagodzenie lub uniknięcie go oraz ciągłe monitorowanie i przegląd.
Przyszłość AI i zaufanie publiczne
Patrząc w przyszłość, przyszłość AI i zaufanie publiczne będzie prawdopodobnie zależało od kilku kluczowych czynników, które są niezbędne dla wszystkich organizacji:
- Wykonanie kompleksowej oceny ryzyka w celu identyfikacji potencjalnych problemów z zgodnością. Ocenić implikacje etyczne i potencjalne uprzedzenia w systemach AI.
- Ustanowienie zespołu wielofunkcyjnego, w tym prawników, specjalistów ds. zgodności, IT i naukowców danych. Ten zespół powinien być odpowiedzialny za monitorowanie zmian regulacyjnych i zapewnienie, że systemy AI są zgodne z nowymi regulacjami.
- Wdrożenie struktury zarządzania, która obejmuje polityki, procedury i role dla zarządzania inicjatywami AI. Zapewnić transparentność w operacjach AI i procesach decyzyjnych.
- Przeprowadzenie regularnych wewnętrznych audytów w celu zapewnienia zgodności z regulacjami AI. Użyć narzędzi monitorowania, aby śledzić wydajność systemu AI i zgodność z normami regulacyjnymi.
- Edycja pracowników na temat etyki AI, wymagań regulacyjnych i najlepszych praktyk. Zapewnić ciągłe sesje szkoleniowe, aby personel był poinformowany o zmianach w regulacjach AI i strategiach zgodności.
- Utrzymywanie szczegółowych rekordów procesów rozwoju AI, użycia danych i kryteriów decyzyjnych. Przygotować się do generowania raportów, które mogą być przedstawione regulatorom, jeśli wymagane.
- Budowanie relacji z organami regulacyjnymi i uczestniczenie w publicznych konsultacjach. Przedstawiać opinie na temat proponowanych regulacji i szukać wyjaśnień, gdy jest to konieczne.
Kontekstualizacja AI w celu osiągnięcia godnej zaufania AI
Ostatecznie, godna zaufania AI zależy od integralności danych. Zależność generatywnej AI od dużych zbiorów danych nie oznacza dokładności i niezawodności wyników; jeśli cokolwiek, jest to przeciwne standardom. Retrieval Augmented Generation (RAG) to innowacyjna technika, która “łączy statyczne LLM z kontekstowymi danymi. I można ją uznać za bardzo wiedzącego asystenta. Jednego, który dopasowuje kontekst zapytania z konkretnymi danymi z kompleksowej bazy wiedzy“. RAG umożliwia organizacjom tworzenie aplikacji AI dostosowanych do kontekstu, które spełniają oczekiwania dotyczące prywatności, bezpieczeństwa, dokładności i niezawodności. RAG poprawia dokładność generowanych odpowiedzi, pobierając istotne informacje z bazy wiedzy lub repozytorium dokumentów. Pozwala to modelowi opierać swoją generację na dokładnych i aktualnych informacjach.
RAG umożliwia organizacjom budowanie aplikacji AI dostosowanych do celu, które są bardzo dokładne, świadome kontekstu i dostosowalne, aby poprawić podejmowanie decyzji, poprawić doświadczenia klientów, usprawnić operacje i osiągnąć znaczną przewagę konkurencyjną.
Przeponowanie luki zaufania w AI wymaga zapewnienia transparentności, odpowiedzialności i etycznego użycia AI. Chociaż nie ma jednej odpowiedzi na utrzymanie tych standardów, przedsiębiorstwa mają strategie i narzędzia do dyspozycji. Wdrożenie solidnych środków ochrony danych i przestrzeganie standardów regulacyjnych buduje zaufanie użytkowników. Regularne audyty systemów AI pod kątem uprzedzeń i nieścisłości zapewniają uczciwość. Uzupełnienie Large Language Models (LLM) o AI dostosowaną do celu dostarcza zaufanie, integrując własne bazy wiedzy i źródła danych. Zaangażowanie interesariuszy w sprawie możliwości i ograniczeń AI również buduje zaufanie i akceptację.
Godna zaufania AI nie jest łatwa do osiągnięcia, ale jest to istotne zobowiązanie do naszej przyszłości.












