Connect with us

Liderzy opinii

Zamykanie luki zaufania do sztucznej inteligencji

mm

Wdrożenie sztucznej inteligencji osiąga punkt krytyczny. Firmy z entuzjazmem przyjmują SI, kierując się jej obietnicą osiągnięcia poprawy efektywności operacyjnej o rząd wielkości. Ostatnie badanie Slacka wykazało, że adopcja SI nadal przyspiesza, a jej wykorzystanie w miejscach pracy wzrosło ostatnio o 24%, przy czym 96% ankietowanych kadry kierowniczej uważa, że „pilne jest wdrożenie SI we wszystkich obszarach działalności operacyjnej”. Jednak istnieje rosnąca przepaść między użytecznością SI a narastającym niepokojem dotyczącym jej potencjalnych negatywnych skutków. Tylko 7% pracowników biurowych uważa, że wyniki generowane przez SI są wystarczająco wiarygodne, aby pomóc im w zadaniach związanych z pracą. Ta luka jest widoczna w wyraźnym kontraście między entuzjazmem kadry kierowniczej dla integracji SI a sceptycyzmem pracowników związanym z takimi czynnikami jak:

Rola legislacji w budowaniu zaufania

Aby zaradzić tym wieloaspektowym problemom zaufania, środki legislacyjne są coraz częściej postrzegane jako konieczny krok. Legislacja może odegrać kluczową rolę w regulowaniu rozwoju i wdrażania SI, zwiększając tym samym zaufanie. Kluczowe podejścia legislacyjne obejmują:

  • Prawa ochrony danych i prywatności: Wdrażanie rygorystycznych przepisów ochrony danych zapewnia, że systemy SI odpowiedzialnie przetwarzają dane osobowe. Rozporządzenia takie jak Ogólne Rozporządzenie o Ochronie Danych (RODO) w Unii Europejskiej wyznaczają precedens, nakazując przejrzystość, minimalizację danych i zgodę użytkownika. W szczególności Artykuł 22 RODO chroni podmioty danych przed potencjalnymi negatywnymi skutkami zautomatyzowanego podejmowania decyzji. Ostatnie orzeczenia Trybunału Sprawiedliwości Unii Europejskiej (TSUE) potwierdzają prawo osoby do niepodlegania zautomatyzowanemu podejmowaniu decyzji. W sprawie Schufa Holding AG, gdzie mieszkaniec Niemiec został odrzucony w wniosku o kredyt bankowy na podstawie zautomatyzowanego systemu decyzyjnego, sąd uznał, że Artykuł 22 wymaga od organizacji wdrożenia środków zabezpieczających prawa do prywatności związane z wykorzystaniem technologii SI.
  • Regulacje dotyczące SI: Unia Europejska ratyfikowała Akt w sprawie sztucznej inteligencji (EU AIA), który ma na celu regulację wykorzystania systemów SI w oparciu o ich poziom ryzyka. Akt obejmuje obowiązkowe wymagania dla systemów SI wysokiego ryzyka, obejmujące takie obszary jak jakość danych, dokumentacja, przejrzystość i nadzór ludzki. Jedną z głównych korzyści regulacji SI jest promowanie przejrzystości i wyjaśnialności systemów SI. Ponadto, EU AIA ustanawia jasne ramy odpowiedzialności, zapewniając, że twórcy, operatorzy, a nawet użytkownicy systemów SI ponoszą odpowiedzialność za swoje działania i skutki wdrożenia SI. Obejmuje to mechanizmy naprawcze, jeśli system SI spowoduje szkodę. Kiedy osoby i organizacje ponoszą odpowiedzialność, buduje to zaufanie, że systemy SI są zarządzane odpowiedzialnie.

Inicjatywy standaryzacyjne na rzecz kultury godnej zaufania SI

Firmy nie muszą czekać na wejście w życie nowych przepisów, aby ustalić, czy ich procesy mieszczą się w etycznych i godnych zaufania wytycznych. Regulacje SI działają w tandemie z powstającymi inicjatywami standaryzacyjnymi dotyczącymi SI, które umożliwiają organizacjom wdrażanie odpowiedzialnego zarządzania SI i najlepszych praktyk przez cały cykl życia systemów SI, obejmujący projektowanie, implementację, wdrażanie i ostatecznie wycofanie. Narodowy Instytut Standaryzacji i Technologii (NIST) w Stanach Zjednoczonych opracował Ramowy dokument zarządzania ryzykiem SI, aby kierować organizacjami w zarządzaniu ryzykiem związanym z SI. Ramy są zbudowane wokół czterech głównych funkcji:

  • Zrozumienie systemu SI i kontekstu, w którym działa. Obejmuje to zdefiniowanie celu, interesariuszy i potencjalnych wpływów systemu SI.
  • Kwantyfikacja ryzyk związanych z systemem SI, w tym aspektów technicznych i nietechnicznych. Obejmuje to ocenę wydajności, niezawodności i potencjalnych stronniczości systemu.
  • Wdrażanie strategii łagodzenia zidentyfikowanych ryzyk. Obejmuje to opracowanie polityk, procedur i kontroli zapewniających działanie systemu SI w akceptowalnych poziomach ryzyka.
  • Ustanowienie struktur zarządczych i mechanizmów odpowiedzialności w celu nadzoru nad systemem SI i jego procesami zarządzania ryzykiem. Obejmuje to regularne przeglądy i aktualizacje strategii zarządzania ryzykiem.

W odpowiedzi na postępy w technologiach generatywnej SI NIST opublikował również Ramowy dokument zarządzania ryzykiem sztucznej inteligencji: Profil generatywnej sztucznej inteligencji, który zawiera wytyczne dotyczące łagodzenia specyficznych ryzyk związanych z Modelami Podstawowymi. Takie środki obejmują ochronę przed złośliwym wykorzystaniem (np. dezinformacja, treści degradujące, mowa nienawiści) oraz etyczne zastosowania SI skupiające się na ludzkich wartościach sprawiedliwości, prywatności, bezpieczeństwa informacji, własności intelektualnej i zrównoważonego rozwoju. Ponadto, Międzynarodowa Organizacja Normalizacyjna (ISO) i Międzynarodowa Komisja Elektrotechniczna (IEC) wspólnie opracowały ISO/IEC 23894, kompleksową normę zarządzania ryzykiem SI. Norma ta zapewnia systematyczne podejście do identyfikacji i zarządzania ryzykiem przez cały cykl życia SI, w tym identyfikację ryzyka, ocenę jego dotkliwości, działania w celu jego złagodzenia lub uniknięcia oraz ciągły monitoring i przegląd.

Przyszłość SI i zaufania publicznego

Patrząc w przyszłość, losy SI i zaufania publicznego będą prawdopodobnie zależeć od kilku kluczowych czynników, które są niezbędne do naśladowania przez wszystkie organizacje:

  • Przeprowadzenie kompleksowej oceny ryzyka w celu zidentyfikowania potencjalnych problemów z zgodnością. Oceń implikacje etyczne i potencjalne stronniczości w swoich systemach SI.
  • Utworzenie interdyscyplinarnego zespołu obejmującego specjalistów z dziedziny prawa, zgodności, IT i nauki o danych. Zespół ten powinien być odpowiedzialny za monitorowanie zmian regulacyjnych i zapewnienie, że systemy SI przestrzegają nowych przepisów.
  • Wdrożenie struktury zarządzania obejmującej polityki, procedury i role zarządzania inicjatywami SI. Zapewnij przejrzystość w działaniach i procesach decyzyjnych SI.
  • Przeprowadzanie regularnych audytów wewnętrznych w celu zapewnienia zgodności z przepisami dotyczącymi SI. Używaj narzędzi monitorujących do śledzenia wydajności systemów SI i przestrzegania standardów regulacyjnych.
  • Edukowanie pracowników na temat etyki SI, wymogów regulacyjnych i najlepszych praktyk. Zapewnij ciągłe sesje szkoleniowe, aby personel był informowany o zmianach w przepisach i strategiach zgodności dotyczących SI.
  • Prowadzenie szczegółowej dokumentacji procesów rozwoju SI, wykorzystania danych i kryteriów decyzyjnych. Przygotuj się do generowania raportów, które mogą być przedłożone organom regulacyjnym, jeśli będzie to wymagane.
  • Budowanie relacji z organami regulacyjnymi i udział w konsultacjach publicznych. Przekazuj opinie na temat proponowanych przepisów i szukaj wyjaśnień w razie potrzeby.

Kontekstualizuj SI, aby osiągnąć Godną Zaufania SI

Ostatecznie, godna zaufania SI zależy od integralności danych. Zależność generatywnej SI od dużych zbiorów danych nie jest równoznaczna z dokładnością i wiarygodnością wyników; wręcz przeciwnie, jest to sprzeczne z obydwoma standardami. Retrieval Augmented Generation (RAG) to innowacyjna technika, która „łączy statyczne LLM z danymi specyficznymi dla kontekstu. Można o niej myśleć jako o wysoce kompetentnym asystencie. Takim, który dopasowuje kontekst zapytania do konkretnych danych z kompleksowej bazy wiedzy”. RAG umożliwia organizacjom dostarczanie aplikacji specyficznych dla kontekstu, które spełniają oczekiwania dotyczące prywatności, bezpieczeństwa, dokładności i niezawodności. RAG poprawia dokładność generowanych odpowiedzi poprzez pobieranie istotnych informacji z bazy wiedzy lub repozytorium dokumentów. Pozwala to modelowi opierać swoje generowanie na dokładnych i aktualnych informacjach. RAG umożliwia organizacjom budowanie dedykowanych aplikacji SI, które są wysoce dokładne, świadome kontekstu i adaptowalne, aby poprawić podejmowanie decyzji, ulepszyć doświadczenia klientów, usprawnić operacje i osiągnąć znaczące przewagi konkurencyjne. Zamykanie luki zaufania do SI wiąże się z zapewnieniem przejrzystości, odpowiedzialności i etycznego wykorzystania SI. Chociaż nie ma jednej odpowiedzi na utrzymanie tych standardów, firmy mają do dyspozycji strategie i narzędzia. Wdrażanie solidnych środków ochrony prywatności danych i przestrzeganie standardów regulacyjnych buduje zaufanie użytkowników. Regularne audytowanie systemów SI pod kątem stronniczości i nieścisłości zapewnia sprawiedliwość. Rozszerzanie dużych modeli językowych (LLM) o dedykowaną SI zapewnia zaufanie poprzez włączenie własnych baz wiedzy i źródeł danych. Angażowanie interesariuszy w rozmowy o możliwościach i ograniczeniach SI również buduje pewność i akceptację. Godna zaufania SI nie jest łatwa do osiągnięcia, ale jest to istotne zobowiązanie na rzecz naszej przyszłości.

Andrew Pery is an AI Ethics Evangelist at global intelligent automation company ABBYY. He holds a Master of Law degree with Distinction from Northwestern University Pritzker School of Law and is a Certified Data Privacy Professional. Pery has more than 25 years of experience spearheading tech management programs for leading global technology companies. His expertise is in intelligent document process automation and process intelligence with a particular expertise in AI technologies, application software, data privacy and AI ethics.