Liderzy opinii
Dlaczego firmy powinny stosować podejście oparte na wartościach w zarządzaniu AI

We wrześniu 2025 roku po raz pierwszy wszystkie państwa członkowskie ONZ zgromadziły się, aby omówić międzynarodowe zarządzanie AI; wiele z nich było ponownie reprezentowanych w lutym na szczycie AI Impact Summit w Delhi. Wydarzenie doprowadziło do powstania dwóch nowych organów zajmujących się zarządzaniem AI; ale było to, co najwyżej, symboliczny sukces.
Nowe mechanizmy ONZ zostały zaprojektowane w celu uzyskania konsensusu: unikają one spornych obszarów, takich jak wojskowe zastosowania AI, i nie posiadają wyraźnych źródeł finansowania i uprawnień do egzekwowania. Nie powinno to być zaskoczeniem dla doświadczonych obserwatorów. Dzisiejsze ONZ nie posiadają możliwości szybkiego działania ani zapewnienia powszechnego przestrzegania swoich decyzji, co sprawia, że jest to trudny forum, aby wprowadzić realne zmiany.
To pasuje do dobrze ustalonego wzorca. Pomimo lat rozproszonych prób budowania konsensusu w sprawie regulacji AI, nie było znaczących międzynarodowych porozumień, tworząc pustkę, w której poszczególne kraje i bloki zostały zmuszone do opracowania własnych zasad. Jednak skuteczne zarządzanie AI jest niezbędne, jeśli chcemy zobaczyć, jak jest ono powszechnie przyjęte, zaufane przez publiczność i stosowane w sposób, który przynosi trwałe korzyści społeczne i ekonomiczne.
Zrób i napraw
Dla globalnych firm budujących i eksploatujących systemy AI, brak wspólnych, uzgodnionych mechanizmów zarządzania jest problematyczny. Chcą one wdrożyć systemy AI na całym świecie, ale żadne dwa jurysdykcje nie stosują się do tego samego zestawu zasad. Zamiast tego są zmuszone do stworzenia ogólnego ramowego zarządzania swoim systemem, a następnie odbudować go od podstaw w każdym kraju, w którym działają, aby upewnić się, że spełniają one lokalne prawa i przepisy. To podejście tworzy ogromną ilość dodatkowej pracy, sprawia, że inicjatywy AI są droższe i bardziej narażone na opóźnienia, oraz osłabia możliwość firm globalnych do realizacji efektów skali i udostępniania skutecznych narzędzi użytkownikom na całym świecie.
Jest jednak alternatywa. Dla firm szukających sposobu na uproszczenie swojego podejścia, najlepszym rozwiązaniem może być stworzenie ramowego zarządzania AI, które uwzględnia wspólne zasady etyczne w różnych regionach, zapewniając, że spełniają one wysokie standardy wszędzie pod względem ochrony wolności, prywatności i bezpieczeństwa jednostek. Ta technika reprezentuje potężny sposób dla firm AI, aby zwiększyć zaufanie publiczne do ich technologii, wzmocnić swoją bazę klientów i wykorzystać potencjalne korzyści AI dla społeczeństwa.
Sześć kluczowych wartości dla zarządzania AI
Dla każdej organizacji zainteresowanej przyjęciem podejścia opartego na wartościach w zarządzaniu AI, sugeruję stosowanie sześciu kluczowych wartości, których używamy: odpowiedzialność, wyjaśnialność, przejrzystość, uczciwość, bezpieczeństwo i możliwość zakwestionowania.
Wybraliśmy te wartości, ponieważ obejmują one wszystkie główne obszary cyklu życia systemu AI i ponieważ zostały już skodyfikowane w różnych międzynarodowych i krajowych standardach dotyczących AI, takich jak ISO/IEC 42001 i Artificial Intelligence Playbook for the UK Government.
Zaczynając od góry, odpowiedzialność oznacza wiedzę, kto jest odpowiedzialny za co na każdym etapie cyklu życia AI. Bez wyraźnej własności, niezbędne kontrole mogą być pominięte, ponieważ żadna osoba lub zespół nie ponosi ostatecznej odpowiedzialności. Organizacje powinny przypisać seniorów, nazwanych właścicieli – takich jak ich Chief AI Officer – systemom AI i kluczowym etapom oraz używać modelu zarządzania opartego na ryzyku, stosując tę samą kontrolę do narzędzi zewnętrznych, jak do tych opracowanych wewnętrznie. Oznacza to zrozumienie warunków dostawcy, ograniczeń i odpowiedzialności tak dobrze, jak zrozumienie własnych systemów.
Organizacja Współpracy Gospodarczej i Rozwoju (OECD) ujmuje to dobrze w swoich wytycznych dotyczących poprawy odpowiedzialności w AI, które zalecają, aby organizacje tworzyły “mechanizmy, aby wbudować proces zarządzania ryzykiem AI w szersze zarządzanie organizacją, promując kulturę zarządzania ryzykiem zarówno wewnątrz organizacji, jak i na całym łańcuchu wartości AI”.
Następnie jest wyjaśnialność. Organizacje powinny być w stanie pokazać, jak system AI dochodzi do decyzji. Wymaga to mechanizmów do dokumentowania i śledzenia procesu decyzyjnego, wraz z wyraźnymi zapisami projektowania systemu, danych szkoleniowych i procesów decyzyjnych. Razem pozwala to zespołom zrozumieć pochodzenie informacji od powstania systemu do wdrożenia.
Uczciwość koncentruje się na zapewnieniu, że systemy AI produkują sprawiedliwe wyniki i nie powielają ani nie nasilają istniejących uprzedzeń. Bez celowych kontroli systemy mogą wyrządzić szkodę, dostarczając skrzywione wyniki – szczególny problem w obszarach o wysokim wpływie, takich jak rekrutacja, opieka zdrowotna i wymiar sprawiedliwości. Aby złagodzić to, organizacje powinny wdrożyć środki wykrywania uprzedzeń, przeglądać wyniki regularnie w odpowiednich grupach i projektować ramy zarządzania, które mogą uwzględniać lokalne wymagania dotyczące niedyskryminacji. W praktyce oznacza to budowanie systemów, które spełniają najwyższy standard prawny, z którym mogą się spotkać, w tym zobowiązania wynikające z przepisów, takich jak brytyjska ustawa o równości z 2010 roku i Karta Podstawowych Praw Unii Europejskiej.
Przejrzystość dotyczy zapewnienia klarowności zarówno użytkownikom, jak i regulatorom. Ludzie powinni zrozumieć, kiedy AI jest używany, jaka rolę odgrywa w procesie decyzyjnym i jakie dane są jego podstawą. Praktycznym punktem wyjścia jest standaryzacja dokumentacji w systemach AI, wspierana przez wewnętrzne narzędzia, takie jak karty modeli: krótkie dokumenty dostarczane z modelami uczenia maszynowego, które wyjaśniają kontekst, w którym modele są przeznaczone do użycia, szczegóły procedur oceny wydajności i inne istotne informacje. Bez przejrzystości użytkownicy nie mogą zakwestionować niesprawiedliwych wyników, regulatorzy nie mogą interweniować skutecznie, a szkodliwe skutki mogą być zrzucane pod dywan.
Bezpieczeństwo polega na ochronie systemów AI przed nieautoryzowanym dostępem, manipulacją lub niezamierzonym zachowaniem. Jeśli bezpieczeństwo jest słabe, AI mogą narażać organizacje, użytkowników i ich dane na ryzyko, narażając je na szkody finansowe i reputacyjne. Organizacje powinny określić progi wydajności i dokładności, testować systemy w realistycznych warunkach i włączać testy czerwonej drużyny, aby zidentyfikować słabości.
Wreszcie, możliwość zakwestionowania zapewnia, że ludzie mają klarowny i dostępny sposób, aby zakwestionować lub odwołać się od decyzji podejmowanych przez AI. Bez niego dotknięci użytkownicy nie mają żadnego odwołania, a problemy mogą nigdy nie zostać ujawnione ani rozwiązane. Organizacje powinny zapewnić kanały raportowania w punkcie użycia, przypisać seniorów do zarządzania skargami i upewnić się, że systemy mogą być wstrzymane, przeglądane lub aktualizowane, jeśli jest to konieczne.
Jakie są korzyści z ramowego podejścia opartego na wartościach?
Istnieją dwa potężne powody, aby przyjąć to podejście oparte na wartościach w zarządzaniu AI. Po pierwsze, ponieważ ci, którzy budują i wdrożenie systemów AI, mają etyczną odpowiedzialność wobec ludzi i organizacji, na które wpływają; a po drugie, ponieważ jest to bardziej skuteczny sposób, aby zrealizować obiecane korzyści AI w praktyce.
Użytkownicy systemów AI, zarówno korporacyjni, jak i indywidualni, mają niejawne zaufanie do ich twórców, aby nie nadużywać danych osobowych ani narażać ich na niepotrzebne ryzyko. Kiedy organizacje łamią to zaufanie, staje się bardzo trudne, aby utrzymać tych użytkowników. Ostatecznie, chyba że ludzie ufają systemom AI i mogą zobaczyć wyraźne korzyści, które one dostarczają, nie będą chcieli ich wprowadzić. Spowoduje to większe podziały społeczne i ekonomiczne, a będziemy ominąć wiele możliwości, jakie oferuje ta technologia.
Z drugiej strony, firmy, które stosują ramowe podejście oparte na wartościach wszędzie – w tym w regionach z bardziej luźnymi wymogami dotyczącymi zarządzania – mogą udowodnić klientom, inwestorom i regulatorom, że trzymają się wyższego standardu niż podstawowy poziom zgodności. To buduje zaufanie, zaangażowanie i ostatecznie sukces biznesowy.
Silne zarządzanie AI jest twórcą wartości, a nie obciążeniem zgodności. Umożliwia firmom wprowadzanie nowych produktów na rynek szybciej, redukuje ich narażenie na ryzyko i umożliwia skalowanie rozwiązań w wielu rynkach z pewnością.
Raport McKinsey “Stan AI” stwierdza, że “nadzór CEO nad zarządzaniem AI … jest jednym z elementów najbardziej skorelowanych z wyższym samoopisem wpływu na wynik finansowy organizacji z użyciem gen AI,” podkreślając komercyjne korzyści takiego podejścia. W tym sensie budowanie silnych ram etycznych w systemach AI reprezentuje oświecony interes własny.
Ponadto jest to po prostu słuszna rzecz do zrobienia. Zbudowaliśmy naszą globalną politykę etycznego AI wokół tego samego zasady: że zaawansowane technologie muszą służyć ludziom i społeczeństwu, a nie odwrotnie. To odzwierciedla szerszą wizję Społeczeństwa 5.0: model innowacji ukierunkowany na człowieka, który stara się połączyć postęp gospodarczy z rozwiązaniem wyzwań społecznych.
Jeśli wschodzące technologie, takie jak AI, mają sprzyjać szczęśliwszemu, bardziej harmonijnemu społeczeństwu, muszą być zbudowane na silnych podstawach etycznych. To zaczyna się od skupienia się nie tylko na standardach, których organizacje są wymagane do spełnienia, ale także standardach, które chcą osiągnąć.












