Connect with us

Liderzy opinii

Shadow AI: The Governance Gap Organizations Can’t Afford to Ignore

mm
A female executive looks out a high-rise office window at night where a glowing, interconnected digital network of

Na tym etapie podróży z AI, liderzy biznesu szeroko rozpoznają znaczenie zarządzania AI. Jednakże tempo, w jakim organizacje rozwijają polityki i zabezpieczenia, nadal pozostaje w tyle za szybkością, z jaką pracownicy przyjmują i integrują AI w swojej codziennej pracy.

Organizacje, które czekają na ramy zarządzania, aby poczuć się “kompletne” przed włączeniem AI, muszą zmierzyć się z trudną rzeczywistością: w przypadku braku wyraźnych zasad dotyczących tego, jak, co i gdzie można używać AI, pracownicy sami zdefiniują te granice. A te decyzje mogą bezpośrednio sprzeciwiać się standardom organizacyjnym, tolerancji ryzyka lub obowiązkom regulacyjnym.

Przewaga w zarządzaniu spowodowała, że shadow AI stało się modelem operacyjnym w wielu organizacjach.

Powszechny i rosnący problem

Shadow AI nie jest ograniczony do pojedynczych współpracowników eksperymentujących na marginesach. Rozciąga się na całą organizację, w tym kierownictwo. Ponieważ AI staje się wbudowane w codzienne przepływy pracy, nawet seniorzy podejmujący decyzje omijają formalne procesy zatwierdzania, aby wykorzystać jego korzyści. W rzeczywistości, niedawne badanie wykazało, że 68% liderów ds. bezpieczeństwa, w tym CISO, przyznaje się do wbudowania nieautoryzowanego AI w przepływy pracy.

W tym samym czasie 79% liderów IT raportuje, że ich organizacje już doświadczyły negatywnych skutków udostępniania danych korporacyjnych narzędziom AI. A analitycy przewidują, że ten problem będzie się nasilał. Gartner szacuje, że do 2030 roku ponad 40% organizacji będzie doświadczać incydentów bezpieczeństwa lub zgodności z powodu użycia nieautoryzowanych narzędzi AI.

Rozszerzająca się powierzchnia ryzyka

Shadow AI przedstawia szeroki zakres ryzyk, w tym:

  • Utrata kontroli nad danymi i potencjalne wycieki danych
  • Poszerzone podatności na ataki i powierzchnia ataków
  • Ekspozycja na zgodność i regulacje
  • Brak widoczności w zakresie korzystania z AI
  • Utrata własności intelektualnej
  • Uszkodzenie reputacji
  • Niedokładne lub tendencyjne dane wyjściowe

Istotnym czynnikiem tych ryzyk jest fundamentalne niezrozumienie, w jaki sposób systemy AI obsługują dane.

Wielu pracowników zakłada, że korzystanie z “darmowych” narzędzi, szczególnie tych, które nie wymagają poświadczeń logowania, oferuje anonimowość lub ochronę. W rzeczywistości te narzędzia często polegają na danych wejściowych użytkowników do szkolenia i poprawy ich modeli, a w niektórych przypadkach udostępniają dane stronom trzecim. Te dane mogą obejmować bardzo wrażliwe informacje, takie jak dane osobowe (PII), dane medyczne lub prawne, rekordy finansowe, własność intelektualna i inne poufne informacje biznesowe.

Jeszcze bardziej niepokojące jest to, że świadomość nie zawsze zmienia zachowanie. Badania wykazują, że 38% pracowników świadomie udostępnia wrażliwe informacje narzędziom AI bez zatwierdzenia organizacyjnego.

Dlaczego shadow AI trwa

Aby skutecznie rozwiązać problem shadow AI, organizacje muszą najpierw zrozumieć jego przyczynę.

W większości przypadków pracownicy nie działają z zamiarem szkodzenia. Reagują racjonalnie na swoje środowisko. Są pod presją, aby działać szybciej, robić więcej z mniej i osiągać lepsze wyniki. AI umożliwia wszystko to.

Shadow AI pojawia się, gdy systemy organizacyjne nie nadążają za tymi oczekiwaniami. Powszechne czynniki obejmują:

  • Ścisłe zakazy używania narzędzi AI w miejscu pracy
  • Zatwierdzone narzędzia, które są mniej zdolne lub mniej przyjazne dla użytkownika
  • Ciśnienie, aby dotrzymać agresywnych terminów
  • Wolne lub skomplikowane procesy zakupowe
  • Niejasne, niespójne lub nieistniejące polityki
  • Ograniczone szkolenia lub wskazówki
  • Nadmierna ufność w osobistą ocenę lub zaniżanie ryzyka

W swojej istocie shadow AI jest kompromisem. Kiedy postrzegane korzyści produktywności przewyższają postrzegane ryzyko, pracownicy zawsze wybiorą prędkość i wydajność.

Zarządzanie AI bez tłumienia innowacji

Pracownicy już korzystają z AI. Ignorowanie tego faktu lub opóźnianie działań tylko powiększa lukę między polityką a praktyką.

Organizacje powinny zmienić swój podejście z kontroli na umożliwienie.

To zaczyna się od ustanowienia jasnych, praktycznych i przejrzystych wytycznych, nawet jeśli nie są one w pełni dojrzałe. Wczesne zabezpieczenia zapewniają kierunki, redukują niejasności i tworzą wspólne zrozumienie akceptowalnego użycia.

Ale sama polityka nie jest wystarczająca. Organizacje potrzebują również widoczności. To wymaga budowania mechanizmów opartych na zaufaniu, które pozwalają pracownikom bezpiecznie ujawniać, jakie narzędzia używają i dlaczego. Podejścia, takie jak “okresy amnestii dla shadow AI” lub anonimowe raportowanie, mogą ujawnić krytyczne informacje bez karania zachowania.

Od shadow do strategii

Shadow AI jest sygnałem, że innowacje rozwijają się szybciej niż struktury organizacyjne zaprojektowane do ich ograniczania.

Organizacje nie mogą pozwolić sobie na oczekiwanie. Ustanowienie zarządzania teraz, nawet jeśli jest nieidealne, jest kluczowe dla zmniejszenia ryzyka i odzyskania widoczności. Ale zarządzanie samym w sobie nie jest wystarczające. Jasne zabezpieczenia muszą być połączone z umożliwieniem, edukacją i dostępnymi alternatywami, które umożliwiają pracownikom bezpieczne i skuteczne korzystanie z AI.

Celem nie jest ograniczanie adopcji AI, ale kształtowanie jej. Kiedy organizacje osiągają ten balans, shadow AI przechodzi z ukrytej odpowiedzialności w zarządzaną, strategiczną możliwość. I robiąc to, mogą zamknąć lukę między tym, jak AI jest używany, a tym, jak powinien być używany, zanim ta luka rozwinie się w naruszenie.

Lina Dabit przynosi ponad trzydzieści lat doświadczenia w operacyjnym i strategicznym przywództwie do swojej roli w Optiv Canada. Dabit wykorzystuje swoje różnorodne doświadczenie w dziedzinie bezpieczeństwa, aby prowadzić organizacje w kierunku proaktywnego podejścia do wywiadu zagrożeń, zarządzania ryzykiem stron trzecich i funkcjonalnej wytrzymałości bezpieczeństwa. Dabit kierowała zespołami z różnych dziedzin, w tym operacji ochronnych, planowania awaryjnego, wywiadu zagrożeń i międzynarodowych operacji taktycznych.

Przed przejściem na emeryturę z Królewskiej Kanadyjskiej Policji Konnej, Dabit była dowódcą Zespołu Śledczego Przestępstw Cybernetycznych w Toronto, gdzie projektowała, wdrażała i kierowała strategicznymi inicjatywami w celu optymalizacji operacji i ustanowienia wydajnych, skalowalnych procesów roboczych, jednocześnie prowadząc swój zespół w kilku wysokoprofilowych śledztwach w sprawie przestępstw cybernetycznych.