Connect with us

Liderzy opinii

Większe wydatki na bezpieczeństwo AI nie zmniejszają Twojego ryzyka związanego z AI

mm

Budżety na bezpieczeństwo AI rosną szybko. W wielu organizacjach rosną one szybciej niż systemy, które mają chronić.

Tę nierównowagę łatwo przeoczyć. Inwestycje w sztuczną inteligencję nadal przyspieszają, a globalne prywatne finansowanie sięgnęło 33,9 miliarda dolarów w samym 2025 roku. Jednocześnie od liderów bezpieczeństwa wymaga się rozliczania nowych ryzyk związanych z zachowaniem modeli, ekspozycją danych i manipulacjami ze strony przeciwników. Reakcja była przewidywalna: więcej narzędzi, więcej kontroli i większy budżet.

Kuszące jest, aby zamienić to w rozmowę o koszcie prowadzenia działalności, w proste pytanie, ile organizacje muszą wydać na zabezpieczenie AI. To jednak błędne podejście do tego nowego problemu. Zamiast tego organizacje muszą zbadać, czy ich inwestycja w AI faktycznie zabezpiecza właściwe narzędzia.

W większości przedsiębiorstw AI jest wciąż wprowadzana na poziomie zadań. Zespoły eksperymentują z podsumowywaniem, wsparciem kodowania, analityką czy automatyzacją przepływów pracy, aby poprawić indywidualną produktywność. Narzędzia te przynoszą lokalne korzyści, ale rzadko zmieniają sposób podejmowania decyzji lub funkcjonowania systemów na szerszym poziomie. Ta luka zaczyna być widoczna w wynikach. Chociaż adopcja jest powszechna, tylko około 20% organizacji zgłaszają znaczący wpływ na swój wynik finansowy.

Inwestycje w bezpieczeństwo rosną równolegle z tymi eksperymentami. Jednak w wielu przypadkach są one stosowane do rosnącej kolekcji niepowiązanych narzędzi, a nie do spójnych systemów, które kształtują sposób faktycznego działania biznesu. AI jest oceniana na poziomie zadania, zabezpieczana na poziomie systemu i nigdy w pełni projektowana na poziomie przepływu pracy, gdzie tworzona jest prawdziwa wartość.

Adopcja AI rozszerza się szybciej niż jest integrowana

Większość dzisiejszych wdrożeń AI jest z założenia wąska. Są one budowane, aby przyspieszyć pojedyncze zadania, a nie przekształcić sposób przepływu pracy między zespołami lub systemami.

Zespół sprzedaży może wdrożyć AI do tworzenia wersji roboczych e-maili lub podsumowywania rozmów. Zespoły inżynieryjne używają go do przyspieszenia generowania kodu. Zespoły operacyjne eksperymentują z analityką lub wsparciem prognozowania. Każdy z tych przypadków użycia przynosi mierzalne korzyści w produktywności na poziomie indywidualnym i to często wystarcza, aby uzasadnić początkową inwestycję.

Złożoność zaczyna się, gdy te odizolowane korzyści się kumulują.

Każde wdrożenie wprowadza własne modele, wzorce dostępu do danych, API i zależności. Z czasem organizacje odkrywają, że zarządzają rosnącym ekosystemem możliwości AI, które nigdy nie były projektowane do wspólnego działania. Nawet teraz duża część przedsiębiorstw pozostaje we wczesnych etapach eksperymentowania, a wiele inicjatyw nie jest jeszcze osadzonych w kluczowych operacjach biznesowych.

Zespoły bezpieczeństwa przejmują to środowisko w miarę jego powstawania. Prosi się je o zabezpieczenie nie pojedynczego systemu, ale stale zmieniającej się kolekcji narzędzi, integracji i przepływów danych, które rozszerzają się z każdym nowym eksperymentem. Bez jednoczącej architektury bezpieczeństwo staje się ćwiczeniem z zakresu pokrycia, a nie kontroli.

Prawdziwe ryzyko nie tkwi w pojedynczych narzędziach. Tkwi w fragmentacji systemu

W miarę jak eksperymenty z AI trwają, oczekiwania kierownictwa zaczynają się zmieniać. Rady dyrektorów i zespoły wykonawcze pytają, jak rosnące wydatki na AI przekładają się na mierzalne wyniki biznesowe.

Gdy wczesne inicjatywy nie spełniają oczekiwań, organizacje rzadko zwalniają. Rozszerzają swoje wysiłki. Uruchamiane są kolejne pilotaże. Wprowadzane są kolejne narzędzia. Tworzone są kolejne integracje w poszukiwaniu wartości, która jeszcze się nie zmaterializowała. Prognozy już sugerują, że ponad połowa projektów AI może nie dotrzeć do produkcji lub nie przynieść oczekiwanych rezultatów w nadchodzących latach.

Dla zespołów bezpieczeństwa ten cykl tworzy nowy rodzaj ryzyka.

Wyzwaniem nie jest już tylko ochrona pojedynczych aplikacji lub modeli. Jest nim zarządzanie środowiskiem, w którym podstawowy system stale się zmienia. Każde nowe narzędzie wprowadza dodatkowe tożsamości, przepływy danych i zachowania modeli, które rozszerzają powierzchnię ataku, zanim obrońcy zdążą ją w pełni zrozumieć.

W tym kontekście zwiększanie wydatków na bezpieczeństwo niekoniecznie zmniejsza ryzyko. Może zamiast tego zwiększyć złożoność operacyjną. Ochrona rozfragmentowanych systemów wymaga więcej narzędzi, więcej monitorowania i więcej koordynacji, ale nie rozwiązuje podstawowego problemu, jakim jest brak spójnej struktury wdrażania i używania AI.

Wydatki na bezpieczeństwo stają się strategiczne tylko wtedy, gdy AI staje się operacyjna

Znajdujemy się w doskonałym miejscu dzięki inwestycjom w bezpieczeństwo AI; stopień innowacji jest astronomiczny i choć przyszłość przypadków użycia AI jest jasna, inwestycje w bezpieczeństwo są często odłączone od miejsc, w których AI faktycznie tworzy wartość.

Gdy AI jest wdrażana głównie jako zestaw odizolowanych narzędzi produktywności, wysiłki na rzecz bezpieczeństwa są zmuszone podążać za tą fragmentacją. Zespoły kończą na ochronie dziesiątek niepowiązanych aplikacji, które mają ograniczony wpływ na kluczowe wyniki biznesowe.

Większa wartość pojawia się, gdy AI jest osadzona w przepływach pracy, które napędzają sposób działania organizacji. Planowanie, prognozowanie, alokacja zasobów i operacyjne podejmowanie decyzji to obszary, w których AI zaczyna wpływać na wyniki w znaczący sposób. Są to również środowiska, w których inwestycje w bezpieczeństwo stają się bardziej strategiczne.

Zabezpieczenie odłączonego narzędzia chroni zadanie. Zabezpieczenie zintegrowanego systemu chroni proces biznesowy.

W tym miejscu rozróżnienie między adopcją na poziomie zadania a projektowaniem na poziomie przepływu pracy staje się kluczowe. AI, która nie jest zintegrowana z procesem podejmowania decyzji, będzie miała trudności z dostarczeniem mierzalnego wpływu. Bezpieczeństwo, które nie jest dostosowane do tych systemów decyzyjnych, będzie miało trudności z redukcją znaczącego ryzyka.

Zmiana musi nastąpić prędzej niż później

Organizacje nie potrzebują mniej inicjatyw AI. Potrzebują bardziej przemyślanych.

Pierwsza zmiana dotyczy tego, jak ocenia się sukces AI. Jeśli wdrożenie nie zmienia sposobu podejmowania decyzji ani przepływu pracy między zespołami, jego wpływ pozostanie ograniczony, niezależnie od tego, jak powszechnie jest adoptowane. Mierzenie sukcesu na poziomie przepływu pracy, a nie na poziomie zadania, daje wyraźniejszy sygnał, gdzie AI faktycznie dostarcza wartość.

Druga zmiana dotyczy priorytetyzacji inwestycji w bezpieczeństwo. Zamiast rozpraszać kontrole na każdym eksperymentalnym narzędziu, organizacje powinny skoncentrować ochronę wokół systemów, które wpływają na planowanie, operacje i podejmowanie decyzji. To środowiska, w których ryzyko i wartość się przecinają.

Trzecia zmiana ma charakter strukturalny. Systemy AI wprowadzają nowe formy własności, które wykraczają poza tradycyjne granice aplikacji. Modele, dane treningowe, potoki danych i wyjścia generowane przez AI – wszystkie wymagają jasnej odpowiedzialności. Bez zdefiniowanej własności zarządzanie staje się niespójne, a luki w bezpieczeństwie trudniejsze do zidentyfikowania.

Razem wzięte, te zmiany odsuwają organizacje od zabezpieczania aktywności w kierunku zabezpieczania wyników.

Budowanie systemów AI, które faktycznie mogą się skalować

Organizacje, które dostosowują adopcję AI do projektowania na poziomie przepływu pracy, zyskują wyraźniejszą ścieżkę do zarówno wartości, jak i kontroli.

Zasoby bezpieczeństwa stają się bardziej efektywne, gdy są skupione na systemach, które mają największe znaczenie, a nie rozproszone na niepowiązanych eksperymentach. Kierownictwo zyskuje lepszą widoczność tego, jak inwestycje w AI przekładają się na wpływ operacyjny. Z czasem programy AI stają się bardziej zrównoważone, ponieważ są budowane na ustrukturyzowanych systemach, a nie na nagromadzonych narzędziach.

Inwestycje w AI nie zwalniają. Wydatki na bezpieczeństwo będą nadal rosły wraz z nimi. Różnica będzie zależeć od tego, jak te inwestycje są stosowane.

Organizacje, które nadal będą skalować AI na poziomie zadania, odkryją, że zabezpieczają stale rozszerzającą się powierzchnię niepowiązanych narzędzi. Te, które projektują AI na poziomie przepływu pracy, będą zabezpieczać systemy, które faktycznie są warte ochrony.

Steve Povolny, VP of AI Strategy & Security Research, Exabeam is a seasoned security research professional with over 15 years of experience in managing security research teams. He has a proven track record of identifying vulnerabilities and implementing effective solutions to mitigate them.