Liderzy myśli
W głowie dzisiejszego CISO: żonglowanie szumem wokół sztucznej inteligencji i spustoszeniem hakerów

Jako CISO stoimy na czele paradoksu cyberbezpieczeństwa. Z jednej strony, sztuczna inteligencja oferuje obietnicę transformacji, umożliwiając rozwój szybkości, wydajności i innowacyjności. Z drugiej strony, wprowadza poziom złożoności, skali i ryzyka, jakiego nigdy wcześniej nie widzieliśmy.
Ze względu na złożoność dzisiejszych środowisk hybrydowych w chmurze, napędzanych przez wdrażanie sztucznej inteligencji, prawie wszyscy (97%) dyrektorzy ds. bezpieczeństwa informacji coraz częściej idą na kompromisy w jaki sposób zabezpieczają i zarządzają swoją infrastrukturą.
Zmusza to dyrektorów ds. bezpieczeństwa informacji (CISO) do ponownej kalibracji strategii cyberbezpieczeństwa i zmiany nastawienia z „jak nadążać” na „jak przewodzić?”.
Chmura publiczna: od mistrza innowacji do naszego największego zagrożenia
Jeszcze kilka lat temu chmura publiczna była synonimem zwinności, oszczędności i szybkości. Jednak ta sama otwartość i zwinność, które uczyniły chmurę publiczną tak atrakcyjną, stały się jej największym obciążeniem. Dziś 75% CISO identyfikuje jest to największe zagrożenie bezpieczeństwa w każdym innym środowisku.
Co stoi za tą zmianą? U podstaw leży niepewność ruchu sieciowego. Wraz z wdrażaniem przez organizacje generatywnych narzędzi sztucznej inteligencji (AI) i modeli LLM, hybrydowa infrastruktura chmurowa doświadcza bezprecedensowego wzrostu wolumenu danych. Co trzecia organizacja twierdzi, że jej ruch sieciowy podwoił się dzięki AI. Te wykładnicze przepływy danych nie tylko przytłaczają systemy, ale także ujawniają luki w widoczności chmury i wykrywaniu zagrożeń.
Aktorzy zagrożenia to: wykorzystując te niespójności. Prawie połowa organizacji odnotowała wzrost liczby ataków wymierzonych konkretnie w ich LLM, a ponad połowa odnotowała wzrost liczby ataków ransomware opartych na sztucznej inteligencji, co stanowi wzrost o 17% w porównaniu z ubiegłym rokiem.
Nie mówimy już o teoretycznym ryzyku. Mówimy o realnej i rosnącej powierzchni zagrożenia, aktywnie wykorzystywanej przez coraz bardziej wyrafinowanych przeciwników. Hakerzy ukrywają się w zaszyfrowanym ruchu, wtapiają się w legalne strumienie danych AI i wykorzystują automatyzację, aby skalować ataki szybciej, niż większość organizacji jest w stanie je wykryć.
Plan działania CISO na erę napędzaną sztuczną inteligencją
W jaki sposób dyrektorzy ds. bezpieczeństwa informacji (CISO) mogą odzyskać kontrolę w środowisku, w którym zasady zmieniają się codziennie, a stawka jest wyższa niż kiedykolwiek?
Odpowiedź nie leży w większej liczbie narzędzi, ale po prostu w lepszym zrozumieniu tego, co dzieje się ze wszystkimi danymi w ruchu. To, w połączeniu ze strategiczną zmianą w podejściu do bezpieczeństwa chmury i sztucznej inteligencji, jest tym, czego CISO potrzebują, aby przewodzić swoim organizacjom w obliczu tej transformacji.
Oto plan działania, który stosuję, aby zapewnić mojej organizacji przejrzystość w miarę wdrażania sztucznej inteligencji i wprowadzania innowacji w tej dziedzinie:
1. Widoczność musi być podstawą, a nie czymś opcjonalnym
Sztuczna inteligencja na nowo definiuje to, co musimy widzieć. Większość starszych narzędzi bezpieczeństwa nie jest zaprojektowana do obsługi tego poziomu złożoności. Tradycyjne dane z punktów końcowych i logów już nie wystarczają. Potrzebujemy pełnej widoczności wszystkich danych w ruchu, w tym ruchu bocznego wschód-zachód, szyfrowanych przepływów oraz zachowań specyficznych dla sztucznej inteligencji, takich jak dostęp do LLM, wdrożenia ukrytej sztucznej inteligencji (shadow AI) i próby eksfiltracji danych ukryte w potokach wnioskowania. Kluczem jest telemetria pochodząca z sieci w postaci pakietów, przepływów i metadanych, która w połączeniu z danymi z logów zapewnia organizacjom dogłębną obserwację całej infrastruktury.
Liderzy bezpieczeństwa mówili to już wiele razy, ale teraz jest to bardziej aktualne niż kiedykolwiek: jeśli czegoś nie widzisz, nie możesz tego zabezpieczyć.
2. Wdrażaj zabezpieczenia w inicjatywach AI od pierwszego dnia
Jednym z najniebezpieczniejszych trendów, jakie zaobserwowaliśmy, jest rozdźwięk między innowacjami w dziedzinie sztucznej inteligencji a nadzorem nad bezpieczeństwem. Bezpieczeństwa nie da się dorzucić po fakcie, zwłaszcza że wielu dyrektorów ds. bezpieczeństwa informacji (CISO) ponosi odpowiedzialność za niedociągnięcia. Zamiast tego liderzy ds. bezpieczeństwa mają możliwość przedefiniowania strategii bezpieczeństwa, równoważąc transformacyjną moc sztucznej inteligencji (AI) z solidnym modelem zarządzania. Dyrektorzy ds. bezpieczeństwa informacji (CISO) powinni uczestniczyć w opracowywaniu ram dla sztucznej inteligencji (AI), współpracując z zespołami w celu określenia dopuszczalnego użycia, progów ryzyka i zasad zarządzania od samego początku. Zapewni to bezpieczne wdrożenie i użytkowanie AI.
3. Konsoliduj narzędzia, nie mnoż ich
Rozrost narzędzi to cichy zabójca. W odpowiedzi na pojawiające się zagrożenia związane ze sztuczną inteligencją wiele organizacji dodawanie kolejnych narzędzi, możliwości i złożoność. To jednak tylko wprowadza zamieszanie i więcej luk. Zamiast tego należy skupić się na integracji mniejszej liczby, bardziej wydajnych platform, które mogą pobierać i wzbogacać dane telemetryczne w całym środowisku.
4. Wspieraj zespoły ds. bezpieczeństwa sztuczną inteligencją, a nie przeciwko niej
To takie proste: potrzebujesz bezpieczeństwa dla AI i AI dla bezpieczeństwa. CISO powinni zapewnić sobie wgląd w czasie rzeczywistym w cały ruch GenAI i LLM, w tym Wykorzystanie sztucznej inteligencji Shadow, co podejrzewa się w prawie 80% organizacji. Kluczowe jest, aby korzystanie ze sztucznej inteligencji (AI) było bezpieczne i uwzględniane, ale przyjrzyjmy się również temu drugiemu. Aby zachować przewagę, istnieje wiele możliwości wykorzystania zalet GenAI dla dobra organizacji zajmującej się bezpieczeństwem. Asystenci GenAI mogą na przykład pomóc analitykom SOC w tworzeniu reguł wykrywania, badaniu incydentów i automatyzacji procesów reagowania. Inteligencja ruchu AI może sygnalizować anomalie w zachowaniu modelu lub wykrywać nieautoryzowane użycie usług GenAI. Nie chodzi o to, aby bać się sztucznej inteligencji (AI), ale o to, aby zaakceptować ją na naszych warunkach, z odpowiednim zarządzaniem i celem.
5. Mów językiem zarządu
Wreszcie, jako CISO, musimy dążyć do uzgodnienia siebie i naszych priorytetów z zarządem. Cyberbezpieczeństwo, zwłaszcza w dobie sztucznej inteligencji, staje się coraz bardziej odpowiedzialne, podobnie jak ryzyko finansowe czy prawne, ale musimy zadbać o to, aby budżet, odpowiedzialność i priorytety były dzielone na poziomie zarządu.
Z mojego doświadczenia wynika, że zarząd nie chce słuchać o technicznych hipotezach i obawach. Zamiast tego chce zrozumieć ryzyko i korzyści biznesowe. Według badania 88% liderów twierdzi, że bezpieczeństwo sztucznej inteligencji jest obecnie priorytetem na poziomie zarządu. Daje nam to ogromną szansę na przeformułowanie naszych inicjatyw pod kątem ochrony wartości, odporności operacyjnej i przewagi konkurencyjnej.
W dobie przyspieszenia cyfrowego, CISO mają wyjątkową okazję przewodzić transformacji AI. Promując przejrzystość, dostosowując cyberbezpieczeństwo do zmieniających się realiów AI i tłumacząc ryzyko na język strategiczny zrozumiały dla zarządu, mogą oni zapewnić swoim organizacjom przewagę konkurencyjną. Przyszłość cyberbezpieczeństwa leży w jednoczesnym wdrażaniu i operacjonalizacji AI – w sposób odpowiedzialny, inteligentny i celowy.