Connect with us

Cyberbezpieczeństwo

AI, odpowiedzialność i wezwanie do budzenia się w zakresie cyberbezpieczeństwa

mm

Podczas gdy organizacje coraz częściej wykorzystują sztuczną inteligencję (AI), aby napędzać innowacje, transformować operacje i usprawniać procesy decyzyjne, muszą również mierzyć się z inną rzeczywistością: AI w szybkim tempie zmienia krajobraz zagrożeń cybernetycznych. Chociaż AI pomaga CISO w poprawie wykrywania i reagowania, prowadzi również do bardziej zaawansowanych ataków cybernetycznych. Te same silniki AI, które generują cenne informacje, mogą również generować fałszywe tożsamości, kampanie phishingowe i oprogramowanie szkodliwe.

Raport Wipro State of Cybersecurity Report 2025 dokładnie przedstawia tę rzeczywistość. Pomimo obietnic AI, aby wzmocnić bezpieczeństwo, organizacje nadal nie radzą sobie. Nie jest to jednak spowodowane technologią, ale lukami w odpowiedzialności, izolowanymi planami zarządzania i słabą świadomością bezpieczeństwa. Wiele naruszeń bezpieczeństwa wynika nie tylko z działań zaawansowanych przeciwników, ale także z błędów ludzkich i niedoinwestowania w podstawowe bezpieczeństwo.

Rozszerzający się krajobraz zagrożeń

AI zmienił krajobraz dla cyberprzestępców. Mogą oni teraz wykorzystywać modele generatywne do tworzenia spersonalizowanych wiadomości phishingowych, automatyzować tworzenie oprogramowania szkodliwego, które może uniknąć wykrycia, a nawet manipulować dźwiękiem i wideo, aby podszywać się pod dyrektorów wykonawczych za pomocą deepfake. Taktyki te nie są już ograniczone do aktorów państwowych lub elitarnych grup hakujących, ponieważ są dostępne za pośrednictwem otwartych narzędzi i platform AI-as-a-service.

Badania Wipro pokazują, że 44% organizacji wymienia teraz zaniedbania wewnętrzne i brak świadomości bezpieczeństwa pracowników jako główne słabości, nawet więcej niż oprogramowanie ransomware w indeksie ryzyka. To pokazuje, że wiele firm nie nadąża za ewoluującą naturą ataków: systemy legacy, przestarzałe oprogramowanie i słabe strategie zarządzania łatami sprawiają, że łatwo jest cyberprzestępcom naruszyć sieci.

Zaniedbywanie podstawowych praktyk bezpieczeństwa nie jest już przestarzałym lub wybaczalnym przeoczeniem — jest to krytyczne ryzyko biznesowe. Wzrost ataków wspomaganych przez AI tylko powiększa lukę między organizacjami, które traktują bezpieczeństwo cybernetyczne poważnie, a tymi, które nie.

Zarzuty odpowiedzialności

Jednym z głównych wniosków raportu jest brak wyjaśnienia wokół własności bezpieczeństwa cybernetycznego. Chociaż 53% CISO raportuje bezpośrednio do CIO, reszta jest rozproszona po różnych funkcjach wykonawczych, w tym COO, CFO i zespołach prawnych. To osłabia podejmowanie decyzji i sprawia, że trudno jest określić, kto jest naprawdę odpowiedzialny za wyniki bezpieczeństwa.

Ten problem staje się bardziej palący, gdy AI wchodzi w grę. Raport wykazał, że 70% respondentów z Europy uważa, że wdrożenie AI powinno być wspólną odpowiedzialnością, jednak tylko 13% ma wyznaczony zespół nadzorujący je. Wdrożenie AI często postępuje bez krytycznego nadzoru ryzyka bez wyraźnie określonej własności, co prowadzi do niekonsekwentnych praktyk, niezarządzanych słabości i pomijanych możliwości wyrównania z ramami regulacyjnymi.

Liderzy IT powinni traktować bezpieczeństwo cybernetyczne i zarządzanie AI jako strategiczne priorytety na poziomie zarządu. Starsi wykonawcy muszą wyjść poza bierny nadzór i uczestniczyć w ćwiczeniach, planowaniu scenariuszy i przeglądach gotowości cybernetycznej. W dzisiejszym środowisku współpraca, komunikacja i zarządzanie kryzysowe są konieczne do utrzymania odporności.

Rola AI w przekształcaniu bezpieczeństwa

Chociaż AI stworzył nowe zagrożenia, oferuje również potężne możliwości, aby pomóc organizacjom chronić ich sieci. Wykrywanie zagrożeń napędzane przez AI może analizować duże ilości danych w czasie rzeczywistym, zmniejszać fałszywe pozytywy i identyfikować nieregularności behawioralne, które mogą wskazywać na naruszenie. Może automatyzować incydenty, przyspieszać czasy reakcji i pomagać centrom operacji bezpieczeństwa.

Według Wipro, 93% organizacji ankietowych priorytetem jest AI do wykrywania i reagowania na zagrożenia, co odzwierciedla wartość organizacji w wykrywaniu zagrożeń. Ten podwójny charakter AI wymaga uzasadnionego i odpowiedzialnego podejścia do wdrożenia. Organizacje potrzebują ram zarządzania, które obejmują wyjaśnialność modeli, łagodzenie stronniczości i zgodność z przepisami o ochronie danych. Bez nich AI może stać się nieprzewidywalnym ryzykiem, a nie narzędziem dla odporności.

Dlaczego szkolenie pracowników nadal ma znaczenie

W świecie zaawansowanych narzędzi AI błąd ludzki nadal pozostaje najbardziej konsekwentną słabością w bezpieczeństwie cybernetycznym. Phishing pozostaje najważniejszym wektorem ataku dla 65% organizacji. Ponieważ atakujący wykorzystują AI do tworzenia bardziej przekonywających taktyk inżynierii społecznej, wzrasta ryzyko naruszeń spowodowanych przez użytkownika.

Jednym z głównych powodów jest to, że organizacje często traktują szkolenia z zakresu bezpieczeństwa cybernetycznego jako jednorazową działalność zgodności. Powinno to być procesem ciągłym, który ewoluuje w czasie. Pracownicy powinni być szkoleni na temat typowych zagrożeń i ryzyk napędzanych przez AI, takich jak deepfake głos lub ataki prompt injection na platformach z obsługą AI. Zaniedbane aktualizacje, niezabezpieczone systemy i uzależnienie od infrastruktury legacy pozostają trwałymi problemami i tworzą okazje do naruszeń. Szkolenia powinny być prowadzone wraz z regularnymi audytami, zarządzaniem łatami i koordynacją między departamentami.

Aby naprawdę bronić się przed nowoczesnymi zagrożeniami, organizacje muszą inwestować w inteligencję ludzką i maszynową oraz upewnić się, że ich zespoły są tak samo elastyczne i adaptacyjne, jak ich technologie.

Budowanie kultury odpowiedzialności

Podstawą strategii bezpieczeństwa cybernetycznego nie jest technologia, ale wyjaśnienie. Organizacje muszą określić, kto jest odpowiedzialny za co, ustanowić struktury zarządzania i zachęcać do kultury bezpieczeństwa, która obejmuje wszystkie obszary.

Kluczem jest uprawnienie CISO lub równoważnej roli kierowniczej IT z autorytetem i widocznością. Jest to mądre, aby utworzyć międzyfunkcyjne rady ds. ryzyka cybernetycznego, w tym przedstawicieli IT, zgodności, prawa i jednostek biznesowych. Niektóre firmy tworzą komitety na poziomie zarządu, które koncentrują się specjalnie na nadzorze bezpieczeństwa cybernetycznego.

Ramowe zarządzania wdrożeniami AI muszą obejmować kontrolę nad danymi szkoleniowymi, wdrożeniem modelu, prawami dostępu i monitorowaniem w czasie rzeczywistym. Te ramy powinny ewoluować wraz z regulacjami, takimi jak EU AI Act i pojawiającymi się standardami branżowymi dla etycznego wykorzystania AI.

Edukacja pracowników na temat AI również musi być wbudowana w tę zmianę kulturową. Bezpieczeństwo AI nie jest tylko problemem IT — jest to wspólna odpowiedzialność na wszystkich departamentach, regionach i rolach. Cała firma wygrywa, gdy każdy w organizacji rozumie swoją rolę w ochronie danych i systemów.

Od świadomości do działania

AI zmienia krajobraz bezpieczeństwa cybernetycznego. Atakujący są szybsi, bardziej skalowalni i coraz częściej zautomatyzowani. Obrońcy mają potężne narzędzia do dyspozycji, ale same narzędzia nie uratują ich.

Organizacje muszą budować lepsze procesy zarządzania, a nie tylko bardziej potężne algorytmy. Obejmuje to wyjaśnienie odpowiedzialności za systemy AI i możliwe włączenie AI do mieszanki bezpieczeństwa cybernetycznego.

Raport przekazuje wyraźną wiadomość: technologia rozwija się w szybkim tempie, ale ludzie, procesy i priorytety pozostają w tyle. Przezwyciężenie tej luki jest strategicznym imperatywem, zwłaszcza teraz, gdy AI pojawiło się na scenie. Nie ma wątpliwości, że AI będzie nadal zmieniać sposób, w jaki żyjemy i pracujemy. Ale czy ta transformacja wzmocni, czy osłabi Twoją organizację, zależy od tego, jak poważnie traktujesz odpowiedzialność, zaczynając od dziś.

Saugat Sindhu, Starszy Partner i Globalny Dyrektor Usług Doradczych, Cyberbezpieczeństwo i Usługi Ryzyka, Wipro.