Spojte se s námi

Myšlenkové vůdce

V mysli dnešního CISO: Žonglování s humbukem kolem umělé inteligence a hackerským chaosem

mm

Jako CISO stojíme v popředí paradoxu kybernetické bezpečnosti. Na jedné straně nabízí umělá inteligence transformační potenciál se schopností zvýšit rychlost, efektivitu a inovace. Na druhé straně však umělá inteligence zavádí úroveň složitosti, rozsahu a rizika, jakou jsme dosud neviděli.

Vzhledem ke složitosti dnešních hybridních cloudových prostředí, poháněné zaváděním umělé inteligence, téměř všichni (97 %) CISO stále častěji dělají kompromisy v tom, jak zabezpečují a spravují svou infrastrukturu.

To nutí CISO přehodnotit své strategie kybernetické bezpečnosti a změnit myšlení z „jak udržet krok“ na „jak vést?“.

Veřejný cloud: Od šampiona inovací k naší největší hrozbě

Ještě před několika lety byl veřejný cloud synonymem pro agilitu, úsporu nákladů a rychlost. Ale tatáž otevřenost a agilita, která dělala veřejný cloud tak atraktivním, se stala zároveň jeho největším nedostatkem. Dnes, 75 % CISO identifikuje jako největší bezpečnostní riziko jakéhokoli jiného prostředí.

Co je příčinou tohoto posunu? V jádru je nejistota síťového provozu. Vzhledem k tomu, že organizace zavádějí generativní nástroje umělé inteligence a LLM, hybridní cloudová infrastruktura zažívá nebývalý nárůst objemů dat. Ve skutečnosti každá třetí organizace nyní uvádí, že se její síťový provoz kvůli umělé inteligenci zdvojnásobil. Tyto exponenciální datové toky nejen zahlcují systémy, ale také odhalují trhliny ve viditelnosti cloudu a detekci hrozeb.

Aktéři hrozby jsou zneužívání těchto nesrovnalostí. Téměř polovina organizací zaznamenává nárůst útoků zaměřených konkrétně na jejich LLM, přičemž více než polovina zaznamenala nárůst ransomwaru s využitím umělé inteligence, což je o 17 % více než v loňském roce.

Už nemluvíme o teoretickém riziku. Mluvíme o skutečném a rostoucím povrchu hrozby, který aktivně zneužívají stále sofistikovanější protivníci. Hackeři se skrývají v šifrovaném provozu, mísí se s legitimními datovými toky umělé inteligence a využívají automatizaci k rychlejšímu škálování útoků, než je většina organizací dokáže odhalit.

Plán CISO pro éru řízenou umělou inteligencí

Jak mohou CISO znovu získat kontrolu v prostředí, kde se pravidla mění denně a v sázce je více než kdy jindy?

Odpověď nespočívá ve větším počtu nástrojů, ale jednoduše v lepším pochopení toho, co se děje napříč všemi pohybujícími se daty. To, spolu se strategickým posunem v našem přístupu k zabezpečení cloudu a umělé inteligence, je to, co potřebují CISO k tomu, aby mohli své organizace v této transformaci vést.

Zde je plán, který používám k zajištění přehlednosti pro mou organizaci, jelikož pokračujeme v přijímání a inovacích umělé inteligence:

1. Viditelnost musí být základní, nikoli volitelná

Umělá inteligence nově definuje, co potřebujeme vidět. Většina starších bezpečnostních nástrojů není pro tuto úroveň složitosti stavěna. Tradiční data z koncových bodů a protokolů již nestačí. Potřebujeme úplný přehled o všech datech v pohybu, což zahrnuje laterální provoz East-West, šifrované toky a chování specifické pro umělou inteligenci, jako je přístup k LLM, nasazení stínových AI a pokusy o exfiltraci dat skryté v inferenčních kanálech. Klíč spočívá v telemetrii odvozené ze sítě ve formě paketů, toků a metadat, které ve spojení s protokolovými daty poskytují organizacím hluboký přehled o celé jejich infrastruktuře.

Bezpečnostní lídři to už mnohokrát řekli, ale teď to zní pravdivěji než kdy jindy: co nevidíte, nemůžete to zabezpečit.

2. Začleňte bezpečnost do iniciativ v oblasti umělé inteligence od prvního dne

Jedním z nejnebezpečnějších trendů, které jsme zaznamenali, je rozpor mezi inovacemi v oblasti umělé inteligence a bezpečnostním dohledem. Zabezpečení nelze dodatečně zajistit, zejména proto, že mnoho CISO je zodpovědných za nedostatky. Vedoucí pracovníci v oblasti bezpečnosti mají místo toho příležitost předefinovat bezpečnostní strategie a vyvážit transformační sílu umělé inteligence robustním modelem správy a řízení. CISO by se měli podílet na vývoji rámce pro umělou inteligenci a spolupracovat s týmy na definování přijatelného použití, prahových hodnot rizika a zásad správy a řízení od samého začátku. To zajistí její bezpečné nasazení a používání.

3. Konsolidujte nástroje, nemnožte je

Rozpínání nástrojů je tichý zabiják. V reakci na nově vznikající rizika umělé inteligence mnoho organizací přidání dalších nástrojů, schopnosti a složitosti. To ale jen vytváří zmatek a další slepá místa. Místo toho se zaměřte na integraci menšího počtu výkonnějších platforem, které dokáží přijímat a obohacovat telemetrii v celém prostředí.

4. Posilte bezpečnostní týmy pomocí umělé inteligence, ne proti ní

Je to tak jednoduché: potřebujete zabezpečení pro AI a potřebujete AI pro zabezpečení. CISO by měli zajistit, aby měli přehled o veškerém provozu GenAI a LLM v reálném čase, včetně… Využití stínové umělé inteligence, což je podezření v téměř 80 % organizací. Je zásadní, aby používání umělé inteligence bylo bezpečné a zohledněné, ale pojďme se ponořit i do druhé oblasti. Abyste si udrželi výhodu, existuje spousta příležitostí k využití výhod GenAI ve prospěch vaší bezpečnostní organizace. Asistenti GenAI mohou například pomoci analytikům SOC psát pravidla detekce, vyšetřovat incidenty a automatizovat pracovní postupy reakce. Informace o provozu s využitím umělé inteligence mohou označit anomálie v chování modelu nebo detekovat neoprávněné používání služeb GenAI. Nejde o to, abychom se umělé inteligence bál, ale o to, abychom ji přijali za našich podmínek, s řídicí a účelovou správou.

5. Mluvte jazykem představenstva

A konečně, jakožto CISO musíme usilovat o sladění sebe a svých priorit s radami. Kybernetická bezpečnost, zejména ve věku umělé inteligence, s sebou nese stejnou odpovědnost jako finanční nebo právní rizika, ale musíme zajistit, aby rozpočet, odpovědnost a priority byly sdíleny na úrovni rady.

Z mé zkušenosti vím, že představenstvo nechce slyšet o technických hypotetických situacích a obavách. Místo toho chce pochopit obchodní rizika a odměny. Podle průzkumu 88 % vedoucích pracovníků uvádí, že bezpečnost umělé inteligence je nyní prioritou na úrovni představenstva. To nám dává silnou příležitost přehodnotit naše iniciativy z hlediska ochrany hodnoty, provozní odolnosti a konkurenční výhody.

V této éře digitální akcelerace mají CISO jedinečnou příležitost stát se lídrem transformace umělé inteligence. Prosazováním viditelnosti, sladěním kybernetické bezpečnosti s vyvíjející se realitou umělé inteligence a překladem rizik do strategického jazyka, kterému představenstvo rozumí, mohou svým organizacím uvolnit konkurenční výhodu. Budoucnost kybernetické bezpečnosti spočívá v současném přijetí a operacionalizaci umělé inteligence – zodpovědně, inteligentně a účelně.

Chaim Mazal je hlavní bezpečnostní ředitel odpovědný za nasazení a bezpečnost umělé inteligence, globální bezpečnost, informační technologie, síťové operace, správu a řízení, rizika, dodržování předpisů, interní obchodní systémy a také za bezpečnost produktů Gigamon. Před nástupem do společnosti gigamon Podobné role zastával u několika lídrů v oboru, naposledy ve společnosti Kandi, kde byl seniorním viceprezidentem pro technologie a CISO. Chaim je doživotním členem nadace Open Web Application Security Project (OWASP) a v současné době působí v několika poradních sborech, včetně Cloudflare, Gitlab a Lacework. Chaim má bakalářský titul z Rabbinical College of America.