Lideri de opinie
De ce companiile rămân precaute în ceea ce privește IA — și cum să o implementeze în siguranță

IA a cucerit lumea. În timp ce unele organizații au fost adoptate de la început, multe companii au adoptat o abordare mai precaută — preocupate de confidențialitate, conformitate și probleme operaționale care persistă și în prezent.
Am lucrat la sute de implementări care implică unelte de securitate bazate pe IA și am văzut un model familiar care se desfășoară. Campionii aduc entuziasm devreme. Proiectele pilot arată promițător. Apoi vin dezbaterile interne, revizuirile juridice și, în cele din urmă, o pauză, pe măsură ce organizațiile se scufundă în paralizia analizei. În ciuda potențialului imens al IA de a transforma operațiunile de securitate, multe companii sunt încă reticente să o adopte pe deplin.
În ceea ce privește securitatea cibernetică, prudența este adesea instinctul corect. Dar amânarea implementărilor IA nu va opri amenințările bazate pe IA, care cresc în prezent în scară și frecvență. Adevărata provocare constă în a adopta IA în siguranță, cu intenție și fără a compromite încrederea.
Iată ce am învățat din linia întâi — și ce recomand pentru liderii de securitate care sunt gata să avanseze cu încredere.
1. Problema încrederii în date
Prima și cea mai mare piedică este gestionarea datelor. Multe companii sunt îngrozite de ideea că datele sensibile ar putea fi scurse, utilizate în mod abuziv sau — și mai rău — utilizate pentru a antrena un model care beneficiază unui concurent. Încălcările de securitate de mare amploare și asigurările vagi ale furnizorilor nu fac decât să întărească aceste temeri.
Nu este paranoia. Când aveți de-a face cu informații personale ale clienților, proprietate intelectuală sau date reglementate, predarea lor unei părți terțe poate părea o pierdere a controlului. Și până când furnizorii nu vor face o treabă mai bună în clarificarea politicilor lor privind segregarea datelor, reținerea, implicarea părților terțe și antrenarea modelului, adoptarea va rămâne precaută.
Aici guvernanța devine crucială. CISO-urile ar trebui să evalueze furnizorii utilizând cadre emergente, cum ar fi NIST AI Risk Management Framework sau ISO/IEC 42001, care oferă îndrumări practice privind încrederea, transparența și răspunderea în sistemele IA.
2. Nu poți îmbunătăți ceea ce nu măsori
O altă piedică comună este lipsa metricilor de bază. Multe companii nu pot cuantifica performanța curentă, ceea ce face aproape imposibilă demonstrarea rentabilității uneltelor IA. Cum poți afirma o creștere a eficienței cu 40% dacă nimeni nu a urmărit cât a durat sarcina înainte de automatizare?
Indiferent dacă este vorba de timpul mediu de detectare (MTTD), rata falselor pozitive sau orele economisite de analiști, organizațiile trebuie să înceapă prin măsurarea fluxurilor de lucru actuale. Fără aceste date, cazul pentru IA rămâne anecdotic — și sponsorii executivi nu vor aproba inițiative pe scară largă fără numere reale și apărabile.
Începeți să urmăriți KPI-urile cheie, inclusiv:
- Timpul mediu de detectare/răspuns (MTTD/MTTR)
- Reducerea falselor pozitive, a falselor negative și a volumului de ticket
- Orele economisite de analist pe incident
- Îmbunătățiri ale acoperirii (de exemplu, vulnerabilități scanate și remediate)
- Incidente rezolvate fără escaladare
Aceste repere vor deveni coloana vertebrală a strategiei dvs. de justificare a IA.
3. Când uneltele funcționează prea bine
Ironia face că una dintre cauzele pentru care adoptarea IA se oprește este că unele unelte funcționează prea bine — expunând mai mult risc decât organizația este pregătită să gestioneze.
Platformele avansate de informații despre amenințări, uneltele de monitorizare a web-ului întunecat și soluțiile de vizibilitate bazate pe LLM dezvăluie adesea credențiale furate, domenii similare sau vulnerabilități nedetectate anterior. În loc de a crea claritate, această vizibilitate copleșitoare poate genera o nouă problemă: De unde să începem?
Am văzut echipe care dezactivează scanări avansate pentru că volumul de rezultate a creat disconfort politic sau bugetar. O vizibilitate mai bună cere o mai bună prioritizare — și o disponibilitate de a confrunta problemele direct.
4. Blocate în contracte legacy
Chiar și atunci când există unelte mai bune, multe companii sunt blocate în acorduri pe mai mulți ani cu furnizori legacy. Unele dintre aceste contracte au penalități financiare atât de mari încât schimbarea în timpul contractului este imposibilă.
Securitatea e-mailului este un caz clasic. Soluțiile moderne oferă acum detectare a amenințărilor bazate pe IA, modelare comportamentală și reziliență încorporată pentru medii hibride. Dar dacă furnizorul dvs. actual nu a ținut pasul și sunteți blocate într-un contract de cinci ani, sunteți practic înghețate până la expirarea contractului.
Nu este vorba doar de tehnologie. Este vorba de timing, de achiziții și de planificare strategică.
5. Ascensiunea IA în umbră
Adoptarea IA nu se întâmplă doar de sus în jos — se întâmplă peste tot, adesea fără ca securitatea să aibă cunoștință. Cercetările noastre arată că peste 85% dintre angajați utilizează deja unelte IA, cum ar fi ChatGPT, Copilot și Bard. (și nu numai DeepSeek și TikTok!)
Fără supraveghere corespunzătoare, angajații pot introduce date sensibile în unelte publice, pot depinde de ieșiri halucinate sau pot încălca involuntar politicile companiei. Este un coșmar de conformitate și protecție a datelor, și a pretinde că nu se întâmplă nu rezolvă problema.
Liderii de securitate trebuie să adopte o poziție proactivă prin:
- Stabilirea politicilor de utilizare acceptabile
- Blocarea aplicațiilor IA neaprobate și redirecționarea utilizatorilor către unelte autorizate
- Lansarea de platforme IA aprobate și securizate pentru utilizare internă
- Instruirea angajaților în ceea ce privește utilizarea responsabilă a IA
Notă de teren: Politicile de utilizare a IA nu vor schimba utilizarea. Nu puteți impune ceea ce nu știți, așa că primul pas este să cuantificați utilizarea, apoi să comutați butonul de impunere.
6. Externalizarea vine cu propriile riscuri
Puține companii au infrastructura pentru a construi și găzdui modele mari în interior. Acest lucru înseamnă că externalizarea este adesea singura cale viabilă — dar vine cu riscuri ale părților terțe și ale lanțului de aprovizionare cu care CISO-urile sunt prea familiare.
Incidente precum SolarWinds, Kaseya și recenta încălcare a securității Snowflake evidențiază modul în care încrederea în parteneri externi fără vizibilitate poate duce la expuneri majore. Când externalizați infrastructura IA, moșteniți poziția de securitate a furnizorului — bună sau rea.
Nu este suficient să aveți încredere într-o marcă. Cereți clarificări cu privire la:
- Ciclu de viață al modelului și frecvența actualizărilor
- Protocoale de răspuns la incidente
- Controale de securitate și istoric de conformitate al furnizorului
- Isolarea datelor și controalele chiriașilor
7. Suprafața de atac a IA se extinde
Pe măsură ce organizațiile adoptă IA, trebuie să se și pregătească pentru vectori de atac specifici IA. Atacatorii experimentează deja cu:
- Otrăvirea modelului (modificarea subtilă a datelor de antrenament)
- Injectarea de prompt (manipularea comportamentului LLM)
- Intrări adverse (ocolirea detectării)
- Exploatarea halucinațiilor (înșelarea utilizatorilor să aibă încredere în ieșiri false)
Acestea nu sunt teoretice. Sunt reale și în creștere. Pe măsură ce apărătorii adoptă IA, trebuie să-și adapteze și strategiile de testare roșie, monitorizare și răspuns pentru a ține cont de această nouă și unică suprafață de atac.
8. Oamenii și procesele pot fi adevăratele blocaje
Una dintre cele mai ignorate provocări este pregătirea organizațională. Unejtele IA adesea cer schimbări în fluxurile de lucru, seturile de abilități și mentalități.
Analiștii trebuie să înțeleagă când să aibă încredere în IA, când să o conteste și cum să escaladeze eficient. Liderii trebuie să integreze IA în procesele de luare a deciziilor fără a automata riscul în mod orb.
Instruirea, caietele de sarcini și managementul schimbărilor trebuie să evolueze alături de tehnologie. Adoptarea IA nu este doar o inițiativă tehnologică. Este o inițiativă de transformare umană.
Deci ce putem face?
În ciuda provocărilor, cred cu tărie că beneficiile IA în securitate depășesc riscurile — dacă se face corect. Iată cum sfătuiesc organizațiile să avanseze:
- Începeți mic și testați riguros
- Alegeți un caz de utilizare cu impact măsurabil. Rulați proiecte pilot controlate. Validați performanța. Construiți încredere cu date, nu cu hype.
- Aduceți juridic, risc și securitate de la început
- Nu așteptați până la faza contractului. Aduceți juridic și conformitate pentru a verifica termenii de manipulare a datelor, riscurile reglementare și implicațiile lanțului de aprovizionare de la început.
Măsurați totul
Urmați KPI-urile înainte și după implementare. Creați tablouri de bord care vorbesc atât în termeni de securitate, cât și de afaceri. Metricele fac sau spară finanțarea IA.
Alegeți parteneri cu dovezi reale de proiecte de succes
Uitați-vă dincolo de demo-uri. Cereți referințe. Întrebați despre suportul post-vânzare, complexitatea implementării și rezultatele în medii similare cu ale dvs.
Ce urmează? Cazuri de utilizare emergente care merită urmărite
Suntem încă la începutul călătoriei IA în securitate. CISO-ii cu viziune exploră deja:
- Co-piloți IA pentru managementul firewall-ului, GRC și automatizarea conformității
- Utilizarea fluxurilor de amenințări îmbunătățite de IA care accelerează răspunsul la amenințările de zero zi și precizia
- Testarea roșie generativă și simularea atacului
- Infrastructură multi-vendor auto-vindecătoare
- Controale de identitate bazate pe risc, alimentate de date comportamentale IA
Aceste cazuri de utilizare se mută din laboratoarele de inovare în producție. Organizațiile care construiesc mușchi acum vor fi mult mai bine pregătite să capitalizeze.
Gând final: Amânarea nu este apărare
IA este aici și la fel sunt și adversarii IA. Cu cât așteptați mai mult, cu atât pierdeți mai mult teren. Dar acest lucru nu înseamnă că ar trebui să intrați în panică.
Cu planificare atentă, guvernanță transparentă și parteneri potriviți, organizația dvs. poate adopta IA în siguranță — îmbunătățind capacitatea fără a sacrifica controlul.
Viitorul securității este îmbunătățit. Singura întrebare este dacă veți conduce sau veți rămâne în urmă.












