Conectează-te cu noi

interviuri

Jacob Ideskog, CTO al Curity – Serie de interviuri

mm

Iacob Ideskog este specialist în identitate și director tehnic la Curity. Cea mai mare parte a timpului său o petrece lucrând cu soluții de securitate în domeniul API și web. A lucrat atât la proiectarea, cât și la implementarea soluțiilor OAuth și OpenID Connect pentru implementări de companii mari, precum și pentru startup-uri mici.

Curiozitate este o platformă modernă de gestionare a identității și accesului (IAM) construită în jurul serverului Curity Identity Server, o soluție bazată pe standarde concepută pentru a securiza autentificarea și autorizarea aplicațiilor, API-urilor și serviciilor digitale la scară largă. Acceptă protocoale precum OAuth 2.0 și OpenID Connect pentru a centraliza fluxurile de conectare, a aplica politici de acces detaliate și a emite token-uri securizate atât pentru utilizatorii umani, cât și pentru clienții mașini, inclusiv API-uri și servicii. Platforma este concepută pentru flexibilitate și scalabilitate, permițând organizațiilor să implementeze în medii cloud, hibride sau locale, să se integreze cu sistemele existente și să ofere experiențe sigure și fără probleme utilizatorilor, fără a se baza pe o infrastructură de securitate personalizată.

Ți-ai petrecut o mare parte din carieră dezvoltând sisteme de securitate API și de identitate, de la co-fondarea Curity până la conducerea acesteia ca director tehnic, prin ascensiunea cloud-ului și acum a inteligenței artificiale. Cum ți-a modelat această călătorie opinia că agenții IA ar trebui tratați ca identități digitale de primă clasă, mai degrabă decât doar un alt software?

În fiecare domeniu tehnologic în care am lucrat, o problemă reapare constant. Fie că este vorba de cloud computing sau acum de inteligența artificială, dacă software-ul acționează în numele unei persoane sau al unui alt sistem, aveți o problemă de identitate.

Odată cu adoptarea în masă a inteligenței artificiale agențice, această problemă se agravează. Comportamentul lor nu mai este strict programat și operează cu un nivel de autonomie pe care întreprinderile nu l-au mai văzut până acum. Agenții de inteligență artificială iau decizii, apelează API-uri și înlănțuiesc acțiuni între sisteme - adesea fără supraveghere umană directă. Acest comportament creează provocări de identitate și acces care sunt fundamental diferite de software-ul tradițional.

„Tratarea agenților IA ca identități digitale de primă clasă este singura modalitate de a aborda această problemă în mod corespunzător. Dacă organizațiile îi tratează doar ca pe un alt proces sau cont de serviciu, pierd vizibilitatea și controlul foarte repede – iar aceasta este o rețetă pentru o criză de securitate.”

Multe companii sunt entuziasmate de inteligența artificială agentială, dar rămân blocate în experimente. Din ceea ce se observă în implementările reale, care sunt cele mai frecvente lacune de identitate și guvernanță care împiedică organizațiile să scaleze agenții în siguranță?

Majoritatea experimentelor au loc în sandbox-uri izolate care ignoră ce se întâmplă la scară largă. În timpul proiectelor pilot timpurii, echipele oferă adesea agenților chei API largi, acreditări partajate sau permisiuni generale în cloud doar pentru a demara lucrurile.

Această abordare se destramă în momentul în care agenții sunt implementați dincolo de fazele pilot. Acest lucru se datorează faptului că echipele de securitate nu pot vedea ce date a accesat un agent, acțiunile sale sau dacă și-a depășit domeniul de aplicare prevăzut; fie accidental, fie în mod intenționat. Aceste puncte slabe fac imposibilă guvernarea agenților în siguranță, motiv pentru care multe organizații se luptă să depășească fazele pilot.

Ați susținut că barierele de siguranță stricte sunt esențiale pentru IA agențică. Cum arată în practică un design de identitate „bun” pentru agenții IA și unde greșesc de obicei companiile?

Un design bun al identității începe cu principiul privilegiilor minime și al permisiunilor legate de o intenție explicită. Fiecare agent de inteligență artificială ar trebui să aibă propria identitate, permisiuni cu un domeniu de aplicare restrâns și relații de încredere clar definite (reguli explicite pentru care sisteme are voie să interacționeze). Fundamental, accesul ar trebui să fie limitat de scop, restricționat în timp și ușor de revocat.

Companiile greșesc atunci când reutilizează conturile de servicii existente sau presupun că agenții interni sunt în siguranță în mod implicit. Această presupunere nu rezistă la amenințările din lumea reală. Actorii rău intenționați caută în mod activ exact aceste puncte slabe, iar agenții IA cresc dramatic raza potențială de explozie atunci când designul identității este neglijent.

Curity lucrează de mult timp cu standarde precum OAuth și OpenID Connect. Cât de importante sunt standardele de identitate deschisă pentru a face IA agentială interoperabilă și sigură în medii complexe de întreprindere?

Standardele deschise sunt absolut esențiale. Întreprinderile rulează deja structuri de identitate complexe care acoperă platforme cloud, servicii SaaS și API-uri interne. Inteligența artificială agentică nu face decât să adauge și mai multă complexitate.

Fără standarde, fiecare agent devine o integrare proprie și o excepție de securitate permanentă. Cu standarde precum OAuth și OpenID Connect, agenții pot fi autentificați, autorizați și auditați la fel ca orice altă sarcină de lucru. Aceasta este singura abordare care poate facilita scalarea securizată în medii reale de întreprindere.

Identitățile non-umane devin din ce în ce mai frecvente, de la conturi de servicii la identități de mașini. Ce face ca agenții IA să fie fundamental diferiți de identitățile non-umane anterioare din perspectiva securității?

Diferența cheie dintre agenții IA moderni și identitățile non-umane (NHI) mai vechi este autonomia. Un cont de serviciu tradițional face exact ceea ce îi spune codul său, fiind strict legat de sarcina sa. Un agent IA interpretează instrucțiunile, își adaptează comportamentul și întreprinde acțiuni care nu au fost niciodată scriptate explicit - toate acestea crescând pericolul potențial dacă nu există bariere de siguranță adecvate.

O mică eroare de identitate sau de acces se poate transforma rapid într-o catastrofă, deoarece un agent poate acționa rapid și pe mai multe sisteme. Din perspectiva securității, acest lucru prezintă un risc major.

Cât de importante sunt pistele de audit și înregistrarea în jurnal bazată pe identitate pentru IA agențică guvernantă, în special în industriile reglementate?

Auditurile nu ar trebui să fie „bune de avut”. Ele trebuie integrate de la început. În mediile reglementate, organizațiile sunt așteptate să răspundă la întrebări simple, dar critice: ce a accesat acest agent, când s-a întâmplat și cine a autorizat acest lucru?

Înregistrarea bazată pe identitate este singura modalitate fiabilă de a obține acel nivel de responsabilitate. De asemenea, joacă un rol cheie în răspunsul la incidente. Fără un context clar al identității, este aproape imposibil de știut dacă o problemă a provenit de la un agent cu comportament incorect, o identitate compromisă sau pur și simplu o solicitare greșită.

Ce riscuri reale observați că apar atunci când organizațiile implementează în producție agenți IA supraprivilegiați sau slab monitorizați?

Un risc comun este agregarea silențioasă a datelor. Un agent supra-privilegiat poate extrage informații sensibile din mai multe sisteme (înregistrări ale clienților, documente interne, jurnale) și apoi poate expune aceste date prin intermediul unor solicitări, rezumate sau integrări externe.

Un alt risc este reprezentat de faptul că agenții cu acces administrativ fac modificări majore la viteza mașinii, provocând mult mai multe daune decât ar putea face vreodată o ființă umană într-o perioadă scurtă de timp. Aceasta poate include modificarea resurselor cloud, dezactivarea controalelor de securitate sau declanșarea fluxurilor de lucru automate fără supraveghere.

Aceste incidente pot fi rău intenționate, dar nu trebuie să fie. Un agent supra-privilegiat sau prost monitorizat ar putea pur și simplu să opereze pe baza unor presupuneri învechite sau incorecte, amplificând greșelile în mai multe sisteme înainte ca cineva să observe.

Însă, din perspectiva unui atacator, o identitate de agent compromisă este extrem de valoroasă. Aceasta permite mișcarea laterală între API-uri și servicii, adesea cu un nivel de acces pe care niciun utilizator uman nu l-ar primi vreodată. Fără controale și monitorizare puternice ale identității, organizațiile descoperă adesea aceste erori doar după ce s-au produs daune reale.

Pentru companiile care trec de la proiecte pilot la implementări reale prin agenție, ce decizii privind identitatea și accesul ar trebui luate din timp pentru a evita reproiectarea costisitoare ulterioară?

Organizațiile ar trebui să decidă din timp modul în care agenților li se acordă identități, modul în care sunt aprobate permisiunile și modul în care este revizuit accesul în timp, definind în prealabil limitele identității.

Introducerea retroactivă a controalelor de identitate este aproape întotdeauna problematică. Agenții sunt adesea integrați profund în fluxurile de lucru folosind acreditări partajate sau roluri largi, astfel încât restricționarea accesului ulterior încalcă presupunerile pe care se bazează sistemul. Acest lucru duce, în cele din urmă, la eșecul fluxurilor de lucru și subminează încrederea în tehnologie. Este mult mai ieftin, ca să nu mai vorbim de mult mai sigur, să se proiecteze identități, domenii de aplicare și limite de acces adecvate de la început.

Unde devine cel mai adesea integrarea identității un blocaj la implementarea inteligenței artificiale agențice și ce bune practici ajută la reducerea fricțiunilor?

Gestionarea identității poate deveni un blocaj, dar numai atunci când este tratată ca o idee ulterioară. Echipele se concentrează mai întâi pe construirea unor capabilități impresionante ale agenților, doar pentru ca mai târziu să realizeze că trebuie integrate cu sistemele IAM, gateway-urile API și platformele de înregistrare pentru a fi cu adevărat sigure.

Cea mai bună abordare este să începem cu o înțelegere clară și o implementare corectă a platformelor de identitate, iar apoi să proiectăm agenți care să se integreze în acestea. Organizațiile ar trebui să reutilizeze standardele și infrastructura existente, în loc să le ocolească; eliminarea acestui aspect va cauza inevitabil probleme pe viitor. Atunci când identitatea este integrată de la început, aceasta accelerează implementarea în loc să o încetinească.

Pentru liderii din domeniul securității și ingineriei care doresc să adopte inteligența artificială agentivă, dar sunt preocupați de guvernanță și riscuri, ce sfaturi le-ați oferi în timp ce își planifică foaia de parcurs?

Încetiniți ritmul suficient cât să puneți bazele corecte. Agenții IA trebuie tratați ca identități, așadar trebuie să aplicați aceeași guvernanță pe care o așteptați de la oameni și să insistați asupra vizibilității încă de la început. Dacă o organizație face acest lucru, atunci scalarea IA agențică devine un exercițiu de securitate, nu un salt de credință orb și riscant.

Mulțumim pentru interviul minunat, cititorii care doresc să afle mai multe ar trebui să viziteze Curiozitate.

Antoine este un lider vizionar și partener fondator al Unite.AI, condus de o pasiune neclintită pentru modelarea și promovarea viitorului AI și al roboticii. Un antreprenor în serie, el crede că AI va perturba societatea la fel de mult ca electricitatea și este adesea surprins încântător de potențialul tehnologiilor disruptive și AGI.

Ca futurist, el este dedicat explorării modului în care aceste inovații vor modela lumea noastră. În plus, el este fondatorul Securities.io, o platformă axată pe investiții în tehnologii de ultimă oră care redefinesc viitorul și remodelează sectoare întregi.