Connect with us

Utilizarea Inteligenței Artificiale Generative: Dezvăluirea Implicațiilor de Securitate Cibernetică a Uneltelor de Inteligență Artificială Generativă

Lideri de opinie

Utilizarea Inteligenței Artificiale Generative: Dezvăluirea Implicațiilor de Securitate Cibernetică a Uneltelor de Inteligență Artificială Generativă

mm

Este corect să spunem că inteligența artificială generativă a atras atenția fiecărui consiliu de administrație și lider de afaceri din țară. Odată o tehnologie marginală care era dificil de mânuit, mai ales de stăpânit, ușile către inteligența artificială generativă au fost acum deschise larg datorită aplicațiilor precum ChatGPT sau DALL-E. Acum asistăm la o adoptare în masă a inteligenței artificiale generative în toate industriile și grupurile de vârstă, pe măsură ce angajații găsesc modalități de a exploata tehnologia în avantajul lor.

Un sondaj recent a indicat că 29% dintre respondenții din generația Z, 28% dintre cei din generația X și 27% dintre cei din generația Millennial folosesc unelte de inteligență artificială generativă ca parte a activității lor zilnice de muncă. În 2022, adoptarea pe scară largă a inteligenței artificiale generative a fost de 23%, iar această cifră se estimează că va ajunge la 46% până în 2025.

Inteligența artificială generativă este o tehnologie în curs de dezvoltare, care folosește modele antrenate pentru a genera conținut original în diverse forme, de la text scris și imagini, până la videoclipuri, muzică și chiar cod de software. Utilizând modele de limbaj mare (LLM) și seturi de date imense, tehnologia poate crea instantaneu conținut unic, care este aproape indistinguizabil de munca umană și, în multe cazuri, mai precis și mai convingător.

Cu toate acestea, în timp ce afacerile utilizează din ce în ce mai mult inteligența artificială generativă pentru a-și sprijini operațiunile zilnice, iar angajații au fost rapizi în a o adopta, ritmul de adoptare și lipsa de reglementare au ridicat preocupări semnificative de securitate cibernetică și conformitate regulamentară.

Conform unui sondaj al populației generale, mai mult de 80% dintre oameni sunt îngrijorați de riscurile de securitate pe care le prezintă ChatGPT și inteligența artificială generativă, iar 52% dintre cei chestionați doresc ca dezvoltarea inteligenței artificiale generative să fie oprită, astfel încât reglementările să poată ține pasul. Acest sentiment mai larg a fost, de asemenea, reflectat de către afaceri, cu 65% dintre liderii seniori IT care nu sunt dispuși să aprobe accesul fără restricții la uneltele de inteligență artificială generativă, din cauza preocupărilor de securitate.

Inteligența Artificială Generativă este încă un necunoscut

Uneltele de inteligență artificială generativă se hrănesc cu date. Modele, cum ar fi cele utilizate de ChatGPT și DALL-E, sunt antrenate pe date externe sau disponibile gratuit pe internet, dar pentru a obține maximum de beneficii din aceste unelte, utilizatorii trebuie să împărtășească date foarte specifice. Adesea, atunci când se utilizează unelte precum ChatGPT, utilizatorii împărtășesc informații de afaceri sensibile pentru a obține rezultate precise și bine rotunjite. Acest lucru creează multe necunoscute pentru afaceri. Riscul de acces neautorizat sau divulgare neintenționată a informațiilor sensibile este “încorporat” atunci când se utilizează uneltele de inteligență artificială generativă disponibile gratuit.

Acest risc, în sine, nu este neapărat un lucru rău. Problema este că aceste riscuri nu au fost încă explorate corespunzător. Până în prezent, nu a existat o analiză reală a impactului afacerilor care utilizează uneltele de inteligență artificială generativă disponibile pe scară largă, iar cadrul legal și de reglementare globală privind utilizarea inteligenței artificiale generative nu a atins încă nicio formă de maturitate.

Reglementarea este încă în lucru

Reglementatorii evaluează deja uneltele de inteligență artificială generativă în ceea ce privește confidențialitatea, securitatea datelor și integritatea datelor pe care le produc. Cu toate acestea, așa cum se întâmplă adesea cu tehnologia emergentă, aparatul de reglementare pentru a sprijini și guverna utilizarea acesteia rămâne în urmă. În timp ce tehnologia este utilizată de companii și angajați pe scară largă, cadrul de reglementare este încă foarte mult pe tabla de desen.

Acest lucru creează un risc clar și prezent pentru afaceri, care, în acest moment, nu este luat suficient de serios. Executivii sunt, în mod natural, interesați de modul în care aceste platforme vor introduce beneficii materiale pentru afaceri, cum ar fi oportunitățile de automatizare și creștere, dar managerii de risc se întreabă cum va fi reglementată această tehnologie, ce vor fi implicațiile legale și cum datele companiei ar putea fi compromise sau expuse. Multe dintre aceste unelte sunt disponibile gratuit pentru orice utilizator cu un browser și o conexiune la internet, așa că, în timp ce așteaptă ca reglementarea să țină pasul, afacerile trebuie să înceapă să se gândească foarte atent la “regulile interne” privind utilizarea inteligenței artificiale generative.

Rolul CISO în guvernarea inteligenței artificiale generative

Cu cadrul de reglementare încă lipsă, directorii de securitate a informației (CISO) trebuie să joace un rol crucial în gestionarea utilizării inteligenței artificiale generative în cadrul organizațiilor lor. Ei trebuie să înțeleagă cine utilizează tehnologia și în ce scop, cum să protejeze informațiile întreprinderii atunci când angajații interacționează cu uneltele de inteligență artificială generativă, cum să gestioneze riscurile de securitate ale tehnologiei subiacente și cum să echilibreze compromisurile de securitate cu valoarea pe care o oferă tehnologia.

Acesta nu este un lucru ușor de făcut. Trebuie efectuate evaluări detaliate ale riscurilor pentru a determina atât rezultatele negative, cât și cele pozitive, ca urmare a implementării tehnologiei într-un cadru oficial și, în al doilea rând, a permis angajaților să utilizeze uneltele disponibile gratuit fără supraveghere. Având în vedere natura de acces ușor a aplicațiilor de inteligență artificială generativă, CISO trebuie să se gândească cu atenție la politica companiei privind utilizarea acestor unelte. Ar trebui ca angajații să aibă libertatea de a utiliza unelte precum ChatGPT sau DALL-E pentru a-și ușura munca? Sau ar trebui accesul la aceste unelte să fie restricționat sau moderat într-un anumit mod, cu ghiduri interne și cadre privind modul în care ar trebui să fie utilizate? O problemă evidentă este că, chiar dacă s-ar crea ghiduri interne de utilizare, având în vedere ritmul la care evoluează tehnologia, acestea ar putea fi învechite până când sunt finalizate.

Un mod de a aborda această problemă ar putea fi să se mute accentul de la uneltele de inteligență artificială generativă în sine și să se concentreze asupra clasificării și protecției datelor. Clasificarea datelor a fost întotdeauna un aspect cheie în protejarea datelor împotriva breșelor sau scurgerilor, și acest lucru este valabil și în acest caz particular. Acesta implică atribuirea unui nivel de sensibilitate datelor, care determină modul în care ar trebui să fie tratate. Ar trebui să fie criptate? Ar trebui să fie blocate pentru a fi conținute? Ar trebui să fie notificate? Cine ar trebui să aibă acces la ele și unde ar trebui să fie distribuite? Prin concentrarea asupra fluxului de date, mai degrabă decât asupra uneltei în sine, CISO și ofițerii de securitate vor avea o șansă mult mai mare de a mitigă riscurile menționate.

Ca orice tehnologie emergentă, inteligența artificială generativă este atât un avantaj, cât și un risc pentru afaceri. În timp ce oferă capacități noi și interesante, cum ar fi automatizarea și conceptualizarea creativă, ea introduce și provocări complexe legate de securitatea datelor și protejarea proprietății intelectuale. În timp ce cadrul de reglementare și juridic este încă în curs de dezvoltare, afacerile trebuie să găsească un echilibru între oportunitate și risc, implementând controale de politică care reflectă poziția lor generală de securitate. Inteligența artificială generativă va impulsiona afacerile înainte, dar ar trebui să fim atenți să ținem o mână pe volan.

Cu peste 25 de ani de experiență ca expert în securitate cibernetică, Chris Hetner este recunoscut pentru ridicarea riscului cibernetic la nivelul C-Suite și al Consiliului de administrație pentru a proteja industriile, infrastructurile și economiile din întreaga lume.

El a servit ca Senior Cybersecurity Advisor pentru președintele Comisiei pentru Valori Mobiliare și Burse din Statele Unite și ca Șef al Securității Cibernetice pentru Biroul de Inspectare și Examinare a Conformității de la SEC.

În prezent, Chris este președintele Consiliului Consultativ de Securitate a Clienților Panzura, care oferă educație și conștientizare cu privire la reziliența datelor, cu misiunea de a promova alinierea afacerilor, operaționale și financiare la guvernanța riscului de securitate cibernetică. Panzura este o companie de gestionare a datelor hibride multi-cloud de top.

În plus, el este Consilier Special pentru Risc Cibernetic al Asociației Naționale a Directorilor Corporativi, Președintele Consiliului de Securitate Cibernetică și Confidențialitate al Consiliului de Insight Nasdaq și Membru al Consiliului de Administrație al TCIG.