Connect with us

Inteligența dvs. artificială știe prea mult: Inteligența artificială confidențială nu mai este opțională

Lideri de opinie

Inteligența dvs. artificială știe prea mult: Inteligența artificială confidențială nu mai este opțională

mm

Modelele generative trec de la laboratoarele de cercetare la procesele comerciale obișnuite — și o slăbiciune structurală tăcută crește odată cu ele.

Luați acest exemplu: Microsoft Copilot a accesat aproape trei milioane de înregistrări sensibile pe organizație în primul semestru al anului 2025. Astfel de numere înseamnă că există o problemă sistemică cu modul în care se abordează inteligența artificială. Companiile au construit motoare puternice pentru procesarea datelor, dar nu au instituit suficiente protecții pentru datele pe care le utilizează.

Modelele de limbaj larg și instrumentele de asistență calculează adesea documente, mesaje și baze de date fără nicio protecție bazată pe hardware. Această lacună, care revelează “date în uz” în timpul inferenței, amenință acum direct afacerile care prioritizează confidențialitatea, conformitatea și încrederea clienților.

Aici intervine calculul confidențial. Procesul utilizează medii de execuție sigure asistate de hardware (TEEs) pentru a păstra codul și datele în siguranță în timp ce sunt utilizate. Aceste TEEs sunt zone de memorie izolate care sunt protejate de sistemul de operare gazdă și de hypervisor.

Această protecție modifică modelul de securitate, permițând secretelor să fie procesate fără a fi expuse restului stivei. Microsoft și alți furnizori de servicii cloud oferă acum inferență privată și mașini virtuale (VM) care integrează inferența în TEEs.

De ce confidențialitatea este importantă pentru reguli și guvernanță

Criptarea convențională protejează de obicei datele care sunt fie în repaus, fie în tranzit, datele care sunt procesate activ nefiind protejate în același mod, deși aceasta este zona în care inteligența artificială generativă interacționează cel mai mult cu intrări private.

La începutul anului, o studiu al cercetătorilor de la Universitatea Cornell despre Unitățile de calcul trustate a revelat cum izolarea și atestarea bazate pe hardware pot ajuta la reducerea nevoii de încredere între părți. Mai devreme, analiștii au estimat că valoarea infrastructurii de calcul private era de peste 13 miliarde de dolari, cu previziuni care indică o creștere și mai rapidă până la 350,04 miliarde de dolari până în 2032.

Simplu spus, mai multe persoane utilizează tehnologia, ceea ce determină ca regulatorii și echipele de conformitate să arate mai mult interes pentru sistemele de inteligență artificială decât oricând. Prin urmare, un cadru care asigură că datele sensibile nu părăsesc niciodată execuția protejată în timpul interogărilor modelului va face urmele de audit mult mai ușor de urmărit, reducând riscul problemelor legale.

Cu toate acestea, dacă protecțiile de timp de rulare nu devin norma, această diferență ar putea face ca regulatorii să accepte inteligența artificială în domenii care sunt strâns reglementate.

Situații din viața reală în care confidențialitatea este o necesitate

Există mai multe scenarii enterprise care arată de ce inteligența artificială confidențială nu este un lux, ci ceva pe care fiecare organizație trebuie să îl aibă.

De exemplu, în finanțe, acest lucru s-ar putea aplica instituțiilor care trebuie să ruleze modele de detectare a fraudelor și de risc împotriva istoricului tranzacțiilor clienților fără a oferi operatorilor de modele externe acces la înregistrări brute.

În sănătate, ar putea exista situații în care modelele de diagnostică trebuie să funcționeze pe date clinice protejate, păstrând confidențialitatea pacientului și îndeplinind obligațiile regulatorii stricte. Mai mult, guvernele și agențiile de apărare pot necesita execuție atestată pentru a rula sarcini de lucru sensibile pe cloud-uri terțe.

Există, de asemenea, conducte de cercetare care combină seturi de date de la mai multe surse, în special cercetarea federată a sănătății, care poate continua numai dacă fiecare participant este sigur că intrările sale vor rămâne ilegibile în timpul calculului.

Există, de asemenea, cercetări academice și industriale care continuă să documenteze abordări de învățare automată care păstrează confidențialitatea pentru fluxurile de lucru medicale care se potrivesc bine cu execuția confidențială.

Cum protejează execuția confidențială datele în uz

Execuția confidențială depinde de două sisteme conectate: izolarea hardware și atestarea. Izolarea hardware împiedică software-ul din afara enclavei securizate să citească memoria enclavei.

Atestarea este un mod verificabil de a verifica codul care rulează în interiorul enclavei și de a verifica că enclava însăși este autentică. Aceste caracteristici permit proprietarului modelului să arate că un model va funcționa cu intrări într-un mediu sigilat și verificat și că ieșirile vor apărea numai după ce regulile enclavei sunt urmate.

Rezultatul este un contract între proprietarii de date, operatorii de modele și furnizorii de cloud care face ca este mai puțin probabil ca aceștia să aibă nevoie de ocoliri juridice adverse sau să recurgă la gimnastică politică fragilă.

Limite și obstacole realiste

Desigur, adoptarea inteligenței artificiale confidențiale vine cu propriile sale provocări. Atestarea și hardware-ul care pot funcționa în enclavi fac implementarea mai complexă, având în vedere că există o lacună în ecosistem între instrumentele tradiționale de servire a modelului și timpul de rulare conștient de enclavă.

Unele timpuri de rulare a enclavelor impun suprataxe grele, costând până la zece ori mai mult pentru a rula, și pot exista compromisuri în ceea ce privește performanța, în funcție de cantitatea de muncă.

Mai mult, costurile sunt mai mari acum decât au fost pentru inferența cloud simplă, ceea ce poate face dificil pentru întreprinderile mici să înțeleagă numerele. Există, de asemenea, problema schimbării standardelor de interoperabilitate, care poate lăsa unii adoptatori timpurii în pericol de a rămâne blocați cu furnizorii lor.

Cu toate acestea, aceste probleme sunt doar probleme tehnice tranzitorii care pot fi rezolvate. Furnizorii de cloud și producătorii de cipuri continuă să lanseze produse noi, iar proiectele software creează middleware care leagă stivele actuale de învățare automată și TEEs.

Dacă este ceva, companiile care consideră că criptarea standard și controlul accesului sunt suficiente sunt mai mult în pericol, deoarece vor fi vulnerabile atunci când modelele procesează o mulțime de înregistrări sensibile.

Un apel pentru schimbări de practică întreprinderile

Echipele de gestionare a riscurilor trebuie să schimbe regulile pentru cum să cumpere și să utilizeze inteligența artificială. Clasificarea datelor și guvernanța sunt încă importante, dar trebuie să fie susținute de garanții tehnice atunci când sunt în uz.

Contractele cu furnizorii de modele terțe trebuie să solicite dovada atestării. Echipele de achiziții trebuie să solicite linii de bază pentru performanță și opțiuni auditate pentru execuția confidențială. Exercițiile de echipă roșie trebuie să includă testarea conștientă de enclavă ca parte a muncii lor. Aceste pași transferă responsabilitatea de la angajamente ad-hoc la controale care pot fi verificate.

De asemenea, grupurile de politici publice și industriale trebuie să stabilească așteptări. Auditorii, ofițerii de conformitate și regulatorii trebuie să solicite garanții de rulare verificabile pentru categoriile de sarcini de lucru care procesează date reglementate.

Aceste reguli vor reduce numărul de încălcări care apar mai târziu și vor oferi sectorului libertatea de a inova fără a se îngrijora de problemele legale. Acest lucru va permite fluxurilor de lucru din finanțe, sănătate și sectorul public să utilizeze noi modele fără nicio barieră regulamentară.

Confidențialitatea ca standard

Inteligența artificială generativă a devenit un instrument util pentru afacerile care se ocupă de informații foarte private. Această realitate înseamnă că execuția confidențială nu mai este doar o opțiune de nișă; trebuie să fie o practică standard pentru orice sistem de inteligență artificială care manipulează date reglementate, proprietare sau personale.

Există deja instrumente disponibile, cum ar fi TEEs, servicii de atestare și oferte de mașini virtuale private, iar economia devine mai bună foarte rapid. Alta opțiune este să păstrați active sensibile deschise pentru scurgerea inferenței, ceea ce ar putea avea efecte juridice, financiare și de reputație pe care afacerile nu și le mai pot permite. De exemplu, conform raportului IBM din 2025 privind costul încălcării datelor, costul mediu global al încălcării a ajuns la aproape 5 milioane de dolari, cu reglementări precum GDPR care impun amenzi de până la 20 de milioane de euro pentru încălcări grave.

Companiile care pun confidențialitatea pe primul loc în guvernanța inteligenței artificiale vor avea un avantaj: pot rula teste mai complete și conforme și pot utiliza modele în zone în care inovația externă a fost odată interzisă. Scurt spus, protejarea datelor în timp ce modelele rulează nu este o barieră pentru adoptare; este baza pentru inteligența artificială responsabilă și scalabilă în afaceri și guvern.

Ahmad Shadid este fondatorul O Foundation, un laborator de cercetare A.I. cu sediul în Elveția, axat pe construirea și cercetarea infrastructurii private A.I., o.capital, un fond de tranzacționare cuantificată care tranzacționează pe Nasdaq și fondatorul și fostul CEO al io.net, în prezent cea mai mare rețea descentralizată de calcul A.I. bazată pe Solana.