Connect with us

Lideri de opinie

Crearea de agenți AI de încredere prin design, nu prin accident

mm
A photorealistic widescreen image of a compliance team overseeing an AI

AI-ul agențic nu sosește cu fanfară, ci mai degrabă se strecoară în operațiunile de zi cu zi. Sistemele care stăteau în așteptare, așteptând prompturi umane, acum iau inițiativa. Această evoluție se petrece deja în cadrul organizațiilor, dar discuția despre guvernanța AI rămâne blocată într-o epocă anterioară. Legile și structurile noastre organizaționale nu au fost create având în vedere actori autonomi, non-umani. Pentru companiile supuse Regulamentului General privind Protecția Datelor (GDPR), aceasta nu este o preocupare teoretică, ci o provocare operațională în desfășurare — și avansează mai repede decât majoritatea echipelor de conformitate pot gestiona confortabil.

Când instrumentele AI încep să vorbească înapoi

Când se discută despre guvernanță, accentul se pune de obicei pe conformitate, gestionarea riscurilor și prevenirea prejudiciilor. Deși acestea sunt foarte importante, au fost create pentru o lume în care AI-ul era în mare măsură static: antrenat, testat, lansat și monitorizat pe cicluri previzibile.

Cu agenții AI fiind integrați în procesele de luare a deciziilor, provocarea centrală devine mai mult despre comportament și încredere. Executivii trebuie să se întrebe, “cum ne asigurăm că sistemele capabile să acționeze pot fi, de asemenea, de încredere?” Încrederea este o alegere de design care trebuie făcută intenționat, nu inginerită prin convingere. Organizațiile care urmează ghidurile GDPR înțeleg că conformitatea este critică și are consecințe legale.

Trei moduri în care AI-ul agențic rupe ipotezele GDPR de astăzi

Când GDPR a fost proiectat, nu a fost scris pentru agenți autonomi. Cu toate acestea, trei dintre principiile de bază ale GDPR — limitarea scopului, minimizarea datelor, transparența și răspunderea — sunt critice. AI-ul agențic afectează fiecare în moduri noi, și există trei domenii cheie care trebuie abordate.

Primul risc este modul în care un agent AI “gândește” o sarcină. În loc să ruleze un singur proces fix, îl descompune în multe pași mici, adesea apelând instrumente externe, extrăgând din baze de date, făcând presupuneri și manipulând date personale pe parcurs. Multe dintre acestea se întâmplă în afara vizibilității. Stabilirea exactă a datelor utilizate, la ce pas și din ce motiv este dificil de făcut în practică — și exact acest tip de transparență și răspundere se așteaptă GDPR.

Al doilea risc este modul în care agenții utilizează memoria. Ei pot ține date personale în memoria pe termen scurt în timp ce finalizează o sarcină și în memoria pe termen lung de-a lungul mai multor sesiuni. Dacă această memorie nu este separată cu atenție, informațiile dintr-o interacțiune a unei persoane pot fi transferate într-o altă interacțiune. Dacă nu se impun limite clare de retenție, datele personale pot rămâne mult timp după ce ar fi trebuit să fi fost șterse. Sub dreptul la ștergerea prevăzut de GDPR, acest lucru devine foarte dificil de gestionat atunci când datele sunt îngropate în memoria agentului, mai degrabă decât să stea într-o bază de date pe care echipa dvs. de confidențialitate o poate găsi și interoga cu ușurință.

Al treilea risc este injecția de prompt — în esență, păcălirea agentului. Când un agent citește documente, navighează pe web sau procesează mesaje intrate, conținutul malign din aceste surse poate prelua comportamentul său, îl poate determina să divulge date personale sau să îl îndemne să efectueze acțiuni pe care organizația nu le-a aprobat. Acesta este un model de atac cunoscut, specific sistemelor agențice. Acest lucru înseamnă că puteți suferi o încălcare a datelor, nu pentru că sistemele dvs. de bază au fost compromise, ci pentru că agentul dvs. AI a întâlnit conținut ostil în timp ce își făcea treaba — și, sub GDPR, sunteți totuși responsabili.

Construirea unei încrederi autentice, nu doar a unei interfețe prietenoase

Este important să înțelegem că există o diferență între încrederea inginerită și încrederea câștigată. Încrederea inginerită poate ajuta la convingerea utilizatorilor asupra unui punct cheie, de obicei prin oglindire emoțională, semnale antropomorfice sau proiectare persuasivă.

Cu toate acestea, încrederea durabilă se referă la sisteme care se comportă în moduri pe care oamenii le pot înțelege, anticipa și evalua. Raționamentul, limitele și intențiile agentului sunt legitime. Acesta este preconditionarea pentru proiectarea conformă cu GDPR, unde transparența trebuie să fie semnificativă.

Ce înseamnă, de fapt, Stiva de Încredere?

O strategie pentru organizații este să utilizeze o stivă de încredere stratificată. Acest lucru înseamnă că fiecare strat face clară răspunderea între oameni și mașini.

  • Căi de raționament clare: Agentul trebuie să poată explica cum și de ce a produs un rezultat — nu cu detalii tehnice profunde, ci într-un mod pe care îl puteți urmări și verifica. Acest lucru se aliniază cu regulile de transparență ale GDPR și dreptul la o explicație pentru deciziile automate în conformitate cu Articolul 22.
  • Limite clare de putere: Trebuie să existe limite ferme în jurul a ceea ce agentul este autorizat să facă, să decidă sau să recomande. Nicio extindere tăcută a libertății sale în timp. Pentru scopurile GDPR, acest lucru înseamnă că oamenii iau în continuare deciziile; agentul este un instrument, nu controlorul.
  • Obiective deschise: Obiectivele agentului trebuie să fie declarate deschis. Oamenii ar trebui să știe dacă optimizează pentru acuratețe, siguranță, viteză sau câștig comercial — și acel obiectiv trebuie să fie scris și înțeles.
  • Buton de provocare și oprire ușor de accesat: Oamenii trebuie să poată pune sub semn de întrebare, corecta sau opri deciziile agentului fără fricțiuni. O cale simplă de a opta pentru renunțare este esențială pentru încredere — și, sub Articolul 22, este, de asemenea, o cerință legală.
  • Guvernanță încorporată: Înregistrarea, verificările, controlul memoriei și supravegherea trebuie să fie integrate în sistem din ziua în care a fost creat, nu adăugate ulterior. Confidențialitatea prin design nu este opțională; este structura de bază care face ca totul să funcționeze.

Utilizarea Stivei de Încredere face autonomia sigură pentru scalare.

Când guvernanța se întâlnește cu experiența din lumea reală

Guvernanța nu se referă doar la reguli și procese. Se referă și la modul în care sistemele se simt pentru oamenii care le folosesc. Oamenii au nevoie să se simtă că încă au control. Au nevoie să vadă când AI acționează, să înțeleagă de ce face ceva și să știe cum să intervină atunci când ar trebui să se oprească.

Sistemele care îndeplinesc cutia de conformitate, dar se simt ca o cutie neagră, pierd încrederea rapid. Acest lucru necesită alegeri de proiectare foarte deliberate: nu semnale umanoide care sugerează empatie sau judecată morală pe care sistemul nu le are; semnale clare atunci când AI-ul este nesigur sau limitat; și nici ajustarea experienței pentru a crea dependență emoțională.

Liderii ar trebui să meargă dincolo de a întreba “Este AI-ul nostru responsabil?” Un set mai bun de întrebări este: “Ce comportamente va face acest sistem normal? Ce va împinge oamenii departe în mod tacit? Cum va modela judecata în timp — și suntem pregătiți să răspundem pentru asta?”

Ivana Bartoletti este Ofițerul Global pentru Confidențialitate și Guvernanță AI la Wipro, o companie de servicii și consultanță tehnologică lideră bazată pe inteligență artificială. Un lider de gândire recunoscut la nivel internațional în domeniul confidențialității, guvernanței AI și tehnologiei responsabile, Ivana servește ca expert pentru Consiliul Europei, unde a co-autorizat un studiu crucial care examinează impactul inteligenței artificiale asupra egalității de gen.