Lideri de opinie
De ce companiile ar trebui să urmeze o abordare bazată pe valori pentru guvernanța IA

În septembrie 2025, pentru prima dată, toate statele membre ale Organizației Națiunilor Unite s-au reunit pentru a discuta guvernanța internațională a IA; multe au fost reprezentate din nou în februarie la Summitul Impactului IA de la Delhi. Evenimentul a condus la lansarea a două noi organisme centrate pe guvernanța IA; dar a fost, în cel mai bun caz, un succes simbolic.
Mecanismele noi ale ONU au fost proiectate pentru a obține consens: ele evită zonele controversate, cum ar fi utilizările militare ale IA, și lipsesc surse clare de finanțare și puteri de aplicare. Acest lucru nu ar trebui să surprindă pe observatorii experimentați. ONU de astăzi lipsește capacitatea de a se mișca rapid sau de a asigura conformarea universală cu deciziile sale, făcându-l un forum dificil în care să se producă schimbări reale.
Acesta se potrivește unui model bine stabilit. În ciuda numeroaselor încercări de a construi consensul cu privire la reglementările IA, nu au existat acorduri internaționale semnificative, creând un vid în care țările și blocurile individuale au fost obligate să-și dezvolte propriile reguli. Cu toate acestea, guvernanța eficientă a IA este crucială dacă dorim să o vedem adoptată pe scară largă, încrederea publică și utilizată în moduri care să aducă beneficii sociale și economice durabile.
Fă și Repară
Pentru companiile globale care construiesc și operează sisteme IA, lipsa mecanismelor de guvernanță comune și convenite este problematică. Ei doresc să implementeze sisteme IA în toată lumea, dar niciun stat sau bloc nu respectă același set de reguli. Prin urmare, ei sunt obligați să creeze un cadru generic de guvernanță în jurul sistemului, apoi să-l reconstruiască de la zero în fiecare țară în care operează pentru a se asigura că respectă legile și reglementările locale. Acestă abordare creează o cantitate enormă de muncă suplimentară, face inițiativele IA mai costisitoare și mai predispuse la întârzieri și slăbește capacitatea firmelor globale de a realiza economii de scară și de a partaja instrumente eficiente cu utilizatorii de pretutindeni.
Există, cu toate acestea, o alternativă. Pentru firmele care doresc să-și simplifice abordarea, cea mai bună opțiune poate fi să construiască un cadru de guvernanță IA care să țină cont de principiile etice comune din diferite regiuni, asigurându-se că acestea respectă standarde ridicate peste tot în ceea ce privește protejarea libertății, confidențialității și securității indivizilor. Această tehnică reprezintă o modalitate puternică pentru companiile IA de a crește încrederea publică în tehnologia lor, de a-și consolida baza de clienți și de a valorifica beneficiile potențiale ale IA pentru societate.
Șase Valori Cheie pentru Guvernanța IA
Pentru orice organizație interesată să adopte o abordare bazată pe valori pentru guvernanța IA, aș sugera utilizarea celor șase valori pe care le urmăm: răspundere, explicabilitate, transparență, echitate, securitate și contestabilitate.
Am ales aceste valori pentru că acoperă toate domeniile majore ale ciclului de viață al sistemului IA și pentru că au fost deja codificate în diverse standarde internaționale și naționale referitoare la IA, cum ar fi ISO/IEC 42001 al Organizației Internaționale pentru Standardizare și Cartea de joc pentru IA a guvernului Regatului Unit.
Pentru a începe, răspunderea înseamnă a ști cine este responsabil pentru ce în fiecare etapă a ciclului de viață al IA. Fără o proprietate clară, controalele vitale pot fi omise pentru că niciun individ sau echipă nu deține responsabilitatea finală. Organizațiile ar trebui să atribuie proprietari seniori numiți – cum ar fi ofițerul lor șef de IA – sistemelor IA și etapelor cheie și să utilizeze un model de guvernanță bazat pe risc, aplicând aceeași atenție instrumentelor terțe la fel ca și celor dezvoltate în interior. Acest lucru înseamnă a înțelege termenii, limitările și răspunderile furnizorilor la fel de bine cum înțeleg propriile sisteme.
Organizația pentru Cooperare și Dezvoltare Economică (OCDE) surprinde bine acest lucru în ghidul său privind promovarea răspunderii în IA, care recomandă organizațiilor să creeze “mecanisme pentru a încorpora procesul de gestionare a riscurilor IA în guvernanța organizațională mai amplă, promovând o cultură a gestionării riscurilor atât în cadrul organizațiilor, cât și în întreaga lanț de valori IA”.
Următoarea este explicabilitatea. Organizațiile ar trebui să poată arăta cum ajunge un sistem IA la o decizie. Acest lucru necesită mecanisme pentru a documenta și urmări procesul de luare a deciziilor, împreună cu înregistrări clare ale proiectării sistemului, datelor de antrenament și proceselor de decizie. În ansamblu, acest lucru permite echipelor să înțeleagă linia de proveniență a informațiilor de la crearea sistemului până la implementare.
Echitatea se concentrează pe asigurarea faptului că sistemele IA produc rezultate echitabile și nu reproduc sau amplifică prejudecățile existente. Fără verificări deliberate, sistemele pot cauza prejudicii prin furnizarea de rezultate distorsionate – o problemă particulară în domenii cu impact ridicat, cum ar fi recrutarea, sănătatea și justiția penală. Pentru a atenua acest lucru, organizațiile ar trebui să implementeze măsuri de detectare a prejudecăților, să revizuiască ieșirile în mod regulat în cadrul grupurilor relevante și să proiecteze cadre de guvernanță care pot să țină cont de cerințele locale de non-discriminare. În practică, acest lucru înseamnă construirea de sisteme care să respecte cel mai înalt standard legal pe care sunt probabil să-l întâlnească, inclusiv obligațiile prevăzute de legi precum Legea privind egalitatea din 2010 a Regatului Unit și Carta drepturilor fundamentale a UE.
Transparența se referă la furnizarea de claritate atât utilizatorilor, cât și regulatorilor. Oamenii ar trebui să înțeleagă când se utilizează IA, ce rol joacă în procesul de luare a deciziilor și ce date stau la baza acesteia. Un punct de plecare practic este să se standardizeze documentația în cadrul sistemelor IA, sprijinită de instrumente interne, cum ar fi cardurile de model: documente scurte furnizate împreună cu modelele de învățare automată care explică contextul în care se intenționează să se utilizeze modelele, detalii despre procedurile de evaluare a performanței și alte informații relevante. Fără transparență, utilizatorii nu pot contesta rezultatele injuste, regulatorii nu pot interveni eficient, iar impacturile dăunătoare pot fi ascunse sub preș.
Securitatea implică protejarea sistemelor IA împotriva accesului neautorizat, manipulării sau comportamentului neintenționat. Dacă securitatea este slabă, sistemele IA pot pune organizațiile, utilizatorii și datele lor în pericol, expunându-le la daune financiare și de imagine. Organizațiile ar trebui să definească praguri de performanță și acuratețe, să testeze sistemele în condiții realiste și să incorporeze testarea de echipă roșie pentru a identifica vulnerabilitățile.
În cele din urmă, contestabilitatea asigură că oamenii au o cale clară și accesibilă de a contesta sau de a face apel împotriva deciziilor luate de IA. Fără aceasta, utilizatorii afectați nu au nicio cale de atac și problemele pot să nu fie niciodată aduse la suprafață sau rezolvate. Organizațiile ar trebui să ofere canale de raportare la punctul de utilizare, să atribuie proprietari seniori pentru a gestiona plângerile și să se asigure că sistemele pot fi oprite, revizuite sau actualizate după cum este necesar.
Care sunt beneficiile unui cadru bazat pe valori?
Există două motive puternice pentru adoptarea acestei abordări bazate pe valori pentru guvernanța IA. În primul rând, pentru că cei care construiesc și implementează sisteme IA au o responsabilitate etică față de oamenii și organizațiile afectate de acestea; și, în al doilea rând, pentru că aceasta este o modalitate mai eficientă de a valorifica beneficiile promise de IA în practică.
Utilizatorii sistemelor IA, atât corporativi, cât și individuali, acordă în mod implicit încredere creatorilor lor să nu utilizeze în mod abuziv datele personale sau să-i expună la riscuri inutile. Când organizațiile încalcă această încredere, devine foarte dificil pentru ele să-și păstreze utilizatorii. În cele din urmă, dacă oamenii nu au încredere în sistemele IA și nu pot vedea beneficiile clare pe care le aduc, nu vor accepta introducerea acestora. Acest lucru va duce la mai multă diviziune socială și economică, și vom pierde multe dintre oportunitățile oferite de această tehnologie.
Pe de altă parte, companiile care aplică un cadru bazat pe valori peste tot – inclusiv în regiunile cu cerințe de guvernanță mai relaxate – pot demonstra clienților, investitorilor și regulatorilor că se țin de un standard mai înalt decât cel al conformității de bază. Acest lucru construiește încredere, implicare și, în cele din urmă, succesul în afaceri.
O guvernanță puternică a IA este un creator de valoare, nu o povară a conformității. Ea permite companiilor să aducă noi produse pe piață mai rapid, să-și reducă expunerea la risc și să-și scaleze soluțiile în multiple piețe cu încredere.
Raportul “Starea IA” al McKinsey arată că “supravegherea guvernanței IA de către CEO… este un element cel mai strâns corelat cu impactul mai mare al veniturilor raportate de organizație din utilizarea IA”, subliniind beneficiile comerciale ale unei astfel de abordări. În acest sens, construirea unor cadre etice puternice în sistemele IA reprezintă un interes bine înțeles.
Dincolo de toate acestea, totuși, este pur și simplu corect să facem acest lucru. Am construit politica noastră globală de IA etică în jurul aceluiași principiu: că tehnologiile avansate, cum ar fi IA, trebuie să servească oamenilor și societății, nu invers.
Dacă tehnologiile emergente, cum ar fi IA, vor promova o societate mai fericită și mai armonioasă, ele trebuie să fie construite pe fundații etice solide. Acest lucru începe cu o concentrare nu numai pe standardele pe care organizațiile sunt obligate să le respecte, ci și pe standardele pe care și le doresc a le atinge.












