Connect with us

De ce AI-ul guvernat este frontiera următoare a locului de muncă

Lideri de opinie

De ce AI-ul guvernat este frontiera următoare a locului de muncă

mm
A split-view comparison of an office desk showing the messy, chaotic reality of Shadow AI on one side and a clean, governed AI workspace on the other.

Am petrecut un deceniu luptând împotriva tehnologiei informaționale umbre. Aplicații SaaS neautorizate. Foile de calcul rogue. Conturi Dropbox neautorizate. Liderii IT au creat programe de conformitate întregi în jurul problemei, iar majoritatea lor au pierdut totuși. Raportul de stat al AI-ului umbra din 2025 al Reco AI a constatat că doar 47% din aplicațiile SaaS din cadrul unei întreprinderi medii sunt autorizate oficial — și că organizația medie gestionează acum 490 de astfel de aplicații.

Acesta a fost vechiul problemă. Noua problemă este mai gravă.

Problema AI-ului umbra este diferită de data aceasta

Când un angajat se înregistrează pentru un instrument de management de proiect neautorizat, daunele sunt limitate. Task-urile unei echipe trăiesc în locul greșit. Poate că unele date se scurg. Tipul de scurgere de date este destul de previzibil.

AI-ul este diferit. Angajații folosesc acum instrumente AI pentru a scrie comunicări către clienți, a genera rapoarte financiare, a rezuma ședințe confidențiale și a crea fluxuri de lucru automate, adesea fără a spune nimănui. Indexul tendințelor de lucru din 2024 al Microsoft a constatat că 78% dintre utilizatorii de AI își aduc propriile instrumente AI la locul de muncă. Nu pentru că încearcă să fie dificili sau perfid, ci pentru că instrumentele sunt cu adevărat utile și ei simt presiunea de a performa mai bine. Cu toate acestea, organizațiile lor sunt prea lente în a oferi procese, proceduri și instrumente.

Rezultatele aici sunt problema. Când un instrument AI redactează un contract de client, rezumă un apel juridic sau generează un raport trimestrial al consiliului de administrație, riscul nu este doar “nu știm ce instrument au folosit”. Este că practicile de date, acuratețea și procesul de luare a deciziilor încorporate în aceste rezultate sunt complet invizibile pentru organizație. Nimeni nu a examinat promptul. Nimeni nu a validat rezultatul. Nimeni nu știe că s-a întâmplat. Și pentru că AI-ul pare atât de sigur, majoritatea utilizatorilor nu vor verifica sursele și vor accepta în mod orbesc rezultatele.

Analiza AI-ului umbra din 2025 a KPMG a raportat că 44% dintre angajații care folosesc AI la locul de muncă au făcut acest lucru în moduri care contravin politicilor și ghidurilor companiei. Acesta nu este un comportament marginal. Acesta este aproape jumătate din forța de muncă.

De ce agenții autonomi fac lucrurile mai grele (și mai bune)

Iată unde conversația devine interesantă. Nu mai vorbim doar despre angajați care lipeau text în ChatGPT. Intrăm în era agenților AI — sisteme autonome care pot rula continuu, executa sarcini multietapă, conecta la instrumente de întreprindere și lua decizii fără a avea nevoie de un om în buclă pentru fiecare decizie.

Raportul tendințelor tehnologice din 2025 al Deloitte descrie acest lucru ca o schimbare către o “forță de muncă bazată pe siliciu” și observă că multe implementări timpurii de AI agențică eșuează exact pentru că organizațiile încearcă să automatizeze procese existente concepute pentru oameni, în loc de a reevalua modul în care ar trebui să curgă lucrul.

Acesta este punctul de bifurcare. AI-ul autonom poate merge în două direcții;

Direcția unu: mai multă tehnologie informațională umbra, dar mai gravă. Angajații creează agenți folosind conturi personale, rulează pe IT-ul companiei, le conectează la instrumentele companiei prin chei API personale, generează rezultate pe care nimeni altcineva din echipă nu le poate vedea, audita sau reproduce. Agentul rulează un raport zilnic. Raportul este greșit. Nimeni nu prinde greșeala timp de săptămâni pentru că nimeni altcineva nu știa că există. Acest lucru nu este ipotetic. Se întâmplă chiar acum în organizații care tratează adoptarea AI-ului ca o problemă de productivitate individuală.

Direcția doi: autonomie guvernată. Același agent rulează același raport zilnic — dar într-un mediu în care echipa poate vedea ce face, ce date atinge, cine l-a configurat și ce a produs. Agentul este partajat, nu izolat. Rezultatele sale sunt vizibile. Permisiunile sale sunt limitate. Și când ceva merge prost, există o urmă.

Diferența dintre aceste două direcții nu este tehnologia. Este mediul.

Ce arată AI-ul guvernat în practică

Guvernarea este unul dintre acele cuvinte care fac dezvoltatorii să se încrunte. De obicei, înseamnă “lent”. Mai multe aprobări. Mai mult proces. Mai multă fricțiune între oamenii care fac lucrul și cei care gestionează riscnul.

Dar AI-ul guvernat nu trebuie să funcționeze astfel. Cele mai bune implementări pe care le-am văzut au câteva caracteristici:

Vizibilitate implicită. Fiecare rezultat generat de AI — fiecare raport, fiecare alertă, fiecare proiect — este vizibil pentru echipă, nu îngropat în istoricul de chat personal. Acesta nu este despre supraveghere. Este despre contextul partajat. Când un agent produce o analiză săptămânală a concurenței, întreaga echipă ar trebui să poată vedea, întreba și construi pe aceasta.

Permisiuni limitate, nu acces nelimitat. Un agent care monitorizează jurnalele de erori nu are nevoie de acces la CRM. Un agent care redactează conținut social nu are nevoie de acces la datele financiare. Principiul privilegiului minim nu este nou. Este doar rareori aplicat sistemelor AI — și ar trebui să fie.

Urme de audit care există cu adevărat. Ghidul de securitate AI agențică al McKinsey subliniază că agenții autonomi prezintă “o serie de riscuri și vulnerabilități noi și complexe care necesită atenție și acțiune acum”. Una dintre cele mai de bază: dacă nu puteți urmări ce a făcut un agent, ce date a accesat și ce decizii a luat, nu puteți guverna. Punct.

Control la nivel de echipă, nu doar la nivel de IT. Acesta este partea pe care majoritatea cadrului de guvernare o greșește. Ei centralizează toată controlul AI în IT sau securitate, ceea ce creează exact stânjenirea care conduce la AI-ul umbra. Organizațiile care fac acest lucru corect împing controlul la nivelul echipei — permițând managerilor și liderilor de echipă să configureze, să limiteze și să monitorizeze agenții pe care îi folosesc echipele, în limitele pe care IT le stabilește, dar nu le micromanajează.

Unde organizațiile fac lucrurile corect

Companiile care implementează agenți AI bine nu sunt cele cu modelele cele mai sofisticate. Sunt cele cu cele mai clare limite de operare.

Văd rezultatele puternice în trei domenii:

Raportare și monitorizare. Agenți care rulează rapoarte programate — stand-up-uri zilnice, rezumate săptămânale de metrici, digeste de jurnale de erori — și le livrează direct în canalele echipei. Valoarea aici nu este doar automatizarea. Este consistentă. Raportul rulează în fiecare dimineață, indiferent dacă cineva își amintește să extragă datele sau nu. Și pentru că este vizibil pentru echipă, erorile sunt detectate mai repede.

Fluxuri de lucru de conținut și comunicare. Redactarea, nu publicarea. Agenți care produc proiecte inițiale de actualizări interne, rezumate de ședințe sau conținut de ieșire — și apoi le prezintă pentru revizuire umană. Partea de guvernare contează aici pentru că bariera de calitate este diferită atunci când rezultatul merge către un client, în comparație cu un canal intern de Slack.

Analiză și alertă. Agenți care monitorizează tablourile de bord, semnalează anomalii și trimit alerte atunci când metricile se situează în afara intervalului așteptat. Acesta înlocuiește problema “cineva ar trebui să supravegheze acest lucru” care chinuie fiecare echipă care a pierdut vreodată un weekend din cauza unei probleme de producție neobservate.

Ce fac majoritatea organizațiilor greșit

Cea mai mare greșeală este tratarea guvernării AI ca o problemă de politică, în loc de una de infrastructură.

Puteți scrie toate politicile de utilizare acceptabilă pe care le doriți. Dacă angajații dvs. nu au un mediu sancționat, ușor de utilizat, pentru implementarea AI care să funcționeze cu adevărat pentru nevoile lor zilnice, ei vor ocoli politica. Acesta nu este un problemă de oameni. Este o problemă de design.

Analiza AI-ului umbra a IDC subliniază acest punct: productivitatea stealth AI “strangulează adoptarea AI-ului de întreprindere” pentru că organizațiile sunt prinse între dorința de a obține beneficii și teama de riscuri. Rezultatul este inacțiunea — care este cel mai rău rezultat posibil, deoarece garantează adoptarea necontrolată.

A doua greșeală este tratarea guvernării și vitezei ca opuse. Nu sunt. Cele mai bune medii AI guvernate sunt și cele mai rapide — pentru că echipele nu petrec timp recreând lucrul care există deja, debagând agenți pe care nu îi pot vedea sau reconstruind fluxuri de lucru care s-au rupt pentru că cineva a părăsit compania și contul său personal de AI a dispărut cu el.

Frontiera este mediul, nu modelul

Atenția industriei este concentrată pe capacitățile modelului. Ferestre de context mai mari. Raționament mai bun. Intrări multimodale. Acestea contează. Dar pentru majoritatea echipelor care încearcă să finalizeze lucrul, blocajul nu este modelul. Este mediul în care rulează modelul.

Poate echipa vedea ce face? Poate controla ce accesează? Poate partaja ce produce? Poate avea încredere că lucrează cu datele și constrângerile corecte?

Acestea sunt întrebări de infrastructură, nu de model. Și sunt cele care vor separa organizațiile care obțin valoare reală și durabilă din AI de cele care adaugă doar un alt strat de tehnologie informațională umbra.

Frontiera nu este construirea unor modele mai inteligente. Este construirea unor medii în care modelele inteligente pot funcționa cu adevărat și pot fi încredințate să lucreze.

Marcel Folaron este co-fondatorul CoChat, unde construiește spații de lucru cu inteligență artificială guvernată pentru echipe. El a petrecut ultimul deceniu lucrând la intersecția colaborării în echipă, automatizării și managementului întreprinderilor.