Liderii gândirii
Mișcă-te rapid, dar nu strica lucrurile: Cum să echilibrezi adoptarea responsabilă a inteligenței artificiale și inovarea

Conform unui sondaj global recent realizat de McKinseyChiar dacă 78% dintre organizații utilizează acum inteligența artificială în cel puțin o funcție de afaceri, doar 13% au angajat specialiști în conformitate cu inteligența artificială, iar doar 6% au specialiști în etică în domeniul inteligenței artificiale în personal.
Acesta este, sincer, un comportament nesăbuit.
Deși în trecutul meu nu prea îndepărtat am fost un ferm susținător al etosului „mișcă-te repede și sparge lucrurile” din Silicon Valley, nu ne putem permite să fim atât de lipsiți de griji cu inteligența artificială – o tehnologie mai puternică decât orice am văzut până acum și care se dezvoltă cu viteza luminii.
Adoptarea AI fără balustrade semnificative este exact genul de tăiere rapidă a colțurilor care este garantată că în cele din urmă se va întoarce împotriva ta și riscă să se rupă totEste nevoie doar de un incident de prejudecată sau utilizare abuzivă a inteligenței artificiale pentru a anula ani de construire a reputației mărcii.
Și, deși mulți directori IT și CTO sunt conștienți de aceste riscuri, se pare că operează sub presupunerea că autoritățile de reglementare vor interveni în cele din urmă și îi vor scuti de la stabilirea propriilor cadre de lucru, ceea ce duce la multe discuții despre riscuri, cu foarte puțină supraveghere reală.
Deși nu am nicio îndoială că reglementările vor apărea în cele din urmă, sunt mai puțin încrezător că vor fi instituite în curând. ChatGPT a fost introdus acum aproximativ trei ani și abia începem să vedem lucruri precum Reuniunea Judiciară a Senatului din... chatboții și riscurile de siguranță Realitatea este că ar putea trece ani până când vom vedea vreo reglementare semnificativă.
În loc să ia acest lucru ca pe o scuză pentru a amâna guvernanța internă, ar trebui ca firmele să adopte o abordare mai proactivă. Mai ales având în vedere că, atunci când vor apărea în sfârșit reglementări, companiile fără propriile cadre de lucru se vor grăbi să modernizeze reglementările privind conformitatea. Exact asta s-a întâmplat când au fost adoptate GDPR și CCPA.
La fel cum startup-urile rebele de la începutul anilor 2000 sunt acum supuse unor standarde mai înalte, fiind giganții tehnologici corporativi în care s-au transformat, și noi, împreună, trebuie să ne maturizăm în abordarea noastră de a adopta responsabil inteligența artificială.
Nu există conceptul „cumpără acum, plătește mai târziu” cu implementările responsabile de inteligență artificială – începe acum
Primul pas într-o abordare mai responsabilă a inteligenței artificiale este să nu mai așteptați autoritățile de reglementare și să vă stabiliți propriile reguli. Orice avantaj pe care credeți că îl obțineți evitând măsurile de siguranță astăzi se va întoarce împotriva voastră în viitor, când vă veți confrunta cu procesul extrem de costisitor și perturbator al modernizării.
Desigur, pentru mulți, problema este să nu știe de unde să înceapă. Compania mea recent au realizat studii 500 de directori IT și CTO din cadrul unor companii mari, iar aproape jumătate (48%) au menționat „determinarea a ceea ce constituie o utilizare sau implementare responsabilă a inteligenței artificiale” ca o provocare pentru asigurarea utilizării etice a inteligenței artificiale.
Un punct de plecare ușor de unde poți începe este să-ți extinzi atenția dincolo de caracteristicile oferite de inteligența artificială și să iei în considerare posibilele riscuri. De exemplu, deși utilizarea inteligenței artificiale poate economisi timp angajaților, aceasta deschide și posibilitatea ca cantități uriașe de informații personale identificabile (PII) sau secrete comerciale să fie partajate cu LLM-uri nelicențiate și neaprobate.
Orice companie digitală de astăzi este familiarizată cu Ciclul de viață al dezvoltării software (SDLC), care oferă un cadru pentru construirea de produse de calitate. Cele mai bune practici de guvernanță a inteligenței artificiale ar trebui integrate în fluxul de lucru zilnic pentru a se asigura că luarea deciziilor responsabile devine parte a rutinei, nu o idee ulterioară.
Ar trebui înființat un organism de conducere, cum ar fi un comitet de etică sau un consiliu de guvernanță, care să definească standardele privind modul în care aplicațiile IA arată efectiv în cadrul organizației și, în mod similar, să definească indicatorii privind modul de monitorizare și menținere a acestui standard. Din punct de vedere funcțional, acest lucru seamănă cu instrumentele și guvernanța modelelor de IA, aprobarea soluțiilor, gestionarea riscurilor, alinierea reglementărilor și standardelor și comunicarea transparentă. Deși din punct de vedere tehnic poate fi un proces „nou”, nu este foarte diferit de cele mai bune practici în materie de date și de menținerea securității cibernetice și poate fi automatizat pentru a asigura detectarea timpurie a oricăror probleme.
Desigur, nu toate riscurile necesită același nivel de atenție, așa că este important să dezvoltați un proces de gestionare a riscurilor pe niveluri, astfel încât echipa dumneavoastră să își poată concentra majoritatea eforturilor asupra a ceea ce a fost definit ca fiind de înaltă prioritate.
În cele din urmă, și cel mai important, o comunicare clară și transparentă cu privire la practicile de guvernanță, atât interne, cât și externe, este primordială. Aceasta include menținerea unor documente actualizate pentru standardele de guvernanță și furnizarea de instruire continuă pentru a ține echipele la curent.
Nu mai tratați guvernarea ca pe o amenințare la adresa inovației
Este foarte posibil ca adevărata amenințare la adresa AI responsabil există convingerea că guvernanța și inovația sunt în contradicție. Datele sondajului nostru au arătat că un procent uriaș de 87% dintre directorii IT și CTO au considerat că prea multă reglementare ar limita inovația.
Însă guvernarea ar trebui tratată ca un partener strategic, nu ca un fel de rampă de pauză pentru inovare.
Unul dintre motivele pentru care guvernanța este considerată o forță de fricțiune care încetinește impulsul este acela că este adesea lăsată pentru sfârșitul dezvoltării produsului, dar barierele de siguranță ar trebui să facă parte din proces. După cum am menționat mai sus, guvernanța poate fi integrată în ciclurile de sprint, astfel încât o echipă de produs să poată acționa rapid, în timp ce verificări automate ale corectitudinii, părtinirii și conformității rulează în paralel. Pe termen lung, acest lucru dă roade, deoarece clienții, angajații și autoritățile de reglementare se simt mai încrezători atunci când văd responsabilitatea integrată încă de la început.
Și s-a dovedit că acest lucru aduce recompense financiare. Cercetare a arătat că organizațiile cu cadre de guvernanță a datelor și a inteligenței artificiale (IA) bine implementate înregistrează o îmbunătățire a performanței financiare de 21-49%. Eșecul stabilirii acestor cadre, însă, vine cu propriile consecințe. Conform aceluiași studiu, până în 2027, majoritatea organizațiilor (60%) „nu vor reuși să realizeze valoarea anticipată a cazurilor lor de utilizare a IA din cauza unor cadre de guvernanță etică incoerente”.
O avertizare la argumentul conform căruia guvernanța nu trebuie să vină în detrimentul inovației este că implicarea echipelor juridice în aceste conversații tinde să încetinească lucrurile. Din experiența mea, însă, înființarea unei echipe de Guvernanță, Risc și Conformitate (GRC) contribuie semnificativ la menținerea unei funcționări rapide și fără probleme a lucrurilor, servind ca o punte între echipele juridice și cele de produs.
Atunci când este bine gestionată, echipa GRC construiește relații pozitive cu echipa juridică, fiindu-le observatorul și oferindu-le rapoartele de care au nevoie, colaborând totodată cu echipa de dezvoltare pentru a atenua riscurile viitoare de procese și amenzi. În cele din urmă, acest lucru întărește și mai mult faptul că investiția în guvernanță din timp este cea mai bună modalitate de a ne asigura că aceasta nu interferează cu inovația.
Creați sisteme de supraveghere și guvernanță care pot fi scalate
Deși atât de mulți dintre directorii IT și CTO-urile chestionate consideră că reglementările ar putea limita inovația, un procent similar de mare (84%) se așteaptă ca firma lor să intensifice supravegherea IA în următoarele 12 luni. Având în vedere probabilitatea ca integrările IA să continue să se extindă și să se scaleze în timp, este la fel de important ca sistemele de guvernanță să se poată scala odată cu acestea.
Ceva ce observ adesea în etapele incipiente ale implementărilor IA în cadrul companiilor este faptul că diferite unități din cadrul companiei lucrează în compartimente izolate, astfel încât rulează implementări diferite simultan și cu viziuni diferite asupra a ceea ce implică „IA responsabilă”. Pentru a evita aceste inconsecvențe, companiile ar fi înțelepte să înființeze un Centru de Excelență dedicat IA, care să combine expertiza tehnică, de conformitate și de afaceri.
Centrul de Excelență în Inteligență Artificială (IA) ar stabili atât standarde la nivelul întregii companii, cât și procese de aprobare pe niveluri, unde există o cale de alunecare pentru cazurile de utilizare cu risc scăzut. Acest lucru, la rândul său, menține viteza, asigurând în același timp că implementările cu risc ridicat trec prin verificări de siguranță mai formale. În mod similar, Centrul de Excelență ar trebui să stabilească și indicatori cheie de performanță (KPI) pentru siguranța IA pentru directorii de top, astfel încât responsabilitatea să nu se piardă în funcțiile zilnice de afaceri.
Însă, pentru ca acest lucru să devină realitate, directorii au nevoie de o vizibilitate îmbunătățită asupra urmăririi indicatorilor de guvernanță. Tablourile de bord care oferă date în timp real despre acești indicatori ar fi mult mai eficiente decât norma actuală a rapoartelor statice de conformitate, care sunt imediat învechite și adesea nu sunt citite. În mod ideal, companiile ar trebui să creeze și registre de riscuri legate de inteligența artificială, în același mod în care deja urmăresc riscurile de securitate cibernetică, pe lângă menținerea unor piste de audit care să reflecte cine a construit o implementare ML/AI, cum a fost testată și cum performează în timp.
Cea mai importantă concluzie este că IA responsabilă necesită ca guvernanța să fie un proces continuu. Nu este vorba doar despre aprobări la lansare, ci despre monitorizare continuă pe tot parcursul ciclului de viață al modelului. Prin urmare, instruirea este esențială. Dezvoltatorii, tehnicienii și liderii de afaceri ar trebui să fie instruiți în practici responsabile de IA, astfel încât să poată identifica problemele din timp și să mențină standarde ridicate de guvernanță pe măsură ce sistemele evoluează. Procedând astfel, implementările de IA vor fi cu siguranță mai fiabile, mai eficiente și mai profitabile - fără a fi nevoie să se perturbe nimic în acest proces.












