Lideri de opinie
Pericolul de a spune nu inteligenței artificiale

Am sunat la o conferință a unei companii potențiale în urmă cu o săptămână. Toți oamenii de securitate și de rețea erau acolo, plus managementul. Diferiți prezentatori au acoperit subiectele momentului. Apoi, cineva a început să explice cum echipele sale tehnice folosesc inteligența artificială în munca lor de zi cu zi.
Prezentatorul era entuziasmat. El găsise o modalitate de a comprima trei zile de muncă manuală de copiere și lipire în câteva minute, folosind instrumente de inteligență artificială. Super cool, nu? Înțeleg ce făcea el și de ce o făcea. Acesta este promisiunea inteligenței artificiale!
Dar, ca persoană de securitate din cameră, mă gândeam: “Dumnezeule meu”. “Ce instrument este acela? Cine deține acel instrument?” Pentru că el introducea informații despre clienți în aceste platforme – date despre prețuri. Poate informații financiare? Orice ar fi putut fi. Toate pentru a-și accelera fluxul de muncă.
Așa că, am întrebat întrebarea evidentă: “Aveți o politică de inteligență artificială?” Am căutat și am găsit un fragment îngropat într-un document despre utilizare acceptabilă. Ceva vag despre instrumente de inteligență artificială. Cine citește asta, de fapt? Probabil nu. O semnezi în timpul procesului de integrare și gata.
Oamenii dvs. deja folosesc inteligența artificială
Iată ce am învățat vorbind cu companii din toate industriile: inteligența artificială este deja peste tot, indiferent dacă o recunoașteți sau nu. Cercetările recente confirmă această realitate – 75% din angajați folosesc inteligența artificială la locul de muncă, aproape dublu în doar șase luni.
Săptămâna trecută, la Houston, l-am întâlnit pe un tip al cărui companie săpează pentru petrol. Ei au o platformă de inteligență artificială care analizează compoziția solului și modelele meteo pentru a optimiza locurile de foraj. El mi-a explicat cum iau în considerare datele despre precipitații – “Știam că a plouat cu 18 zile mai mult decât în această zonă, deci capacitatea de petrol este probabil mai mare, ceea ce permite sondei să pătrundă mai adânc”.
Între timp, eu folosesc inteligența artificială pentru a crea un itinerar pentru Germania. Am vorbit cu companii din domeniul sănătății care o folosesc pentru platforme de tele sănătate. Echipe financiare care rulează modele de risc. Am întâlnit chiar și pe cineva care conduce o afacere cu limonadă și care folosește inteligența artificială într-un fel oarecare.
Punctul este: inteligența artificială este în fiecare industrie, în fiecare flux de muncă. Nu vine – ea este aici. Și majoritatea acestor organizații se află în aceeași barcă cu noi. Ei știu că oamenii lor o folosesc. Ei doar nu știu cum să o gestioneze.
IT-ul din umbră devine periculos rapid
Știți ce se întâmplă când le spuneți oamenilor că nu pot folosi inteligența artificială? Este exact ca și cum le-ați spune unui adolescent să nu bea niciodată. Felicitări, acum ei vor fi cei care beau în modul cel mai nesigur, pentru că ați creat o interdicție.
Numerele demonstrează această realitate: 72% din utilizarea inteligenței artificiale generative în întreprinderi este IT din umbră, angajații folosind conturi personale pentru a accesa aplicații de inteligență artificială.
Oamenii iau un al doilea laptop. Ei folosesc telefonul lor personal, care nu este protejat de securitatea companiei. Apoi ei folosesc inteligența artificială oricum. Brusc, pierdeți vizibilitatea și creați exact lacunele pe care le-ați încercat să le preveniți.
Am văzut acest model înainte. Echipele de securitate care spun “nu” la tot sfârșesc prin a împinge oamenii în subteran – și pierd toată supravegherea a ceea ce se întâmplă realmente.
Securitatea devine dușmanul
Există o percepție că echipele de securitate sunt “băieții răi din subsol”. Oamenii cred: “Oh, securitatea probabil va spune nu oricum, deci nu deranjați pe acei oameni. O să o fac eu oricum”.
Am creat această neînțelegere. Și cu inteligența artificială, oamenii sunt predispuși să presupună că vom închide totul, așa că nu se deranjează să întrebe.
Am avut un dezvoltator care a venit la mine după o prezentare de conferință. El folosește API-uri în fiecare zi și a încercat să atragă atenția echipei sale de securitate despre testare și validare. Dar el a decis să nu ceară, pentru că a presupus că ei vor spune nu.
Deficitul de încredere vă costă totul
Iată conversația pe care o doriți: cineva din marketing vine la voi și spune: “Hei, vreau să folosesc acest instrument de inteligență artificială. Care este poziția noastră cu privire la acesta? Cum pot să-l folosesc în siguranță?” Acesta este modul corect de a colabora cu securitatea.
Noi vom verifica. Înțelegem că inteligența artificială va face parte din afacere. Nu vom spune nu – vrem ca oamenii să o folosească în siguranță. Dar avem nevoie de acea conversație mai întâi.
Când oamenii presupun că securitatea va bloca totul, ei încetează să întrebe. Ei se înregistrează cu adrese de e-mail personale, încep să introducă date ale companiei în platforme neverificate și pierdeți toată vizibilitatea și controlul. Rezultatul este previzibil: 38% din angajați împărtășesc informații sensibile de muncă cu instrumente de inteligență artificială fără permisiunea angajatorului.
Organizațiile vor folosi inteligența artificială, indiferent ce. Întrebarea este: cum putem face ca angajații noștri să o poată folosi în siguranță, fără a pune în pericol datele companiei, confidențialitatea sau securitatea?
Începeți cu “da”-uri inteligente, nu cu “nu”-uri absolute
Iată ce funcționează realmente: comunicarea proactivă. Trimiteți buletine informative sau organizați webinarii de 30 de minute, spunând: “Permităm inteligența artificială în cadrul organizației. Iată cum să o faceți în siguranță”. Înregistrați sesiunile pentru cei care le ratează.
Arătați exemple de angajați care au colaborat cu succes cu securitatea. Faceți aceste parteneriate vizibile, în loc de a fi o entitate umbroasă pe care oamenii presupun că o vor închide.
Trebuie să construiți încredere în timp, între securitate și angajați. La sfârșitul zilei, toți folosim inteligența artificială în moduri mari și mici. Eu am folosit-o pentru a planifica călătoria mea în Germania – i-am spus să creeze un itinerar de trei zile și am obținut o călătorie extraordinară.
Din punct de vedere organizațional, trebuie să recunoaștem unde se află inteligența artificială în afacere. Va crește veniturile? Probabil. Cazul de afaceri este clar: inteligența artificială a trecut de la “experiment” la “esențial”, cu cheltuieli pentru întreprinderi care sar cu 130%. Ce facem? Cum putem oferi protecție, permițând în același timp productivitatea?
Scopul nu este controlul perfect, acesta este imposibil. Scopul este adoptarea informată a inteligenței artificiale, cu limitări care funcționează realmente în practică. Noul risc pentru securitate este să fim izolați de utilizarea inteligenței artificiale – utilizare care are loc cu sau fără noi.
Pentru organizațiile care sunt serioase în a face lucrurile corect, experții recomandă dezvoltarea unor politici clare de guvernanță a inteligenței artificiale, care echilibrează nevoile de afaceri cu cerințele de securitate, înainte ca utilizarea inteligenței artificiale din umbră să iasă complet de sub control.












