Connect with us

Lideri de opinie

Deschiderea cutiei negre a explicației IA

mm

Inteligenta Artificială (IA) a devenit întrepătrunsă în aproape toate aspectele vieții noastre zilnice, de la recomandări personalizate la luarea deciziilor critice. Este un lucru dat că IA va continua să avanseze, și odată cu aceasta, amenințările asociate cu IA vor deveni și mai sofisticate. Pe măsură ce companiile adoptă apărări activate de IA în răspuns la complexitatea în creștere, următorul pas către promovarea unei culturi organizaționale de securitate este îmbunătățirea explicației IA.

În timp ce aceste sisteme oferă capacități impresionante, ele funcționează adesea ca “cutii negre” – producând rezultate fără o perspectivă clară asupra modului în care modelul a ajuns la concluzia la care a ajuns. Problema sistemelor IA care fac declarații false sau iau acțiuni false poate cauza probleme semnificative și potențiale întreruperi ale activității. Când companiile fac greșeli din cauza IA, clienții și consumatorii lor cer o explicație și, după aceea, o soluție.

Dar ce este de vină? Adesea, datele proaste sunt utilizate pentru antrenare. De exemplu, majoritatea tehnologiilor GenIA publice sunt antrenate pe date disponibile pe Internet, care sunt adesea neverificate și inexacte. În timp ce IA poate genera răspunsuri rapide, acuratețea acestor răspunsuri depinde de calitatea datelor cu care a fost antrenată.

Greseala IA poate apărea în diverse instanțe, inclusiv generarea de scripturi cu comenzi incorecte și decizii de securitate false, sau respingerea unui angajat de la lucru în sistemele de afaceri ale companiei din cauza acuzațiilor false făcute de sistemul IA. Toate acestea au potențialul de a cauza întreruperi semnificative ale activității. Acesta este doar unul dintre motivele pentru care asigurarea transparenței este cheia pentru a construi încredere în sistemele IA.

Construirea încrederii

Existentăm într-o cultură în care insuflăm încredere în toate felurile de surse și informații. Dar, în același timp, cerem dovadă și validare tot mai mult, având nevoie să validăm în mod constant știrile, informațiile și afirmațiile. Când vine vorba de IA, ne încredem într-un sistem care are potențialul de a fi inexact. Mai important, este imposibil de știut dacă acțiunile sistemelor IA sunt exacte fără nicio transparență asupra bazei pe care se iau deciziile. Ce se întâmplă dacă sistemul dvs. de securitate IA închide mașinile, dar a făcut o greșeală la interpretarea semnelor? Fără o perspectivă asupra informațiilor care au condus sistemul la acea decizie, nu există nicio modalitate de a ști dacă a luat decizia corectă.

În timp ce întreruperea activității este frustrantă, una dintre preocupările mai semnificative legate de utilizarea IA este confidențialitatea datelor. Sistemele IA, cum ar fi ChatGPT, sunt modele de învățare automată care obțin răspunsuri din datele pe care le primesc. Prin urmare, dacă utilizatorii sau dezvoltatorii furnizează accidental informații sensibile, modelul de învățare automată poate utiliza aceste date pentru a genera răspunsuri pentru alți utilizatori care dezvăluie informații confidențiale. Aceste greșeli au potențialul de a perturba semnificativ eficiența, profitabilitatea și, mai important, încrederea clienților. Sistemele IA sunt menite să crească eficiența și să ușureze procesele, dar în cazul în care validarea constantă este necesară din cauza faptului că ieșirile nu pot fi încredințate, organizațiile nu numai că irosesc timp, dar deschid și ușa către potențiale vulnerabilități.

Antrenarea echipelor pentru utilizarea responsabilă a IA

Pentru a proteja organizațiile de riscurile potențiale ale utilizării IA, profesioniștii IT au responsabilitatea importantă de a antrena corespunzător colegii lor pentru a se asigura că IA este utilizată în mod responsabil. Prin aceasta, ei ajută la menținerea organizațiilor în siguranță de atacurile cibernetice care amenință viabilitatea și profitabilitatea lor.

Cu toate acestea, înainte de a antrena echipele, liderii IT trebuie să se alinieze intern pentru a determina care sisteme IA vor fi potrivite pentru organizația lor. A grăbi utilizarea IA va avea ca rezultat doar eșecul ulterioară, așa că, în schimb, începeți cu începutul, concentrându-vă pe nevoile organizației. Asigurați-vă că standardele și sistemele selectate se aliniază cu stiva de tehnologie actuală a organizației și cu obiectivele companiei și că sistemele IA îndeplinesc aceleași standarde de securitate ca și orice alt furnizor pe care l-ați selecta.

Odată ce un sistem a fost selectat, profesioniștii IT pot începe să-și expună echipele la aceste sisteme pentru a asigura succesul. Începeți prin utilizarea IA pentru sarcini mici și vedeți unde funcționează bine și unde nu, și învățați care sunt pericolele sau validările potențiale care trebuie aplicate. Apoi introduceți utilizarea IA pentru a sprijini munca, permițând rezolvarea rapidă a problemelor, inclusiv a întrebărilor simple “cum să”. De acolo, se poate învăța cum să se pună validări în aplicare. Acest lucru este valoros, deoarece vom începe să vedem cum tot mai multe locuri de muncă devin despre stabilirea condițiilor limită și validări, și deja se vede în locuri de muncă cum ar fi utilizarea IA pentru a ajuta la scrierea de software.

În plus față de aceste pași concreți pentru antrenarea membrilor echipei, inițierea și încurajarea discuțiilor este, de asemenea, imperativă. Încurajați dialogul deschis, bazat pe date, despre modul în care IA servește nevoilor utilizatorilor – rezolvă problema cu acuratețe și mai rapid, conducem productivitatea atât pentru companie, cât și pentru utilizatorul final, și scorul NPS al clienților nostru crește din cauza acestor unelte conduse de IA? Fiți clari cu privire la rentabilitatea investiției (ROI) și țineți-o în centrul atenției. Comunicarea clară va permite conștientizarea utilizării responsabile să crească, și pe măsură ce membrii echipei obțin o înțelegere mai bună a modului în care funcționează sistemele IA, ei sunt mai predispuși să le utilizeze în mod responsabil.

Cum se realizează transparența în IA

Deși antrenarea echipelor și creșterea conștientizării este importantă, pentru a obține transparență în IA, este vital să existe mai mult context în jurul datelor utilizate pentru antrenarea modelelor, asigurându-vă că se utilizează doar date de calitate. Sperăm că, în cele din urmă, va exista o modalitate de a vedea cum sistemul raționează, astfel încât să putem avea încredere deplină în el. Dar până atunci, avem nevoie de sisteme care pot lucra cu validări și sisteme de protecție și care pot dovedi că respectă acestea.

În timp ce transparența deplină va trebui inevitabil timp pentru a fi atinsă, creșterea rapidă a IA și utilizarea ei fac necesar lucrăm rapid. Pe măsură ce modelele IA continuă să crească în complexitate, ele au puterea de a face o mare diferență pentru omenire, dar consecințele erorilor lor cresc și ele. Ca urmare, înțelegerea modului în care aceste sisteme ajung la deciziile lor este extrem de valoroasă și necesară pentru a rămâne eficient și de încredere. Prin concentrarea asupra sistemelor IA transparente, putem asigura că tehnologia este la fel de utilă pe cât este menită să fie, rămânând în același timp imparțială, etică, eficientă și precisă.

Manny Rivelo este CEO-ul ConnectWise, unde este dedicat misiunii companiei de a împuternici furnizorii de servicii gestionate (MSP) cu software, servicii și comunitate de neegalat pentru a-și atinge viziunea cea mai ambițioasă de succes. Ca fost CEO al Forcepoint, Rivelo a condus transformarea afacerii într-un jucător major în spațiul securității cibernetice, determinând creșterea și inovarea în fața amenințărilor cibernetice în evoluție. Pe parcursul carierei sale, Manny Rivelo și-a câștigat o reputație de lider axat pe rezultate, care se concentrează pe crearea unor modele de afaceri durabile și pe generarea valorii pe termen lung într-un peisaj tehnologic în schimbare rapidă.