Povežite se s nama

Vođe misli

Otvaranje crne kutije o objašnjivosti umjetne inteligencije

mm

Umjetna inteligencija (AI) isprepletena je u gotovo svim aspektima našeg svakodnevnog života, od personaliziranih preporuka do donošenja ključnih odluka. Podrazumijeva se da Umjetna inteligencija će nastaviti napredovati, a s tim će i prijetnje povezane s umjetnom inteligencijom postati sofisticiranije. Kako tvrtke uvode obrane omogućene umjetnom inteligencijom kao odgovor na rastuću složenost, sljedeći korak prema promicanju kulture sigurnosti na razini cijele organizacije je poboljšanje objašnjivosti umjetne inteligencije.

Iako ovi sustavi nude impresivne mogućnosti, često funkcioniraju kao „crne kutije„—proizvođenje rezultata bez jasnog uvida u to kako je model došao do zaključka. Problem AI sustavi daju lažne izjave ili poduzimaju lažne radnje može uzrokovati značajne probleme i potencijalne poremećaje u poslovanju. Kada tvrtke pogriješe zbog umjetne inteligencije, njihovi kupci i potrošači zahtijevaju objašnjenje, a ubrzo nakon toga i rješenje.

Ali što je krivo? Često se za obuku koriste loši podaci. Na primjer, većina javnih GenAI tehnologija obučava se na podaci koji su dostupni na internetu, što je često neprovjereno i netočno. Iako umjetna inteligencija može generirati brze odgovore, točnost tih odgovora ovisi o kvaliteti podataka na kojima je obučena.

Pogreške umjetne inteligencije mogu se pojaviti u raznim slučajevima, uključujući generiranje skripti s netočnim naredbama i lažnim sigurnosnim odlukama ili izbjegavanje zaposlenika da radi na svojim poslovnim sustavima zbog lažnih optužbi koje je iznio sustav umjetne inteligencije. Sve to može uzrokovati značajne prekide u poslovanju. Ovo je samo jedan od mnogih razloga zašto je osiguravanje transparentnosti ključno za izgradnju povjerenja u sustave umjetne inteligencije.

Izgradnja povjerenja

Postojimo u kulturi u kojoj usađujemo povjerenje u sve vrste izvora i informacija. Ali, istovremeno, sve više zahtijevamo dokaze i validaciju, te moramo stalno provjeravati vijesti, informacije i tvrdnje. Kada je riječ o umjetnoj inteligenciji, vjerujemo sustavu koji može biti netočan. Što je još važnije, nemoguće je znati jesu li radnje koje poduzimaju sustavi umjetne inteligencije točne bez ikakve transparentnosti u pogledu osnove na kojoj se donose odluke. Što ako vaš kibernetički sustav umjetne inteligencije isključi strojeve, ali je pogriješio u tumačenju znakova? Bez uvida u to koje su informacije dovele sustav do te odluke, ne postoji način da se zna je li donio ispravnu.

Iako je poremećaj poslovanja frustrirajući, jedna od značajnijih briga s korištenjem umjetne inteligencije je privatnost podataka. Sustavi umjetne inteligencije, poput ChatGPT-a, modeli su strojnog učenja koji dobivaju odgovore iz podataka koje primaju. Stoga, ako korisnici ili programeri slučajno daju osjetljive informacije, model strojnog učenja može upotrijebiti te podatke za generiranje odgovora drugim korisnicima koji… otkriti povjerljive informacijeOve pogreške mogu ozbiljno narušiti učinkovitost, profitabilnost i, što je najvažnije, povjerenje kupaca tvrtke. Sustavi umjetne inteligencije namijenjeni su povećanju učinkovitosti i pojednostavljenju procesa, ali u slučaju da je stalna validacija potrebna jer se rezultatima ne može vjerovati, organizacije ne samo da gube vrijeme, već i otvaraju vrata potencijalnim ranjivostima.

Timovi za obuku za odgovorno korištenje umjetne inteligencije

Kako bi zaštitili organizacije od potencijalnih rizika korištenja umjetne inteligencije, IT stručnjaci imaju važnu odgovornost za adekvatnu obuku svojih kolega kako bi osigurali da se umjetna inteligencija koristi odgovorno. Time pomažu u zaštiti svojih organizacija od kibernetičkih napada koji ugrožavaju njihovu održivost i profitabilnost.

Međutim, prije obuke timova, IT lideri moraju se interno uskladiti kako bi utvrdili koji će AI sustavi biti prikladni za njihovu organizaciju. Žurba s AI-jem kasnije će se samo obiti o glavu, stoga umjesto toga počnite s malim koracima, fokusirajući se na potrebe organizacije. Osigurajte da su standardi i sustavi koje odaberete usklađeni s trenutnim tehnološkim paketom i ciljevima vaše organizacije te da AI sustavi zadovoljavaju iste sigurnosne standarde kao i svi drugi dobavljači koje odaberete.

Nakon što je sustav odabran, IT stručnjaci mogu početi upoznavati svoje timove s tim sustavima kako bi osigurali uspjeh. Započnite korištenjem umjetne inteligencije za male zadatke i uočavanjem gdje dobro funkcionira, a gdje ne, te naučite koje su potencijalne opasnosti ili validacije koje je potrebno primijeniti. Zatim uvedite upotrebu umjetne inteligencije za poboljšanje rada, omogućujući brže samostalno rješavanje problema, uključujući jednostavna pitanja „kako“. Nakon toga se može naučiti kako postaviti validacije. To je vrijedno jer ćemo početi viđati sve više poslova vezanih uz postavljanje graničnih uvjeta i validacija, pa čak i već viđeno u poslovima poput korištenja umjetne inteligencije za pomoć u pisanju softvera.

Uz ove praktične korake za obuku članova tima, ključno je i pokretanje i poticanje rasprava. Potaknite otvoreni dijalog utemeljen na podacima o tome kako umjetna inteligencija služi potrebama korisnika – rješava li probleme točno i brže, potičemo li produktivnost i za tvrtku i za krajnjeg korisnika, povećava li se NPS rezultat naših kupaca zbog ovih alata temeljenih na umjetnoj inteligenciji? Budite jasni u pogledu povrata ulaganja (ROI) i držite ga u središtu pozornosti. Jasna komunikacija omogućit će rast svijesti o odgovornoj upotrebi, a kako članovi tima bolje razumiju kako funkcioniraju sustavi umjetne inteligencije, veća je vjerojatnost da će ih odgovorno koristiti.

Kako postići transparentnost u umjetnoj inteligenciji

Iako je obuka timova i podizanje svijesti važno, za postizanje transparentnosti u umjetnoj inteligenciji ključno je da postoji više konteksta oko podataka koji se koriste za obuku modela, osiguravajući da se koriste samo kvalitetni podaci. Nadamo se da će s vremenom postojati način da se vidi kako sustav rezonira kako bismo mu mogli u potpunosti vjerovati. Ali do tada, potrebni su nam sustavi koji mogu raditi s validacijama i zaštitnim ogradama te dokazati da ih se pridržavaju.

Dok su Pun transparentnost volja neizbježno uzeti vrijeme do postići, o brz rast of AI međutim njegov upotreba napraviti it nužan do posao brzo. Kako modeli umjetne inteligencije nastavljaju povećanje složenosti, imaju moć napraviti veliku razliku za čovječanstvo, ali posljedice njihovih pogrešaka također rastu. Kao rezultat toga, razumijevanje kako ovi sustavi dolaze do svojih odluka izuzetno je vrijedno i potrebno kako bi ostali učinkoviti i pouzdani. Fokusiranjem na transparentne AI sustave možemo osigurati da je tehnologija korisna koliko je i namijenjena, a da pritom ostane nepristrana, etična, učinkovita i točna.

Manny Rivelo je izvršni direktor tvrtke ConnectWise, gdje je posvećen misiji tvrtke da osnaži pružatelje upravljanih usluga (MSP) neusporedivim softverom, uslugama i zajednicom kako bi ostvarili svoju najambiciozniju viziju uspjeha. Kao bivši izvršni direktor Forcepointa, Rivelo je vodio transformaciju tvrtke u glavnog igrača u prostoru kibernetičke sigurnosti, potičući rast i inovacije usprkos rastućim kibernetičkim prijetnjama. Tijekom svoje karijere, Manny Rivelo stekao je reputaciju lidera usmjerenog na rezultate koji se fokusira na stvaranje održivih poslovnih modela i dugoročnu vrijednost u brzo promjenjivom tehnološkom krajoliku.