Connect with us

Tankeledere

Åpne svarteboksen for AI-forståelighet

mm

Kunstig intelligens (AI) har blitt en del av nesten alle aspekter av vårt daglige liv, fra personlige anbefalinger til kritiske beslutninger. Det er gitt at AI vil fortsette å utvikle seg, og med det, også truslene forbundet med AI vil bli mer sofistikerte. Mens bedrifter iverksetter AI-aktiverede forsvar mot den økende kompleksiteten, er neste skritt mot å fremme en organisasjonsomfattende kultur for sikkerhet å forbedre AI-forståelighet.

Mens disse systemene tilbyr imponerende kapasiteter, fungerer de ofte som “svarte bokser” – produserer resultater uten klart innsikt i hvordan modellen kom frem til den konklusjonen den gjorde. Problemet med AI-systemer som lager feil uttalelser eller tar feil handlinger kan forårsake betydelige problemer og potensielle forretningsavbrudd. Når selskaper gjør feil på grunn av AI, krever deres kunder og forbrukere en forklaring og like etter, en løsning.

Men hva er å skyldes? Ofte brukes dårlig data for trening. For eksempel er de fleste offentlige GenAI-teknologier trent på data som er tilgjengelig på Internett, som ofte er uverifisert og uakkurat. Mens AI kan generere raske svar, avhenger nøyaktigheten av svarene av kvaliteten på dataene det er trent på.

AI-feil kan oppstå i forskjellige instanser, inkludert skriptgenerering med feilaktige kommandoer og feilaktige sikkerhetsbeslutninger, eller å utelukke en ansatt fra å arbeide på bedriftens systemer på grunn av feilaktige anklager fremført av AI-systemet. Alt dette har potensialet til å forårsake betydelige forretningsavbrudd. Dette er bare ett av mange grunner til at sikring av transparens er nøkkel til å bygge tillit til AI-systemer.

Bygge tillit

Vi eksisterer i en kultur hvor vi innstiller tillit til alle slags kilder og informasjon. Men samtidig krever vi bevis og validering mer og mer, og trenger å stadig validere nyheter, informasjon og påstander. Når det gjelder AI, plasserer vi tillit i et system som har potensialet til å være uakkurat. Enda viktigere er det umulig å vite om handlingene AI-systemene tar er nøyaktige uten noen transparens i hvilket grunnlag beslutningene tas. Hva hvis ditt cyber AI-system lukker ned maskiner, men det gjorde en feil i å tolke tegnene? Uten innsikt i hva informasjonen som ledet systemet til å ta denne beslutningen, er det ingen måte å vite om det tok den riktige beslutningen.

Mens forstyrrelser i bedrift er frustrerende, er en av de mer betydelige bekymringene med AI-bruk dataprivacy. AI-systemer, som ChatGPT, er maskinlæringsmodeller som henter svar fra dataene de mottar. Derfor, hvis brukere eller utviklere utilsiktet gir sensitive informasjon, kan maskinlæringsmodellen bruke denne dataen til å generere svar til andre brukere som avslører konfidensielle opplysninger. Disse feilene har potensialet til å alvorlig forstyrre et selskaps effektivitet, lønnsomhet og viktigst av alt, kundetillit. AI-systemer er ment å øke effektiviteten og lette prosessene, men i tilfeller hvor konstant validering er nødvendig fordi utdataene ikke kan stoles på, åpner organisasjonene ikke bare for tidsøkonomi, men også for potensielle sårbarheter.

Trening av team for ansvarlig AI-bruk

For å beskytte organisasjoner mot de potensielle risikoene med AI-bruk, har IT-fagfolk den viktige ansvar å trene kollegaer til å sikre at AI brukes på en ansvarlig måte. Ved å gjøre dette, hjelper de med å holde organisasjonene trygge mot cyberangrep som truer deres levedyktighet og lønnsomhet.

Men før trening av team, må IT-ledere innenfor organisasjonen avgjøre hvilke AI-systemer som passer for deres organisasjon. Å rush inn i AI vil bare backfire senere, så i stedet, start smått, fokus på organisasjonens behov. Sikre at standardene og systemene du velger er i tråd med organisasjonens nåværende teknologi og selskapsmål, og at AI-systemene møter de samme sikkerhetsstandardene som andre leverandører du velger.

Når et system er valgt, kan IT-fagfolk deretter begynne å gi teamene deres eksponering for disse systemene for å sikre suksess. Start med å bruke AI for små oppgaver og se hvor det fungerer godt og hvor det ikke gjør det, og lær hva de potensielle farene eller valideringene er som må være på plass. Deretter introduser AI-bruk for å supplere arbeid, muliggjøre raskere selvbetjening og løsning, inkludert enkle “hvordan” spørsmål. Deretter kan det læres hvordan man setter valideringer på plass. Dette er verdifullt ettersom vi vil begynne å se flere jobber bli om å sette grensebetingelser og valideringer sammen, og allerede sett i jobber som å bruke AI til å assistere i skriving av programvare.

I tillegg til disse handlebare skrittene for å trene teammedlemmer, er det også viktig å initiere og oppmuntre diskusjoner. Oppmuntre åpne, data-drevne dialoger om hvordan AI tjener brukernes behov – løser det problemer nøyaktig og raskere, driver det produktivitet for både selskapet og sluttbrukeren, øker kundetilfredshetspoengene på grunn av disse AI-drevne verktøyene? Vær tydelig på avkastning på investering (ROI) og hold det i fokus. Tydelig kommunikasjon vil tillate at bevissthet om ansvarlig bruk vokser, og ettersom teammedlemmene får en bedre forståelse av hvordan AI-systemene fungerer, er de mer sannsynlig å bruke dem på en ansvarlig måte.

Hvordan oppnå transparens i AI

Selv om trening av team og økt bevissthet er viktig, er det essensielt for å oppnå transparens i AI at det er mer kontekst rundt dataene som brukes til å trene modellene, sikrer at bare kvalitetsdata brukes. Håper at det til slutt vil være en måte å se hvordan systemet grunner så vi kan fullt ut stole på det. Men til da, trenger vi systemer som kan arbeide med valideringer og retningslinjer og bevise at de holder seg til dem.

Mens full transparens vil uunngåelig ta tid å oppnå, er den raske voksen av AI og dens bruk gjør det nødvendig å arbeide raskt. Mens AI-modellene fortsetter å øke i kompleksitet, har de makten til å gjøre en stor forskjell for menneskeheten, men konsekvensene av deres feil vokser også. Som følge av dette, er det ekstremt verdifullt og nødvendig å forstå hvordan disse systemene kommer frem til sine beslutninger for å forbli effektive og pålitelige. Ved å fokusere på transparente AI-systemer, kan vi sikre at teknologien er like nyttig som den er ment å være, samtidig som den forblir upartisk, etisk, effektiv og nøyaktig.

Manny Rivelo er administrerende direktør i ConnectWise, der han er kommet til for å støtte selskapets misjon om å gi managed service providers (MSPs) ubestridt programvare, tjenester og fellesskap for å oppnå deres mest ambisiøse visjon for suksess. Som tidligere administrerende direktør i Forcepoint, ledet Rivelo forvandlingen av bedriften til en større spiller i cybersikkerhetsrommet, og drev vekst og innovasjon i møte med utviklende cybertrusler. Gjennom sin karriere har Manny Rivelo fått ry på seg som en resultatorientert leder som fokuserer på å skape bærekraftige forretningsmodeller og drive langsiktig verdi i et raskt endrende teknologisk landskap.