Tanke ledere
Ă…bning af den sorte boks om forklaringsevnen for AI

Kunstig intelligens (AI) er blevet integreret i næsten alle aspekter af vores dagligdag, fra personlige anbefalinger til kritisk beslutningstagning. Det er en selvfølge, at AI vil fortsætte med at udvikle sig, og dermed vil truslerne forbundet med AI også blive mere sofistikerede. Efterhånden som virksomheder implementerer AI-aktiverede forsvar som reaktion på den voksende kompleksitet, er det næste skridt i retning af at fremme en organisationsomspændende sikkerhedskultur at forbedre AI's forklarlighed.
Selvom disse systemer tilbyder imponerende funktioner, fungerer de ofte som “sorte kasser"—producerer resultater uden klar indsigt i, hvordan modellen er nået frem til den konklusion, den gjorde. Spørgsmålet om AI-systemer, der afgiver falske udsagn eller udfører falske handlinger kan forårsage betydelige problemer og potentielle forretningsforstyrrelser. Når virksomheder begår fejl på grund af AI, kræver deres kunder og forbrugere en forklaring og kort efter en løsning.
Men hvad er skylden? Ofte bruges dårlige data til træning. For eksempel trænes de fleste offentlige GenAI-teknologier på data, der er tilgængelige på internettet, som ofte er ubekræftet og unøjagtig. Selvom AI kan generere hurtige svar, afhænger nøjagtigheden af ​​disse svar af kvaliteten af ​​de data, den er trænet på.
AI-fejl kan opstå i forskellige tilfælde, herunder generering af scripts med forkerte kommandoer og falske sikkerhedsbeslutninger, eller at en medarbejder udelukkes fra at arbejde på deres forretningssystemer på grund af falske beskyldninger fra AI-systemet. Alt dette har potentiale til at forårsage betydelige driftsafbrydelser. Dette er blot en af ​​de mange grunde til, at det er vigtigt at sikre gennemsigtighed for at opbygge tillid til AI-systemer.
Opbygning af tillid
Vi lever i en kultur, hvor vi indgyder tillid til alle mulige kilder og informationer. Men samtidig kræver vi i stigende grad bevis og validering, da vi konstant er nødt til at validere nyheder, information og påstande. Når det kommer til AI, sætter vi vores lid til et system, der potentielt kan være unøjagtigt. Endnu vigtigere er det, at det er umuligt at vide, om de handlinger, AI-systemer foretager, er nøjagtige, uden gennemsigtighed i det grundlag, beslutningerne træffes på. Hvad hvis dit cyber-AI-system lukker maskiner ned, men det har begået en fejl i at fortolke tegnene? ​​Uden indsigt i, hvilke oplysninger systemet har ført til at træffe den beslutning, er der ingen måde at vide, om det traf den rigtige.
Selvom det er frustrerende at forstyrre forretningen, er en af ​​de mere betydelige bekymringer ved brug af AI databeskyttelse. AI-systemer, som ChatGPT, er maskinlæringsmodeller, der henter svar fra de data, de modtager. Hvis brugere eller udviklere ved et uheld giver følsomme oplysninger, kan maskinlæringsmodellen derfor bruge disse data til at generere svar til andre brugere, der afsløre fortrolige oplysningerDisse fejl kan potentielt forstyrre en virksomheds effektivitet, rentabilitet og vigtigst af alt kundernes tillid alvorligt. AI-systemer er beregnet til at øge effektiviteten og lette processer, men i tilfælde af at konstant validering er nødvendig, fordi output ikke kan stoles på, spilder organisationer ikke kun tid, men åbner også døren for potentielle sårbarheder.
Træningsteams i ansvarlig brug af kunstig intelligens
For at beskytte organisationer mod de potentielle risici ved brug af kunstig intelligens har IT-professionelle det vigtige ansvar at uddanne deres kolleger tilstrækkeligt for at sikre, at kunstig intelligens bruges ansvarligt. Ved at gøre dette hjælper de med at beskytte deres organisationer mod cyberangreb, der truer deres levedygtighed og rentabilitet.
IT-ledere skal dog, inden de træner teams, finde ud af, hvilke AI-systemer der passer til deres organisation. At haste ind i AI vil kun give bagslag senere hen, så start i stedet i det små med fokus på organisationens behov. Sørg for, at de standarder og systemer, du vælger, stemmer overens med din organisations nuværende teknologiske stak og virksomhedens mål, og at AI-systemerne opfylder de samme sikkerhedsstandarder som alle andre leverandører, du vælger.
Når et system er blevet valgt, kan IT-professionelle begynde at give deres teams adgang til disse systemer for at sikre succes. Start med at bruge AI til små opgaver og se, hvor den klarer sig godt, og hvor den ikke gør, og lær, hvad de potentielle farer eller valideringer er, der skal anvendes. Introducer derefter brugen af ​​AI til at forbedre arbejdet, hvilket muliggør hurtigere selvbetjeningsløsning, herunder de simple "hvordan"-spørgsmål. Derfra kan det læres, hvordan man implementerer valideringer. Dette er værdifuldt, da vi vil begynde at se flere job handle om at sætte randbetingelser og valideringer sammen, og det er endda allerede set i job som at bruge AI til at hjælpe med at skrive software.
Ud over disse handlingsrettede trin til træning af teammedlemmer er det også bydende nødvendigt at igangsætte og opmuntre til diskussioner. Opmuntr til åben, datadrevet dialog om, hvordan AI opfylder brugernes behov – løser den problemer præcist og hurtigere, driver vi produktiviteten for både virksomheden og slutbrugeren, stiger vores kunders NPS-score på grund af disse AI-drevne værktøjer? Vær tydelig omkring investeringsafkastet (ROI), og hold det i centrum. Tydelig kommunikation vil øge bevidstheden om ansvarlig brug, og efterhånden som teammedlemmer får en bedre forståelse af, hvordan AI-systemerne fungerer, er de mere tilbøjelige til at bruge dem ansvarligt.
SĂĄdan opnĂĄr du gennemsigtighed i AI
Selvom det er vigtigt at træne teams og øge bevidstheden, er det for at opnå gennemsigtighed inden for AI afgørende, at der er mere kontekst omkring de data, der bruges til at træne modellerne, og at det sikres, at der kun bruges kvalitetsdata. Forhåbentlig vil der med tiden være en måde at se, hvordan systemet ræsonnerer, så vi fuldt ud kan stole på det. Men indtil da har vi brug for systemer, der kan arbejde med valideringer og sikkerhedsforanstaltninger og bevise, at de overholder dem.
Mens fuld gennemsigtighed vilje uundgåeligt tage tid til opnå, og hurtige vækst of AI og dens forbrug lave it nødvendig til arbejde hurtigt. Efterhånden som AI-modeller fortsætter med at stigning i kompleksitet, de har magten til at gøre en stor forskel for menneskeheden, men konsekvenserne af deres fejl vokser også. Som følge heraf er det yderst værdifuldt og nødvendigt at forstå, hvordan disse systemer træffer deres beslutninger, for at forblive effektive og troværdige. Ved at fokusere på transparente AI-systemer kan vi sikre, at teknologien er så nyttig, som den er beregnet til at være, samtidig med at den forbliver upartisk, etisk, effektiv og præcis.