Connect with us

Tankeledere

Åbning af den sorte kasse om AI-forklarbarhed

mm

Kunstig intelligens (AI) er blevet en integreret del af næsten alle aspekter af vores daglige liv, fra personlige anbefalinger til kritiske beslutninger. Det er en given kendsgerning, at AI vil fortsætte med at udvikle sig, og med det vil truslerne forbundet med AI også blive mere avancerede. Da virksomheder indfører AI-baserede forsvar som svar på den voksende kompleksitet, er det næste skridt mod at fremme en organisationssom helhedskultur for sikkerhed at forbedre AI’s forklarbarhed.

Selvom disse systemer tilbyder imponerende funktioner, fungerer de ofte som “sorte kasser” – producerer resultater uden klart indsigt i, hvordan modellen nåede til den konklusion, den gjorde. Problemet med AI-systemer, der udsender falske udsagn eller tager falske handlinger, kan forårsage betydelige problemer og potentielle forretningsafbrydelser. Når virksomheder begår fejl på grund af AI, kræver deres kunder og forbrugere en forklaring og kort efter en løsning.

Men hvad skyldes det? Ofte bruges dårlige data til træning. For eksempel er de fleste offentlige GenAI-teknologier trænet på data, der er tilgængelige på internettet, som ofte er ikke-verificerede og upræcise. Selvom AI kan generere hurtige svar, afhænger nøjagtigheden af svarene af kvaliteten af de data, det er trænet på.

AI-fejl kan optræde i forskellige situationer, herunder scriptgenerering med forkerte kommandoer og falske sikkerhedsbeslutninger eller afvisning af en medarbejder fra at arbejde på virksomhedens systemer på grund af falske anklager fremsat af AI-systemet. Alt dette har potentialet til at forårsage betydelige forretningsafbrydelser. Dette er blot en af mange grunde til, at sikring af gennemsigtighed er nøgle til at opbygge tillid til AI-systemer.

Opbygning af tillid

Vi eksisterer i en kultur, hvor vi indstiller tillid til alle slags kilder og informationer. Men på samme tid kræver vi bevis og validering mere og mere, og vi har brug for at konstant validere nyheder, informationer og påstande. Når det kommer til AI, stoler vi på et system, der har potentialet til at være upræcist. Endnu vigtigere er det umuligt at vide, om handlingerne, AI-systemerne tager, er præcise, uden nogen gennemsigtighed i, hvilken basis beslutningerne tages på. Hvis dit cybersikkerhedssystem lukker maskiner ned, men det gjorde en fejl i at fortolke tegnene? Uden indsigt i, hvilke informationer førte systemet til at træffe den beslutning, er der ingen måde at vide, om det tog den rigtige beslutning.

Selvom forstyrrelse af forretningen er frustrerende, er en af de mere betydelige bekymringer i forbindelse med AI-brug dataintegritet. AI-systemer, som ChatGPT, er maskinlæringsmodeller, der henter svar fra de data, de modtager. Derfor, hvis brugere eller udviklere utilsigtet giver følsomme oplysninger, kan maskinlæringsmodellen bruge disse data til at generere svar til andre brugere, der afslører fortrolige oplysninger. Disse fejl har potentialet til at alvorligt forstyrre en virksomheds effektivitet, rentabilitet og mest væsentligt kundetillid. AI-systemer er ment til at øge effektiviteten og lette processerne, men i tilfælde af, at konstant validering er nødvendig, fordi output ikke kan tillides, spilder organisationer ikke kun tid, men åbner også døren for potentielle sårbarheder.

Træning af hold til ansvarlig AI-brug

For at beskytte organisationer mod de potentielle risici forbundet med AI-brug, har IT-fagfolk den vigtige opgave at træne deres kolleger til at sikre, at AI bruges ansvarligt. Ved at gøre dette hjælper de med at holde deres organisationer sikre fra cyberangreb, der truer deres levedygtighed og rentabilitet.

Men før træning af hold, har IT-ledere brug for at indrette internt for at bestemme, hvilke AI-systemer der vil være en god pasning for deres organisation. At skynde sig ind i AI vil kun have negative konsekvenser senere, så i stedet skal man starte småt, fokusere på organisationens behov. Sørg for, at standarderne og systemerne, du vælger, er i overensstemmelse med din organisations nuværende teknologi og virksomhedsmaal, og at AI-systemerne opfylder de samme sikkerhedsstandarder som andre leverandører, du vælger.

Når et system er valgt, kan IT-fagfolk derefter begynde at give deres hold eksponering for disse systemer for at sikre succes. Start med at bruge AI til små opgaver og se, hvor det fungerer godt og hvor det ikke gør, og lære, hvilke potentielle farer eller valideringer der skal anvendes. Introducer derefter brugen af AI til at supplere arbejdet, hvilket muliggør hurtigere selvbetjening og løsning, herunder de simple “hvordan”-spørgsmål. Derefter kan det læres, hvordan man sætter valideringer i gang. Dette er værdifuldt, da vi vil begynde at se flere job, der handler om at sætte grænsebetingelser og valideringer sammen, og allerede set i job som at bruge AI til at hjælpe med at skrive software.

Ud over disse håndgribelige skridt til træning af teammedlemmer er det også afgørende at initiere og opmuntre diskussioner. Opfordr til åben, data-dreven dialog om, hvordan AI betjener brugernes behov – løser det problemerne præcist og hurtigt, driver vi produktiviteten for både virksomheden og slutbrugeren, og stiger vores kundetilfredsheds-score på grund af disse AI-drevne værktøjer? Vær klar over avkastningen på investeringen (ROI) og hold det i fokus. Tydelig kommunikation vil tillade, at bevidstheden om ansvarlig brug vokser, og da teammedlemmerne får en bedre forståelse for, hvordan AI-systemerne fungerer, er de mere sandsynlige til at bruge dem ansvarligt.

Hvordan opnå gennemsigtighed i AI

Selvom træning af hold og øget bevidsthed er vigtigt, er det afgørende for at opnå gennemsigtighed i AI, at der er mere kontekst omkring de data, der bruges til at træne modellerne, og at sikre, at kun kvalitetsdata bruges. Forhåbentlig vil der en dag være en måde at se, hvordan systemet resonnerer, så vi kan fuldt ud stole på det. Men indtil da har vi brug for systemer, der kan arbejde med valideringer og sikkerhedsforanstaltninger og bevise, at de overholder dem.

Selvom fuld gennemsigtighed vil uundgåeligt tage tid at opnå, er den hurtige vækst af AI og dens brug gør det nødvendigt at arbejde hurtigt. Da AI-modellerne fortsætter med at øge i kompleksitet, har de magten til at gøre en stor forskel for menneskeheden, men konsekvenserne af deres fejl vokser også. Derfor er det ekstremt værdifuldt og nødvendigt at forstå, hvordan disse systemer når til deres beslutninger, for at forblive effektive og troværdige. Ved at fokusere på gennemsigtige AI-systemer kan vi sikre, at teknologien er lige så nyttig, som den er ment til at være, samtidig med at den forbliver upartisk, etisk, effektiv og præcis.

Manny Rivelo er administrerende direktør for ConnectWise, hvor han er tilknyttet virksomhedens mission om at styrke managed service providers (MSP'er) med usammenlignelige software, services og fællesskab for at opnå deres mest ambitiøse vision for succes. Som tidligere administrerende direktør for Forcepoint, ledte Rivelo forvandlingen af virksomheden til en større spiller i cybersikkerhedsrummet, hvor han drev vækst og innovation i mødet med udviklende cybertrusler. Gennem sin karriere har Manny Rivelo oparbejdet en reputation som en resultatorienteret leder, der fokuserer på at skabe bæredygtige forretningsmodeller og drive langsigtede værdier i et hurtigt foranderligt teknologisk landskab.