Tanke ledere
Faren ved at sige nej til AI

Jeg ringede ind til en potentiel klients firmaopkald i sidste uge. Alle sikkerheds- og netværksfolkene var der, plus ledelsen. Forskellige oplægsholdere dækkede de aktuelle emner. Så begyndte nogen at forklare, hvordan hans tekniske teams bruger AI i deres daglige arbejde.
Præsentanten var begejstret. Han havde fundet en måde at komprimere tre dages manuelt kopierings- og indsætningsarbejde ned til et par minutter ved hjælp af AI-værktøjer. Super fedt, ikke? Jeg forstår, hvad han lavede – og hvorfor han gjorde det. Det er løftet bag AI!
Men som sikkerhedsvagten i rummet tænker jeg: "Åh Gud." "Hvilket værktøj er det? Hvem ejer det værktøj?" Fordi han lægger kundeoplysninger ind på disse platforme – prisdata. Måske finansielle oplysninger? Hvad det end måtte være. Alt sammen for at fremskynde sin arbejdsgang.
Så jeg stillede det oplagte spørgsmål: "Har I en AI-politik?" Vi gik i gang med at lede. Fandt en skjult tekst om acceptabel brug. Noget vagt om AI-værktøjer. Læser nogen rent faktisk den? Sandsynligvis ikke. Du underskriver den under onboarding, og så er du færdig.
Dine medarbejdere bruger allerede AI
Her er, hvad jeg har lært ved at tale med virksomheder på tværs af alle brancher: AI er allerede overalt, uanset om man anerkender det eller ej. Nyere forskning bekræfter denne virkelighed—75% af arbejdstagerne bruger nu kunstig intelligens på arbejdetnæsten en fordobling på bare seks måneder.
I sidste uge i Houston mødte jeg en fyr, hvis firma borer efter olie. De har en AI-platform, der analyserer jordens sammensætning og vejrmønstre for at optimere boresteder. Han forklarede, hvordan de tager højde for nedbørsdata – "Vi vidste, at det regnede 18 dage mere, end det gjorde i dette område, så oliekapaciteten er sandsynligvis højere, hvilket gør det muligt for borerne at komme dybere ned."
I mellemtiden bruger jeg AI til at lave en rejseplan for Tyskland. Jeg har talt med virksomheder inden for sundhedsvæsenet, der bruger det til telehealth-platforme. Finansteams, der kører risikomodeller. Jeg mødte endda en, der driver en limonadevirksomhed, som på en eller anden måde udnytter AI.
Pointen er: AI findes i alle brancher, alle arbejdsgange. Den kommer ikke – den er her. Og de fleste af disse organisationer er i samme båd, som vi var. De ved, at deres medarbejdere bruger den. De ved bare ikke, hvordan de skal håndtere den.
Skygge-IT bliver hurtigt farligt
Ved du, hvad der sker, når du fortæller folk, at de ikke må bruge kunstig intelligens? Det er præcis som at fortælle din teenager aldrig at drikke. Tillykke, nu vil de være dem, der drikker på de mest usikre måder, fordi du har skabt et forbud.
Tallene beviser denne sandhed: 72% af generativ AI-brug i virksomheder er skygge-IT, hvor medarbejdere bruger personlige konti til at fĂĄ adgang til AI-apps.
Folk henter deres anden bærbare computer. De bruger deres personlige telefon, som ikke er beskyttet af virksomhedens sikkerhedssystemer. Så bruger de alligevel kunstig intelligens. Pludselig mister man overblikket og skaber præcis de huller, man forsøgte at forhindre.
Jeg har set dette mønster før. Sikkerhedshold, der siger "nej" til alt, ender med at drive folk under jorden – og mister alt overblik over, hvad der rent faktisk sker.
Sikkerhed bliver fjenden
Der er denne opfattelse af, at sikkerhedsholdene er "de onde fyre i kælderen". Folk tænker: "Åh, sikkerhedspersonalet siger nok nej alligevel, så glem de fyre. Jeg gør det alligevel."
Vi har skabt den misforståelse. Og med AI er folk forudindtagede og antager, at vi lukker dem ned, så de gider ikke spørge. Det ødelægger den kommunikation, man rent faktisk ønsker.
Jeg havde en udvikler, der kom hen til mig efter en konferencepræsentation. Han bruger API'er hver eneste dag og havde forsøgt at få sit sikkerhedsteams opmærksomhed omkring test og validering. Men han havde besluttet sig for ikke at spørge, fordi han regnede med, at de bare ville sige nej.
Tillidsunderskuddet koster dig alt
Her er den samtale, du ønsker: En person fra marketing kommer hen til dig og siger: "Hej, jeg vil gerne bruge dette AI-værktøj. Hvad er vores holdning til det? Hvordan bruger jeg det sikkert?" Det er den rigtige måde at samarbejde med sikkerhed på.
Vi vil undersøge det grundigt. Vi forstår, at AI bliver en del af forretningen. Vi vil ikke sige nej til det – vi ønsker, at folk skal bruge det sikkert. Men vi har brug for den samtale først.
Når folk antager, at sikkerheden vil blokere alt, holder de op med at spørge. De tilmelder sig med personlige e-mails, begynder at indtaste virksomhedsdata på ukontrollerede platforme, og du mister al synlighed og kontrol. Resultatet er forudsigeligt: 38% af medarbejderne deler følsomme arbejdsoplysninger med AI-værktøjer uden deres arbejdsgivers tilladelse..
Organisationer vil bruge AI uanset hvad. Spørgsmålet er: hvordan sikrer vi, at vores medarbejdere kan udnytte det sikkert uden at bringe virksomhedens data, privatliv eller sikkerhed i fare?
Start med smarte ja'er, ikke generelle nej'er
Her er hvad der rent faktisk virker: proaktiv kommunikation. Send nyhedsbreve eller afhold 30-minutters webinarer, hvor du siger: "Vi tillader AI i organisationen. Sådan gør du det sikkert." Optag sessionerne til folk, der går glip af dem.
Vis eksempler på medarbejdere, der har indgået succesfulde partnerskaber med sikkerhedsafdelingen. Gør disse partnerskaber synlige i stedet for at være en skyggefuld enhed, som folk antager vil lukke dem ned.
Du skal opbygge tillid over tid mellem sikkerhedspersonale og medarbejdere. I sidste ende bruger vi alle kunstig intelligens på både store og små måder. Jeg brugte det til at planlægge min Tysklandstur – bad det om at oprette en tre-dages rejseplan, og det var en fantastisk tur.
Fra et organisatorisk synspunkt er vi nødt til at erkende, hvor AI er placeret i virksomheden. Vil det øge omsætningen? Sandsynligvis. Business casen er klar: AI er gået fra 'eksperiment' til 'essentiel', hvor virksomheders udgifter er steget med 130 %Så hvad gør vi? Hvordan yder vi beskyttelse, samtidig med at vi muliggør produktivitet?
Målet er ikke perfekt kontrol, det er umuligt. Målet er informeret AI-adoption med foranstaltninger, der rent faktisk fungerer i praksis. Den nye risiko for sikkerhed er ved at blive isoleret fra AI-brug – brug, der sker med eller uden dig.
For organisationer, der er seriøse omkring at gøre dette rigtigt, anbefaler eksperter at udvikle klare AI-styringspolitikker, der balancerer forretningsbehov med sikkerhedskrav før brugen af skygge-AI kommer helt ud af kontrol.