Tankeledere
Hvorfor virksomheder skal følge en værdibaseret tilgang til AI-styring

I september 2025 samledes alle medlemsstater i De Forenede Nationer for første gang for at diskutere international AI-styring; mange var repræsenteret igen i februar på Delhi’s AI Impact Summit. Begivenheden ledte til lanceringen af to nye organer centreret om AI-styring; men det var, på bedste vis, en symbolsk succes.
De Forenede Nationers nye mekanismer var designede til at sikre konsensus: de undgår omstridte områder såsom militær brug af AI, og mangler klare kilder til finansiering og gennemførelsesmagt. Dette burde ikke komme som en overraskelse for erfarne iagttagere. I dag mangler De Forenede Nationer evnen til at bevæge sig hurtigt eller sikre universel overholdelse af deres beslutninger, hvilket gør det til en svær forum for at effektuere virkelig forandring.
Dette passer en velkendt mønster. Trods års spredte forsøg på at opbygge konsensus om AI-reguleringer, har der ikke været nogen væsentlige internationale aftaler, hvilket skaber et tomrum, hvor enkeltlande og blokke er blevet tvunget til at udvikle deres egne regler. Dog er en effektiv styring af AI afgørende, hvis vi ønsker at se det blive bredt accepteret, stole på af offentligheden og brugt på måder, der leverer varig social og økonomisk fordel
Gør do og reparer
For globale virksomheder, der bygger og opererer AI-systemer, er manglen på fælles, accepterede styringsmekanismer problematisk. De ønsker at udrulle AI-systemer over hele verden, men ingen to jurisdiktioner overholder samme sæt regler. Så de er tvunget til at opbygge en generisk styringsramme omkring deres system, og derefter genopbygge det fra bunden i hver enkelt land, hvor de opererer for at sikre, at det overholder lokale love og reguleringer. Denne tilgang skaber en enorm mængde ekstra arbejde, gør AI-initiativer mere kostbare og udsatte for forsinkelser, og svækker globale virksomheders evne til at realisere økonomiske skalafordele og dele effektive værktøjer med brugere overalt.
Der er dog en alternativ. For virksomheder, der søger at strømline deres tilgang, kan den bedste mulighed være at opbygge en AI-styringsramme, der tager hensyn til fælles etiske principper på tværs af disse forskellige regioner, og sikrer, at de opfylder høje standarder overalt i forhold til at beskytte enkeltpersoners frihed, privatliv og sikkerhed. Denne teknik repræsenterer en kraftfuld måde for AI-virksomheder at øge offentlighedens tillid til deres teknologi, at styrke deres kundebase og at udnytte AI’s potentielle fordele til samfundet.
Seks nøgleværdier for AI-styring
For enhver organisation, der er interesseret i at adoptere en værdibaseret tilgang til AI-styring, ville jeg foreslå at bruge de seks nøgleværdier, vi følger: ansvarlighed, forklarbarhed, gennemsigtighed, retfærdighed, sikkerhed og kontestbarhed.
Vi valgte disse værdier, fordi de dækker alle større områder af AI-systemets livscyklus, og fordi de allerede er kodificeret i forskellige internationale og nationale standarder relateret til AI, såsom Den Internationale Standardiseringsorganisationens ISO/IEC 42001 og Artificial Intelligence Playbook for the UK Government.
For at starte med det første, betyder ansvarlighed at vide, hvem der er ansvarlig for hvad på hvert trin af AI-livscyklussen. Uden klart ejerskab kan væsentlige kontroller blive udeladt, fordi ingen enkelt person eller team har den endelige ansvar. Organisationer bør tildele senior, navngivne ejere – såsom deres Chief AI Officer – til AI-systemer og nøgletrin, og bruge en risikobaseret styringsmodel, hvor de anvender samme skærping til tredjeparts-værktøjer som til dem, der er udviklet internt. Dette betyder, at de forstår leverandørernes vilkår, begrænsninger og ansvar lige så godt som de forstår deres egne systemer.
Organisationen for Økonomisk Samarbejde og Udvikling (OECD) fanger dette godt i deres vejledning om at fremme ansvarlighed i AI, som anbefaler, at organisationer opretter “mekanismer til at integrere AI-risikostyringsprocessen i den bredere organisationsstyring, og fremme en kultur af risikostyring både inden for organisationer og på tværs af hele AI-værdikæden”.
Næste er forklarbarhed. Organisationer bør være i stand til at vise, hvordan et AI-system når en beslutning. Det kræver mekanismer til at dokumentere og spore beslutningsprocesser, sammen med klare optegnelser over systemdesign, træningsdata og beslutningsprocesser. Taget sammen, giver dette teams mulighed for at forstå linjen af information fra et systems oprettelse til udrulning.
Rettfærdighed fokuserer på at sikre, at AI-systemer producerer retfærdige resultater, og ikke reproducerer eller forstærker eksisterende fordomme. Uden bevidste kontroller kan systemer forårsage skade ved at levere skæve resultater – et særligt problem i høj-impact-områder såsom rekruttering, sundhedspleje og straffesager. For at mildne dette, bør organisationer implementere bias-detektionsforanstaltninger, gennemgå outputs regelmæssigt på tværs af relevante grupper, og designe styringsrammer, der kan tilpasse lokale non-diskriminationskrav. I praksis betyder dette at opbygge systemer, der opfylder den højeste lovgivningsmæssige standard, de sandsynligvis vil møde, herunder forpligtelser under love såsom Storbritanniens Ligebehandlingslov 2010 og EU’s Charter om Grundlæggende Rettigheder.
Gennemsigtighed handler om at bringe klarhed til både brugere og regulatører. Mennesker bør forstå, når AI bliver brugt, hvilken rol det spiller i beslutningsprocessen, og hvilke data det understøtter. En praktisk udgangspunkt er at standardisere dokumentation på tværs af AI-systemer, understøttet af interne værktøjer såsom modelkort: korte dokumenter, der følger med maskinelæringmodeller, som forklarer konteksten, hvori modellerne er tiltænkt at blive brugt, detaljer om performancesevalueringsprocedurer og andre relevante oplysninger. Uden gennemsigtighed kan brugere ikke kontestere uretfærdige resultater, regulatører kan ikke intervenere effektivt, og skadelige virkninger kan blive fejet under gulvtæppet.
Sikkerhed indebærer beskyttelse af AI-systemer mod unautorisert adgang, manipulation eller uventet adfærd. Hvis sikkerheden er svag, kan AI-systemer udsætte organisationer, brugere og deres data for finansielle og reputationsmæssige skader. Organisationer bør definere performances- og nøjagtighedstrin, stressteste systemer under realistiske betingelser, og inkorporere rød-hold-testning for at identificere sårbarheder.
Til sidst sikrer kontestbarhed, at mennesker har en klar og tilgængelig måde at udfordre eller anke AI-drevne beslutninger på. Uden det har berørte brugere ingen mulighed for at få deres sag behandlet, og problemer kan aldrig blive fremdraget eller løst. Organisationer bør give rapporteringskanaler på brugspunktet, tildele senior ejere til at håndtere klager, og sikre, at systemer kan pauses, gennemgås eller opdateres, hvor nødvendigt.
Hvad er fordelene ved en værdibaseret ramme?
Der er to kraftfulde grunde til at adoptere denne værdibaserede tilgang til AI-styring. Først og fremmest, fordi de, der bygger og udruller AI-systemer, har en etisk ansvarlighed over for de mennesker og organisationer, der berøres af dem; og, for det andet, fordi dette er en mere effektiv måde at realisere AI’s lovede fordele i praksis.
Brugere af AI-systemer, både virksomheder og enkelt personer, placerer implicit tillid til deres skabere til ikke at misbruge personlige data eller udsætte dem for unødvendig risiko. Når organisationer bryder denne tillid, bliver det meget svært for dem at fastholde disse brugere. Til sidst, medmindre mennesker stoler på AI-systemer, og kan se de klare fordele, de leverer, vil de ikke gå med til deres introduktion. Dette vil føre til mere social og økonomisk splid, og vi vil gå glip af mange af mulighederne, der præsenteres af denne teknologi.
På den anden side kan virksomheder, der anvender en værdibaseret ramme overalt – herunder i regioner med mere afslappede styringskrav – demonstrere for kunder, investorer og regulatører, at de holder sig selv til en højere standard end grundlæggende overholdelse kræver. Dette bygger tillid, engagement og, til sidst, forretnings succes.
Stærk AI-styring er en værdiskaber, ikke en overholdelsesbyrde. Det giver virksomheder mulighed for at bringe nye produkter på markedet hurtigere, reducere deres risikoexponering og skalere deres løsninger på tværs af multiple markeder med tillid.
McKinseys ‘AI’s tilstand‘-rapport <a href="https://www.mckinsey.com/~/media/mckinsey/business%20functions/quantumblack/our%20insights/the%20state%20of%20ai/2025/the-state-of-ai-how-organizations-are-rewiring-to-capture-value_final.pdf?%29%E3%82%82%E3%80%81%E3%82%B8%E3%82%A7%E3%83%8D%E3%83%AC%E3%83%BC%E3%83%86%E3%82%A3%E3%83%96AI%E3%81%8B%E3%82%89%E6%AC%A1%E3%81%AE%E3%83%95%E3%83%AD%E3%83%B3%E3%83%86%E3%82%A3%E3%82%A2%E3%81%A8%E3%81%97%E3%81%A6%E3%82%A8%E3%83%BC%E3%82%B8%E3%82%A7%E3%83%B3%E3%83%88AI%E3%81%AE%E5%AE%9F%E7%94%A8%E5%8C%96%E3%81%8C%E4%BC%81%E6%A5%AD%E4%BE%A1%E5%80%A4%E5%89%B5%E5%87%BA%E3%81%AE%E9%8D%B5%E3%81%A8%E3%81%AA%E3%82%8B%E3%81%A8%E5%A0%B1%E5%91%8A%E3%81%97%E3%81%A6%E3%81%84%E3%82%8B%E3%80%82=&utm_source=chatgpt.com"en administrerende direktørs tilsyn med AI-styring … er et element, der er mest korreleret med højere selvrapporteret bundlinjeindvirkning fra en organisations brug af generel AI", hvilket understreger de kommercielle fordele ved en sådan tilgang. I denne henseende repræsenterer opbygning af stærke etiske rammer i AI-systemer oplyst selvinteresse.
Udenfor alt dette er det blot det rigtige at gøre. Vi har bygget vores globale etiske AI-politik omkring samme princip: at avancerede teknologier skal tjene mennesker og samfund, ikke omvendt. Dette afspejler den bredere vision for Samfund 5.0: en menneskecentreret model for innovation, der søger at kombinere økonomisk fremgang med løsningen af sociale udfordringer.
Hvis fremvoksende teknologier som AI skal fremme et lykkeligere, mere harmonisk samfund, må de bygges på stærke etiske grundlag. Det starter med en fokus ikke kun på de standarder, organisationer er pålagt at opfylde, men også de standarder, de ønsker at opnå.












