Tankeledere
Hvorfor selskaper bør følge en verdibasert tilnærming til AI-styring

I september 2025 samlet alle medlemslandene i De forente nasjoner for første gang for å diskutere internasjonal AI-styring; mange var representert igjen i februar på Delhi’s AI Impact Summit. Arrangementet ledet til lanseringen av to nye organer sentrert på AI-styring; men det var, på beste måte, en symbolsk suksess.
De forente nasjoners nye mekanismer var designet for å sikre konsensus: de unngår omstridte områder som militær bruk av AI, og mangler klare kilder for finansiering og gjennomføringsmyndighet. Dette burde ikke overraske erfarne observatører. I dag mangler De forente nasjoner evnen til å flytte raskt eller sikre universell overholdelse av sine beslutninger, noe som gjør det til et vanskelig forum for å fremme virkelig endring.
Dette passer en veletablert mønster. Til tross for år med spredte forsøk på å bygge konsensus om AI-reguleringer, har det ikke vært noen betydelige internasjonale avtaler, noe som har skapt et tomrom hvor enkeltland og blokker har blitt tvunget til å utvikle sine egne regler. Likevel er effektiv styring av AI avgjørende hvis vi ønsker å se det bli tatt i bruk på bred front, bli betrodd av allmennheten og brukt på måter som gir varig sosial og økonomisk nytte
Gjør det beste du kan
For globale selskaper som bygger og opererer AI-systemer, er mangelen på felles, avtalt styringsmekanismer problematisk. De ønsker å distribuere AI-systemer over hele verden, men ingen to jurisdiksjoner følger samme sett med regler. Så de er tvunget til å lage en generisk styringsramme rundt systemet, og deretter bygge det opp fra bunnen i hvert land de opererer for å sikre at det overholder lokale lover og reguleringer. Denne tilnærmingen skaper en enorm mengde ekstra arbeid, gjør AI-initiativer mer kostbare og utsatt for forsinkelser, og svekker globalt virksomheters evne til å realisere skalamessige økonomier og dele effektive verktøy med brukere over hele verden.
Det finnes imidlertid en alternativ. For selskaper som ønsker å strømlinjeforme sin tilnærming, kan det beste alternativet være å bygge en AI-styringsramme som tar hensyn til felles etiske prinsipper på tvers av disse ulike regionene, og sikre at de møter høye standarder overalt når det gjelder å beskytte enkeltpersoners frihet, personvern og sikkerhet. Denne teknikken representerer en kraftfull måte for AI-virksomheter å øke allmennhetens tillit til teknologien, å styrke kundebasen og å utnytte AI-potensialet til å gi nytte til samfunnet.
Seks nøkkelverdier for AI-styring
For enhver organisasjon som er interessert i å adoptere en verdibasert tilnærming til AI-styring, ville jeg foreslå å bruke de seks nøkkelverdiene vi følger: ansvar, forklarbarhet, gjennomsiktighet, rettferdighet, sikkerhet og kontestabilitet.
Vi valgte disse verdiene fordi de dekker alle større områder av AI-systemets livssyklus, og fordi de allerede er kodifisert i ulike internasjonale og nasjonale standarder relatert til AI, som Den internasjonale standardiseringsorganisasjonens ISO/IEC 42001 og Artificial Intelligence Playbook for the UK Government.
For å begynne med, ansvar betyr å vite hvem som er ansvarlig for hva på hver enkelt stadium av AI-livssyklusen. Uten klart eierskap, kan viktige kontroller bli utelatt fordi ingen enkelt person eller team har den endelige ansvar. Organisasjoner bør tildele senior, navngitte eiere – som deres Chief AI Officer – til AI-systemer og nøkkelstadier, og bruke en risikobasert styringsmodell, og anvende samme granskning til tredjepartsverktøy som til de som er utviklet internt. Dette betyr å forstå leverandørers vilkår, begrensninger og ansvar like godt som de forstår sine egne systemer.
Organisasjonen for økonomisk samarbeid og utvikling (OECD) fanger dette godt i sin veiledning om å fremme ansvar i AI, som anbefaler at organisasjoner oppretter “mekanismer for å innlemme AI-risikostyringsprosessen i bredere organisatorisk styring, og fremme en kultur for risikostyring både innen organisasjoner og på hele AI-verdikjeden”.
Neste er forklarbarhet. Organisasjoner bør kunne vise hvordan et AI-system når en beslutning. Det krever mekanismer for å dokumentere og spore beslutningsprosesser, samt klare poster over systemdesign, treningdata og beslutningsprosesser. Tatt sammen, tillater dette at teamene forstår opphavet til informasjonen fra systemets opprinnelse til distribusjon.
Rettferdighet fokuserer på å sikre at AI-systemer produserer rettferdige resultater og ikke reproduserer eller forsterker eksisterende fordommer. Uten bevisste kontroller, kan systemer skade ved å levere skjeve resultater – et spesielt problem i høy-impaktområder som rekruttering, helse og kriminalitet. For å mildne dette, bør organisasjoner implementere bias-dettektionsmekanismer, gjennomgå utdata regelmessig over relevante grupper, og designe styringsrammer som kan tilpasse lokale ikke-diskrimineringskrav. I praksis betyr dette å bygge systemer som møter den høyeste lovmessige standarden de sannsynligvis vil møte, inkludert forpliktelser under lover som Storbritannias Equality Act 2010 og EUs Charter of Fundamental Rights.
Gjennomsiktighet handler om å bringe klarhet til både brukere og regulatorene. Folk bør forstå når AI brukes, hva rolle det spiller i beslutningsprosessen, og hva data som ligger til grunn for det. En praktisk utgangspunkt er å standardisere dokumentasjon over AI-systemer, støttet av interne verktøy som modellkort: korte dokumenter som følger med maskinlæringsmodeller som forklarer konteksten de er ment å brukes i, detaljer om ytelsesevalueringprosedyrer og andre relevante opplysninger. Uten gjennomsiktighet, kan brukerne ikke utfordre urettferdige resultater, regulatorene kan ikke gripe inn effektivt, og skadelige virkninger kan bli feiet under teppet.
Sikkerhet handler om å beskytte AI-systemer mot uautorisert tilgang, manipulering eller uventet atferd. Hvis sikkerheten er svak, kan AI-systemer utsette organisasjoner, brukere og deres data for finansiell og omdømmesskade, og eksponere dem for risiko. Organisasjoner bør definere ytelses- og nøyaktighetstrøskler, stressteste systemer under realistiske forhold, og inkorporere rød-lag-testning for å identifisere sårbarheter.
Til slutt sikrer kontestabilitet at folk har en klar og tilgjengelig måte å utfordre eller anke AI-drevne beslutninger. Uten det, har berørte brukere ingen mulighet til å klage, og problemer kan aldri bli fremmet eller løst. Organisasjoner bør tilbytte rapporteringskanaler ved brukspunktet, tildele senior eiere til å håndtere klager, og sikre at systemer kan stoppes, gjennomgås eller oppdateres når nødvendig.
Hva er fordelene med en verdibasert ramme?
Det finnes to kraftfulle grunner for å adoptere en verdibasert tilnærming til AI-styring. Først og fremst, fordi de som bygger og distribuerer AI-systemer har en etisk forpliktelse til personer og organisasjoner som påvirkes av dem; og, for det andre, fordi dette er en mer effektiv måte å realisere AI-potensialet på i praksis.
Brukere av AI-systemer, både corporate og individuelle, plasserer implisitt tillit til skaperne deres til ikke å misbruke personlige data eller eksponere dem for unødvendig risiko. Når organisasjoner bryter denne tilliten, blir det svært vanskelig for dem å beholde disse brukerne. Til slutt, med mindre folk stoler på AI-systemer, og kan se de klare fordeler de gir, vil de ikke gå med på å innføre dem. Dette vil føre til mer sosial og økonomisk splittelse, og vi vil gå glipp av mange av mulighetene som denne teknologien presenterer.
På den andre siden, kan selskaper som anvender en verdibasert ramme overalt – inkludert i regioner med mer avslappede styringskrav – demonstrere for kunder, investorer og regulatorene at de holder seg til en høyere standard enn det grunnleggende kravene. Dette bygger tillit, engasjement og, til slutt, forretnings-suksess.
Stærk AI-styring er en verdiskaper, ikke en overholdelsesbyrde. Den muliggjør at bedrifter kan bringe nye produkter til markedet raskere, redusere risiko-exponeringen og skalerer løsningene over flere markeder med tillit.
McKinseys ‘The state of AI‘-rapport fant at “en CEO’s tilsyn med AI-styring… er ett element som er mest korrelert med høyere selvrapportert bottom-line-impakt fra en organisasjons gen AI-bruk,” understreker de kommersielle fordelene ved en slik tilnærming. I denne sammenhengen representerer bygging av sterke etiske rammeverk i AI-systemer opplyst selvinteresse.
Utenom alt dette, er det enkelt og rett å si at det er det riktige å gjøre. Vi har bygget vår globale etiske AI-politikk rundt samme prinsipp: at avanserte teknologier må tjene mennesker og samfunn, ikke motsatt. Dette reflekterer den videre visjonen om Society 5.0: en menneskesentrert modell for innovasjon som søker å kombinere økonomisk fremgang med løsning av sosiale utfordringer.
Hvis fremvoksende teknologier som AI skal fremme et lykkeligere, mer harmonisk samfunn, må de bygges på sterke etiske grunnlag. Det begynner med en fokus ikke bare på standardene organisasjoner er pålagt å møte, men også standardene de ønsker å oppnå.












