Tankeledare
Varför företag bör följa ett vÀrdebaserat tillvÀgagÄngssÀtt för AI-styrning

I september 2025 samlades för första gången alla medlemsstater i Förenta nationerna för att diskutera internationell AI-styrning; många var representerade igen i februari på Delhis AI Impact Summit. Evenemanget ledde till lanseringen av två nya organ centrerade på AI-styrning; men det var, som bäst, en symbolisk framgång.
Förenta nationernas nya mekanismer var utformade för att säkra konsensus: de undviker omstridda områden som militära användningar av AI, och saknar tydliga källor till finansiering och verkställande befogenheter. Detta borde inte komma som en överraskning för erfarna observatörer. Förenta nationerna idag saknar förmågan att agera snabbt eller säkerställa universell efterlevnad av sina beslut, vilket gör det till en svår plattform för att åstadkomma verklig förändring.
Detta följer ett etablerat mönster. Trots år av spridda försök att bygga konsensus om AI-regler, har det inte funnits några betydande internationella avtal, vilket skapar ett tomrum där enskilda länder och block har tvingats utveckla sina egna regler. Ändå är den effektiva styrningen av AI avgörande om vi vill se att det antas brett, litar på allmänheten och används på sätt som levererar varaktiga sociala och ekonomiska fördelar
Gör och lag
För globala företag som bygger och driver AI-system är bristen på gemensamma, överenskomna styrningsmekanismer problematisk. De vill distribuera AI-system över hela världen, men ingen två jurisdiktioner följer samma uppsättning regler. Så de tvingas istället skapa en generisk styrningsram runt sitt system, sedan bygga om det från grunden i varje land där de verkar för att säkerställa att det överensstämmer med lokala lagar och regler. Detta tillvägagångssätt skapar en enorm mängd extra arbete, gör AI-initiativ mer kostsamma och benägna att försenas, och försvagar de globala företagens förmåga att förverkliga ekonomiska skalfördelar och dela effektiva verktyg med användare överallt.
Det finns dock ett alternativ. För företag som vill effektivisera sitt tillvägagångssätt kan det bästa alternativet vara att bygga en AI-styrningsram som tar hänsyn till gemensamma etiska principer över dessa olika regioner, vilket säkerställer att de uppfyller höga standarder överallt i termer av att skydda enskilda personers frihet, integritet och säkerhet. Denna teknik representerar ett kraftfullt sätt för AI-företag att öka allmänhetens förtroende för deras teknik, att stärka sin kundbas och att utnyttja AI:s potentiella fördelar för samhället.
Sex nyckelvärden för AI-styrning
För alla organisationer som är intresserade av att anta ett värdebaserat tillvägagångssätt för AI-styrning skulle jag föreslå att använda de sex nyckelvärden vi följer: ansvar, förklarbarhet, transparens, rättvisa, säkerhet och ifrågasättbarhet.
Vi valde dessa värden eftersom de täcker alla stora områden av AI-systemets livscykel och eftersom de redan har kodifierats i olika internationella och nationella standarder relaterade till AI, såsom International Organization for Standardizations ISO/IEC 42001 och Artificial Intelligence Playbook for the UK Government.
För att börja i toppen, ansvar innebär att veta vem som är ansvarig för vad vid varje skede av AI-livscykeln. Utan tydligt ägandeskap kan viktiga kontroller utelämnas eftersom ingen enskild person eller grupp har det slutliga ansvaret. Organisationer bör tilldela seniora, namngivna ägare – såsom deras Chief AI Officer – till AI-system och nyckelskeden och använda en riskbaserad styrningsmodell, som tillämpar samma granskning på tredjepartsverktyg som på de som utvecklats internt. Detta innebär att förstå leverantörsvillkor, begränsningar och ansvar precis som de förstår sina egna system.
Organisationen för ekonomiskt samarbete och utveckling (OECD) fångar detta väl i sin vägledning för att främja ansvar i AI, som rekommenderar att organisationer skapar “mekanismer för att införa AI-riskhanteringsprocessen i den bredare organisatoriska styrningen, vilket främjar en kultur av riskhantering både inom organisationer och över hela AI-värdekedjan”.
Nästa är förklarbarhet. Organisationer bör kunna visa hur ett AI-system fattar ett beslut. Det kräver mekanismer för att dokumentera och spåra beslutsfattande, tillsammans med tydliga register över systemdesign, utbildningsdata och beslutsprocesser. Tillsammans med detta tillåter det team att förstå ursprunget till informationen från systemets början till distribution.
Rättvisa fokuserar på att säkerställa att AI-system producerar rättvisa resultat och inte replikerar eller förstärker befintliga fördomar. Utan medvetna kontroller kan system orsaka skada genom att leverera sneda resultat – ett särskilt problem i högimpaktområden som rekrytering, hälsovård och straffrätt. För att mildra detta bör organisationer implementera åtgärder för att upptäcka fördomar, granska utdata regelbundet över relevanta grupper och utforma styrningsramar som kan tillgodose lokala icke-diskrimineringskrav. I praktiken innebär det att bygga system som uppfyller den högsta juridiska standarden de sannolikt kommer att möta, inklusive skyldigheter enligt lagar som Storbritanniens jämställdhetslag 2010 och EU:s stadga om grundläggande rättigheter.
Transparens handlar om att bringa klarhet till både användare och regulatorer. Människor bör förstå när AI används, vilken roll det spelar i beslutsfattandet och vilka data som ligger till grund för det. En praktisk utgångspunkt är att standardisera dokumentation över AI-system, stödd av interna verktyg som modellkort: korta dokument som tillhandahålls med maskinlärningsmodeller som förklarar sammanhanget i vilket modellerna är avsedda att användas, detaljer om prestandautvärderingsförfarandena och annan relevant information. Utan transparens kan användare inte ifrågasätta orättvisa resultat, regulatorer kan inte ingripa effektivt och skadliga effekter kan svepas under mattan.
Säkerhet innebär att skydda AI-system från obehörig åtkomst, manipulation eller oavsiktligt beteende. Om säkerheten är svag kan AI utsätta organisationer, användare och deras data för risk, vilket utsätter dem för finansiell och ryktesmässig skada. Organisationer bör definiera prestanda- och noggrannhetströsklar, testa system under realistiska förhållanden och införa röd-lag-testning för att identifiera sårbarheter.
Slutligen säkerställer ifrågasättbarhet att människor har en tydlig och tillgänglig väg att utmana eller överklaga AI-styrda beslut. Utan det har berörda användare ingen möjlighet till återkoppling och problem kan aldrig bli lösta. Organisationer bör tillhandahålla rapporteringskanaler vid användningstidpunkten, tilldela seniora ägare att hantera klagomål och säkerställa att system kan pausas, granskas eller uppdateras vid behov.
Vilka är fördelarna med en värdebaserad ram?
Det finns två kraftfulla skäl till att anta detta värdebaserade tillvägagångssätt för AI-styrning. Först, eftersom de som bygger och distribuerar AI-system har ett etiskt ansvar gentemot de människor och organisationer som påverkas av dem; och, för det andra, eftersom detta är ett mer effektivt sätt att förverkliga AI:s utlovade fördelar i praktiken.
Användare av AI-system, både företag och enskilda, lägger outtalat förtroende till deras skapare att inte missbruka personuppgifter eller utsätta dem för onödigt risk. När organisationer bryter mot detta förtroende blir det mycket svårt för dem att behålla dessa användare. Slutligen, om människor inte litar på AI-system och kan se de tydliga fördelarna de levererar, kommer de inte att gå med på deras införande. Det kommer att orsaka mer social och ekonomisk splittring, och vi kommer att missa många av de möjligheter som presenteras av denna teknik.
Å andra sidan kan företag som tillämpar en värdebaserad ram överallt – inklusive i regioner med mer avslappnade styrningskrav – visa för kunder, investerare och regulatorer att de håller sig till en högre standard än grundläggande efterlevnad kräver. Det bygger förtroende, engagemang och, slutligen, affärssucces.
Stark AI-styrning är en värdeskapare, inte en efterlevnadsbörda. Det möjliggör för företag att introducera nya produkter på marknaden snabbare, minska sin riskexponering och skala sina lösningar över flera marknader med tillförsikt.
McKinseys rapport “AI:s tillstånd” visar att “en VD:s tillsyn av AI-styrning… är ett element som mest korrelerar med högre självrapporterad bottenlinjepåverkan från en organisations gen AI-användning,” vilket understryker de kommersiella fördelarna med ett sådant tillvägagångssätt. I det avseendet representerar byggandet av starka etiska ramar i AI-system ett upplyst självintresse.
Utöver allt detta är det helt enkelt rätt sak att göra. Vi har byggt vår globala etiska AI-policy runt samma princip: att avancerad teknik måste tjäna människor och samhälle, inte tvärtom. Detta återspeglar den bredare visionen för Society 5.0: en människocentrerad modell för innovation som syftar till att kombinera ekonomisk framsteg med lösningen av sociala utmaningar.
Om framväxande tekniker som AI ska främja ett lyckligare, mer harmoniskt samhälle, måste de byggas på starka etiska grunder. Det börjar med en fokus inte bara på de standarder som organisationer krävs för att uppfylla, utan också de standarder de vill uppnå.












