Connect with us

Styrningsgapet: Varför AI-reglering alltid kommer att vara efter

Tankeledare

Styrningsgapet: Varför AI-reglering alltid kommer att vara efter

mm

Innovation utvecklas i maskinhastighet, medan styrning sker i mänsklig hastighet. Allteftersom AI-användningen växer exponentiellt, halkar regleringen efter, vilket är ganska typiskt när det gäller teknologi. Världen över kämpar regeringar och andra enheter för att reglera AI, men fragmenterade och ojämna tillvägagångssätt förekommer.

En del av utmaningen är att det inte finns någon sådan sak som apolitisk teknisk design. Det finns ett antal regler och förslag, från EU:s AI-lag till USA:s reglerings砂lådor, var och en med sin egen filosofi. Medan AI-styrning inneboende släpar efter innovation, är den verkliga utmaningen att hantera säkerhet och policy på ett ansvarsfullt sätt inom den här luckan.

Gapets natur: Innovation först, tillsyn senare

Regleringslucka är en oundviklig biprodukt av teknisk framsteg. Till exempel utvecklade Henry Ford inte Modell T med fokus på vägsäkerhet och trafikregler. Regleringsmönster följer historiskt innovation; nyliga exempel inkluderar dataskydd, blockchain och sociala medier. AI:s snabba utveckling överträffar policybildning och verkställighet. Med andra ord har vagnen varit före hästen under en längre tid.

En del av utmaningen är att beslutsfattare ofta reagerar på skada snarare än förutser risk, vilket skapar cykler av reaktiv styrning. Problemet är inte luckan i sig utan snarare bristen på anpassningsbara mekanismer för att hålla jämna steg med nya hotmodeller, och bristen på vilja att kompromissa med en konkurrensfördel för säkerhets skull. Det är ett “race to the bottom”-scenario; vi eroderar vår egen kollektiva säkerhet för lokal konkurrensfördel.

Globalt patchwork av AI-styrning representerar fragmenterade filosofier

De befintliga stora AI-styrnings tillvägagångssätten i världen varierar kraftigt.

I EU introducerades AI-lagen förra året, som är mycket etik- och riskbaserad. AI-användning bedöms enligt risknivå, och vissa anses vara oacceptabla och förbjudna risker. USA har däremot tagit en mer reglerings砂lådemodell som betonar innovationsflexibilitet. Vissa kan beskriva det som ett undantag för innovation, medan kritiker kan kalla det en tom check.

Det finns också Hiroshimaprocessen, som innehåller global samordning, men begränsad uppföljning; varje G7-nation fokuserar fortfarande på inhemsk AI-dominans.

I USA har frågan i stor utsträckning lämnats till delstaterna, vilket effektivt säkerställer brist på effektiv reglering. Den federala regeringen gör detta ibland just på grund av hur ineffektiv den kan vara. Delstaterna skapar nya砂lådor för att locka till sig teknikföretag och investeringar, men det är osannolikt att det kommer att finnas någon meningsfull reglering på delstatsnivå; endast undantag beviljas.

Storbritannien har varit i en inhemsk och internationell kamp för att etablera sig som självständig efter Brexit. Genom avreglering och regeringens “Leveling Up”-schema är införandet av reglerings砂lådor ingen överraskning. Storbritanniens regering vill att Storbritannien ska vara en dominant AI-supermakt för både inre och yttre politisk fördel och stabilitet.

EU fokuserar mer på konsument­säkerhet, men också på styrkan i den gemensamma marknaden. Detta är logiskt, med tanke på EU:s historia med patchwork-reglering. Delad regelefterlevnad, normer och gränsöverskridande handel är nyckeln till att göra EU till vad det är. De kräver fortfarande reglerings砂lådor, men varje medlemsstat måste också ha en som fungerar senast samma datum.

Dessa är bara några sådana regler, men troligen de mest framträdande. Den viktiga punkten är att det finns sammanbrott av ramar som saknar gemensamma definitioner, verkställighetsmekanismer och gränsöverskridande samverkan. Detta lämnar luckor för angripare att utnyttja.

Protokollens politiska natur

Ingen AI-reglering kan någonsin vara helt neutral; varje designval, skydd och regel reflekterar underliggande regerings- eller företagsintressen. AI-reglering har blivit ett geopolitiskt verktyg; nationer använder det för att säkra ekonomisk eller strategisk fördel. Chipexportkontroller är ett aktuellt exempel; de fungerar som indirekt AI-styrning.

Den enda reglering som effektivt har införts hittills är att medvetet hindra en marknad. Den globala tävlingen om AI-överlägsenhet håller styrningen som ett verktyg för konkurrens snarare än samarbete för säkerhet.

Säkerhet utan gränser, men styrning med dem

Det stora problemet här är att AI-aktiverade hot överstiger gränser medan reglering förblir instängd. Idag inkluderar de snabbt utvecklande hoten både attacker på AI-system och attacker som använder AI-system. Dessa hot korsar jurisdiktioner, men reglering förblir isolerad. Säkerhet blir isolerad i ett hörn medan hot korsar hela internet.

Vi börjar redan se missbruk av legitima AI-verktyg av globala hotaktörer som utnyttjar svaga säkerhetskontroller. Till exempel har det skett elakartad aktivitet med användning av AI-skapningsverktyg för webbplatser som mer liknar webbplatsklonare och kan lätt missbrukas för att skapa phishing-infrastruktur. Dessa verktyg har använts för att förfalska inloggningsidor för allt från populära sociala medietjänster till nationella polismyndigheter.

Tills styrningsramar återspeglar AI:s gränslösa struktur, kommer försvarare att förbli begränsade av fragmenterade lagar.

Från reaktiv reglering till proaktiv försvar

Regleringslucka är oundviklig, men stagnation är det inte. Vi behöver anpassningsbar, prediktiv styrning med ramar som utvecklas med tekniken; det handlar om att gå från reaktiv reglering till proaktivt försvar. Idealiskt sett skulle det se ut så här:

  • Utveckling av gemensamma internationella standarder för AI-riskklassificering.
  • Utvidgad deltagande i standardinställningar utöver stora regeringar och företag. Internetstyrning har sökt (med blandad framgång) att använda en multistakeholdermodell istället för en multilateral. Även om den är ofullständig, har den haft en stor inverkan på att göra internet till ett verktyg för alla och minimera censur och politiska stängningar.
  • Främjande av mångfald i tanke i styrning.
  • Ett mekanism för incidentrapportering och transparens. En brist på regler kommer ofta att innebära en brist på rapporteringskrav. Det är osannolikt att det kommer att finnas något krav på att informera allmänheten om skada från misstag eller designval inom reglerings砂lådor inom den närmaste framtiden.

Medan styrningsgapet aldrig kommer att försvinna, kan samarbetsvilliga, transparenta och inkluderande ramar förhindra att det blir en permanent sårbarhet i global säkerhet.

Ginny Spicer Àr en Cyber Threat Analyst pÄ Netcraft, dÀr hon spÄrar nya hotaktörers taktik och kampanjer. Hennes bakgrund Àr inom nÀtverksanalys och nationell hotforskning. Hon Àr 2026 Ärs president för HTCIA:s Silicon Valley-kapitel, styrelseledamot för Deep Packet Inspection Consortium och en av Internet Societys 2025 Youth Ambassadörer.