Kontakt med oss

Tankeledere

Å finne balansen: Globale tilnĂŠrminger for Ă„ redusere AI-relaterte risikoer

mm

Det er ingen hemmelighet at moderne teknologier de siste Ärene har presset etiske grenser under eksisterende juridiske rammeverk som ikke er laget for Ä passe dem, noe som har fÞrt til juridiske og regulatoriske minefelt. For Ä prÞve Ä bekjempe effektene av dette, velger regulatorer Ä gÄ frem pÄ ulike mÄter mellom land og regioner, noe som Þker globale spenninger nÄr en avtale ikke kan oppnÄs.

Disse regulatoriske forskjellene ble fremhevet pÄ et nylig AI-aksjonstoppmÞte i Paris. endelig uttalelse av arrangementet fokuserte pÄ spÞrsmÄl om inkludering og Äpenhet i AI-utvikling. Interessant nok nevnte den bare sikkerhet og pÄlitelighet i stor grad, uten Ä legge vekt pÄ spesifikke AI-relaterte risikoer, som sikkerhetstrusler. Utarbeidet av 60 nasjoner, Storbritannia og USA manglet pÄfallende i uttalelsens underskrifter, noe som viser hvor lite enighet det er akkurat nÄ pÄ tvers av viktige land.

HÄndtering av AI-risikoer globalt

Utvikling og utrulling av AI er regulert forskjellig i hvert land. Likevel befinner de fleste seg et sted mellom de to ytterpunktene – USAs og EUs (EU) holdninger.

Den amerikanske mÄten: fÞrst innovere, deretter regulere

I USA finnes det ingen fÞderale lover som regulerer KI spesielt. I stedet er den avhengig av markedsbaserte lÞsninger og frivillige retningslinjer. Det finnes imidlertid noen viktige lovverk for KI, inkludert National AI Initiative Act, som har som mÄl Ä koordinere fÞderal KI-forskning, Federal Aviation Administration Reauthorisation Act og National Institute of Standards and Technologys (NIST) frivillige rammeverk for risikostyring.

Det amerikanske regulatoriske landskapet er fortsatt ustabilt og gjenstand for store politiske endringer. For eksempel utstedte president Biden i oktober 2023 en Forordning om trygg, sikker og pÄlitelig kunstig intelligens, innfÞre standarder for kritisk infrastruktur, forbedre AI-drevet cybersikkerhet og regulere fÞderalt finansierte AI-prosjekter. I januar 2025, president Trump opphevet denne utÞvende ordren, i en dreining bort fra regulering og mot Ä prioritere innovasjon.

Den amerikanske tilnĂŠrmingen har sine kritikere. De bemerker at dens «fragmentert natur«fĂžrer til et komplekst nett av regler som»mangler hĂ„ndhevbare standarder«, og har»hull i personvern.» Holdningen som helhet er imidlertid i endring – i 2024 introduserte delstatslovgivere nesten 700 nye lovforslag om kunstig intelligens og det har vĂŠrt flere hĂžringer om KI i styring samt KI og immaterielle rettigheter. Selv om det er tydelig at den amerikanske regjeringen ikke viker unna regulering, ser den tydelig etter mĂ„ter Ă„ implementere den pĂ„ uten Ă„ mĂ„tte gĂ„ pĂ„ akkord med innovasjon.

EU-metoden: prioritering av forebygging

EU har valgt en annen tilnÊrming. I august 2024 introduserte Europaparlamentet og RÄdet Artificial Intelligence Act (AI Act), som har blitt ansett som den mest omfattende reguleringen av kunstig intelligens til dags dato. Ved Ä bruke en risikobasert tilnÊrming, pÄlegger loven strenge regler for hÞysensitive kunstig intelligens-systemer, f.eks. de som brukes i helsevesenet og kritisk infrastruktur. Lavrisikoapplikasjoner stÄr overfor minimal tilsyn, mens det i noen applikasjoner, som for eksempel statlige sosiale poengsystemer, er fullstendig forbudt.

I EU er samsvar obligatorisk ikke bare innenfor EUs grenser, men ogsĂ„ fra alle leverandĂžrer, distributĂžrer eller brukere av AI-systemer som opererer i EU, eller tilbyr AI-lĂžsninger til markedet – selv om systemet er utviklet utenfor. Det er sannsynlig at dette vil by pĂ„ utfordringer for amerikanske og andre leverandĂžrer av integrerte produkter utenfor EU i deres arbeid med Ă„ tilpasse seg.

Kritikk av EUs tilnÊrming inkluderer dens pÄstÄtte manglende evne til Ä sette en gullstandard for menneskerettigheter. Overdreven kompleksitet har ogsÄ blitt bemerket sammen med mangel pÄ klarhet. Kritikere er bekymret for EUs svÊrt strenge tekniske krav, fordi de kommer pÄ et tidspunkt hvor EU sÞker Ä styrke sin konkurranseevne.

Å finne den regulatoriske middelveien

I mellomtiden har Storbritannia innfÞrt et «lettvekts» rammeverk som ligger et sted mellom EU og USA, og er basert pÄ kjerneverdier som sikkerhet, rettferdighet og Äpenhet. Eksisterende regulatorer, som Information Commissioner's Office, har myndighet til Ä implementere disse prinsippene innenfor sine respektive domener.

Den britiske regjeringen har publisert en handlingsplan for muligheter for kunstig intelligens, som skisserer tiltak for Ä investere i kunstig intelligens-stiftelser, implementere tverrÞkonomisk adopsjon av kunstig intelligens og fremme «hjemmelagde» kunstig intelligens-systemer. I november 2023 grunnla Storbritannia AI Safety Institute (AISI), utviklet fra Frontier AI Taskforce. AISI ble opprettet for Ä evaluere sikkerheten til avanserte AI-modeller, og samarbeidet med store utviklere for Ä oppnÄ dette gjennom sikkerhetstester.

Kritikk av Storbritannias tilnÊrming til regulering av AI inkluderer imidlertid begrensede hÄndhevingsmuligheter og en manglende koordinering mellom sektorlovgivning. Kritikere har ogsÄ lagt merke til mangelen pÄ en sentral reguleringsmyndighet.

I likhet med Storbritannia har ogsÄ andre store land funnet sin egen plass et sted pÄ USA-EU-spekteret. For eksempel har Canada innfÞrt en risikobasert tilnÊrming med den foreslÄtte AI- og dataloven (AIDA), som er utformet for Ä finne en balanse mellom innovasjon, sikkerhet og etiske hensyn. Japan har tatt i bruk en «menneskesentrisk» tilnÊrming til AI ved Ä publisere retningslinjer som fremmer pÄlitelig utvikling. I Kina er AI-reguleringen strengt kontrollert av staten, med nyere lover som krever at generative AI-modeller gjennomgÄr sikkerhetsvurderinger og er i samsvar med sosialistiske verdier. I likhet med Storbritannia har Australia gitt ut et etisk rammeverk for AI og vurderer Ä oppdatere sine personvernlover for Ä hÄndtere nye utfordringer som AI-innovasjon medfÞrer.

Hvordan etablere internasjonalt samarbeid?

Etter hvert som AI-teknologien fortsetter Ä utvikle seg, blir forskjellene mellom regulatoriske tilnÊrminger stadig tydeligere. Hver enkelt tilnÊrming som tas nÄr det gjelder personvern, opphavsrettsbeskyttelse og andre aspekter, gjÞr det vanskeligere Ä oppnÄ en sammenhengende global enighet om viktige AI-relaterte risikoer. Under disse omstendighetene er internasjonalt samarbeid avgjÞrende for Ä etablere grunnleggende standarder som adresserer viktige risikoer uten Ä begrense innovasjon.

Svaret pÄ internasjonalt samarbeid kan ligge hos globale organisasjoner som Organisasjonen for Þkonomisk samarbeid og utvikling (OECD), FN og flere andre, som for tiden jobber med Ä etablere internasjonale standarder og etiske retningslinjer for AI. Veien videre vil ikke bli enkel, ettersom det krever at alle i bransjen finner en fellesnevner. Hvis vi mener at innovasjon beveger seg i lysets hastighet, er tiden inne for Ä diskutere og bli enige.

Viktorija Lapenyte er leder for produktjuridisk rĂ„dgiver hos oxylabsMed over ti Ă„rs juridisk erfaring i IT-sektoren har Viktorija Lapėnytė utviklet dyp ekspertise i Ă„ navigere komplekse forretnings- og regulatoriske utfordringer som intern juridisk rĂ„dgiver. I dag er Viktorija leder for produktjuridisk rĂ„dgiver hos Oxylabs, en markedsledende plattform for innsamling av nettinformasjon. Viktorijas team spesialiserer seg pĂ„ de juridiske kompleksitetene knyttet til nye datateknologier, fra samsvar og regulatorisk risikostyring til personvern og bransjeomfattende diskusjoner om ansvarlig datainnsamling.