Connect with us

Tankeledere

Å strike en balanse: Globale tilnærminger til å mildne AI-relaterte risiko

mm

Det er ingen hemmelighet at moderne teknologier har presset etiske grenser under eksisterende lover og reguleringsrammer som ikke var laget for dem, noe som har resultert i juridiske og reguleringsmessige minerfelt. For å forsøke å bekjempe effektene av dette, velger regulatorer å gå frem på forskjellige måter mellom land og regioner, noe som øker globale spenninger når enighet ikke kan finnes.

Disse reguleringsforskjellene ble belyst i en nylig AI-aksjonssummit i Paris. Den endelige uttalelsen fra arrangementet fokuserte på spørsmål om inklusivitet og åpenhet i AI-utvikling. Interessant nok ble det bare bredt nevnt sikkerhet og tillit, uten å betone spesifikke AI-relaterte risiko, som sikkerhetstrusler. Utkastet ble utarbeidet av 60 nasjoner, Storbritannia og USA var merkbart fraværende fra uttalelsens signaturer, noe som viser hvor lite konsensus det er rett nå over nøkkel land.

Å takle AI-risiko globalt

AI-utvikling og -utbredelse er regulert forskjellig innen hvert land. Likevel passer de fleste inn et eller annet sted mellom de to ytterpunktene – USAs og Den europeiske unions (EU) holdninger.

Den amerikanske måten: først innovere, deretter regulere

I USA finnes det ingen føderale lover som regulerer AI spesifikt, i stedet baserer det seg på markedsløsninger og frivillige retningslinjer. Det finnes likevel noen nøkkelstykker av lovgivning for AI, inkludert National AI Initiative Act, som har til hensikt å koordinere føderal AI-forskning, Federal Aviation Administration Reauthorisation Act og National Institute of Standards and Technologys (NIST) frivillige risikostyringsramme.

Den amerikanske reguleringslandskapet forblir flytende og underlagt store politiske skift. For eksempel, i oktober 2023, utstedte president Biden en executive order om trygg, sikker og tillitvekkende utvikling og bruk av kunstig intelligens, som fastsatte standarder for kritisk infrastruktur, forbedret AI-drevet sikkerhet og regulerte føderalt finansierte AI-prosjekter. Likevel, i januar 2025, trakk president Trump tilbake denne executive ordren, i en vending bort fra regulering og mot å prioritere innovasjon.

Den amerikanske tilnærmingen har sine kritikere. De påpeker at dens “fragmenterte natur” fører til et komplekst nettverk av regler som “mangler gjennomførbare standarder“, og har “gaps i personvernbeskyttelse“. Likevel er holdningen som helhet i flux – i 2024, introduserte delstatslovgivere nærmere 700 nye AI-lovgivninger og det har vært flere høringer om AI i styring samt AI og immaterielle rettigheter. Selv om det er åpenbart at den amerikanske regjeringen ikke skyer bort fra regulering, er det tydelig at den søker måter å implementere det på uten å måtte kompromittere innovasjon.

Den europeiske måten: prioritere forebygging

EU har valgt en annen tilnærming. I august 2024, introduserte Den europeiske parlament og råd Artificial Intelligence Act (AI Act), som har blitt bredt ansett som den mest omfattende lovgivningen om AI-regulering hittil. Ved å bruke en risikobasert tilnærming, pålegger loven strenge regler for høysensitiv AI-systemer, f.eks. de som brukes i helsevesen og kritisk infrastruktur. Lavrisikoapplikasjoner møter bare minimalt tilsyn, mens i noen applikasjoner, som regjeringens sosiale scoringsystemer, er helt forbudt.

I EU er overholdelse obligatorisk, ikke bare innenfor dens grenser, men også for alle leverandører, distributører eller brukere av AI-systemer som opererer i EU, eller tilbyr AI-løsninger til markedet – selv om systemet er utviklet utenfor. Det er sannsynlig at dette vil være utfordringer for amerikanske og andre ikke-EU-leverandører av integrerte produkter mens de arbeider for å tilpasse seg.

Kritikken av EUs tilnærming inkluderer påståtte svikt i å sette en gullstandard for menneskerettigheter. Uoverkommelig kompleksitet er også blitt notert sammen med mangel på klarhet. Kritikere er bekymret over EUs svært eksakte tekniske krav, fordi de kommer på et tidspunkt når EU søker å styrke sin konkurranseevne.

Å finne den reguleringsmessige midten

I mellomtiden har Storbritannia adoptert en “lettvekt” ramme som sitter et eller annet sted mellom EU og USA, og er basert på kjernverdier som sikkerhet, rettferdighet og åpenhet. Eksisterende regulatorer, som Informasjonskommisjonen, har myndighet til å implementere disse prinsippene innen sine respektive domener.

Den britiske regjeringen har publisert en AI-mulighets-handlingsplan, som omfatter tiltak for å investere i AI-grunnlag, implementere tverrøkonomisk AI-tilpasning og fremme “hjemmedrettete” AI-systemer. I november 2023, etablerte Storbritannia AI-sikkerhetsinstituttet (AISI), som utviklet seg fra Frontier AI-oppdraget. AISI ble skapt for å evaluere sikkerheten til avanserte AI-modeller, i samarbeid med store utviklere for å oppnå dette gjennom sikkerhetstester.

Likevel, kritikken av Storbritannias tilnærming til AI-regulering inkluderer begrensede gjennomføringsmuligheter og en mangel på koordinering mellom sektorale lovgivninger. Kritikere har også notert en mangel på en sentral reguleringsmyndighet.

Som Storbritannia, har andre større land også funnet sin egen plass et eller annet sted på USA-EU-spekteret. For eksempel, har Canada introdusert en risikobasert tilnærming med den foreslåtte AI- og dataloven (AIDA), som er designet for å strike en balanse mellom innovasjon, sikkerhet og etiske overveielser. Japan har adoptert en “menneskesentrert” tilnærming til AI ved å publisere retningslinjer som fremmer tillitvekkende utvikling. I mellomtiden, i Kina, er AI-regulering tett kontrollert av staten, med nylige lover som krever at generative AI-modeller gjennomgår sikkerhetstester og sammenfaller med sosialistiske verdier. Liksom Storbritannia, har Australia utgitt en AI-etisk ramme og ser på å oppdatere sine personvernlover for å møte fremvoksende utfordringer som AI-innovasjon stiller.

Hvordan etablere internasjonalt samarbeid?

Ettersom AI-teknologien fortsetter å utvikle seg, blir forskjellene mellom regulerings tilnærminger mer og mer åpenbare. Hver enkelt tilnærming som tas i forhold til personvern, opphavsrett og andre aspekter, gjør det vanskeligere å nå en samstemt global konsensus om nøkkel AI-relaterte risiko. Under disse omstendighetene er internasjonalt samarbeid avgjørende for å etablere basisstandarder som håndterer nøkkelrisiko uten å begrense innovasjon.

Svaret på internasjonalt samarbeid kan ligge hos globale organisasjoner som Organisationen for økonomisk samarbeid og utvikling (OECD), De forente nasjoner og flere andre, som for tiden arbeider med å etablere internasjonale standarder og etiske retningslinjer for AI. Veien fremover vil ikke være enkel, da det krever at alle i industrien finner felles grunn. Hvis vi betrakter at innovasjon beveger seg i lysskyndighet – tiden til å diskutere og enes er nå.

Viktorija Lapenyte er sjef for produktets juridiske rådgivning i Oxylabs. Med over ett tiår med juridisk erfaring i IT-sektoren, har Viktorija Lapėnytė utviklet dyptgående ekspertise i å navigere komplekse forretnings- og regulatoriske utfordringer som en intern juridisk rådgiver. I dag er Viktorija sjef for produktets juridiske rådgivning i Oxylabs, en markedsvedende plattform for webintelligenssamling. Viktorijas team spesialiserer seg på de juridiske kompleksitetene ved fremvoksende data-teknologier, fra samsvar og regulatorisk risikostyring til datapersonvern og bransjeomfattende diskusjoner om ansvarlig datainnsamling.