Connect with us

Regulering

Nøkkel punkter i EUs nye AI-akt, den første store AI-reguleringen

mm

Den europeiske unions initiativ til å regulere kunstig intelligens markerer et vendepunkt i den juridiske og etiske styringen av teknologi. Med den nylige AI-akt, går EU frem som en av de første store globale enhetene som tar opp kompleksiteten og utfordringene som kunstig intelligens-systemer stiller. Denne akten er ikke bare en lovgivningsmilepæl. Hvis den er vellykket, kan den fungere som en mal for andre nasjoner som vurdere lignende reguleringer.

Kjernebestemmelser i akten

AI-akten innfører flere nøkkelreguleringsmessige tiltak som er designet for å sikre ansvarlig utvikling og utbredelse av kunstig intelligens-teknologier. Disse bestemmelsene utgjør ryggraden i akten, og omhandler kritiske områder som transparens, risikostyring og etisk bruk.

  1. Kunstig intelligens-system-transparens: En hjørnesten i AI-akten er kravet om transparens i kunstig intelligens-systemer. Denne bestemmelsen pålegger utviklere og operatører av kunstig intelligens å gi klare, forståelige opplysninger om hvordan deres kunstig intelligens-systemer fungerer, logikken bak deres beslutninger og de potensielle virkningene disse systemene kan ha. Dette er rettet mot å avmystifisere kunstig intelligens-operasjoner og sikre ansvar.
  2. Styring av høyrisiko-kunstig intelligens: Akten identifiserer og kategoriserer visse kunstig intelligens-systemer som ‘høyrisiko’, og krever strengere regulativ tilsyn. For disse systemene er grundig vurdering av risiko, robust datastyring og kontinuerlig overvåking obligatorisk. Dette inkluderer kritiske sektorer som helse, transport og rettslige beslutninger, hvor kunstig intelligens-beslutninger kan ha betydelige konsekvenser.
  3. Begrensninger på biometrisk overvåking: I et forsøk på å beskytte individuell personvern og borgerrettigheter, legger akten strenge begrensninger på bruk av sanntids-biometriske overvåkingsteknologier, særlig i offentlig tilgjengelige områder. Dette inkluderer begrensninger på ansiktsgjenkjenningssystemer brukt av politi og andre offentlige myndigheter, og tillater deres bruk bare under strengt kontrollerte forhold.

Begrensninger på kunstig intelligens-anvendelse

EUs AI-akt forbryter også bestemte kunstig intelligens-anvendelser som anses som skadelige eller som utgjør en høy risiko for grunnleggende rettigheter. Disse inkluderer:

  • Kunstig intelligens-systemer designet for sosial scoring av myndigheter, som potensielt kan føre til diskriminering og tap av personvern.
  • Kunstig intelligens som manipulerer menneskelig atferd, som forbryter teknologier som kan utnytte sårbarheter hos en bestemt gruppe personer, og føre til fysisk eller psykisk skade.
  • Sanntids fjern-biometrisk identifikasjonssystemer i offentlig tilgjengelige områder, med unntak for bestemte, betydelige trusler.

Ved å sette disse grensene, søker akten å forhindre misbruk av kunstig intelligens som kan true personlige friheter og demokratiske prinsipper.

Rammeverk for høyrisiko-kunstig intelligens

EUs AI-akt etablerer et spesifikt rammeverk for kunstig intelligens-systemer som anses som ‘høyrisiko’. Disse er systemer hvis feil eller feilaktig drift kan utgjøre betydelige trusler mot sikkerhet, grunnleggende rettigheter eller medføre andre betydelige virkninger.

Kriteriene for denne klassifiseringen inkluderer overveielser som sektor for utbredelse, ment å formål og nivået av interaksjon med mennesker. Høyrisiko-kunstig intelligens-systemer er underlagt strenge krav til overholdelse, inkludert grundig risikovurdering, høy kvalitet på data, transparensforpliktelser og menneskelig tilsynsmekanismer. Akten pålegger utviklere og operatører av høyrisiko-kunstig intelligens-systemer å gjennomføre regelmessige vurderinger og holde seg til strenge standarder, og sikre at disse systemene er trygge, pålitelige og respektfulle overfor EUs verdier og rettigheter.

Generelle kunstig intelligens-systemer og innovasjon

For generelle kunstig intelligens-systemer, gir AI-akten en rekke retningslinjer som søker å fremme innovasjon samtidig som de sikrer ansvarlig utvikling og utbredelse. Akten fremmer en balansert tilnærming som oppmuntrer teknologisk fremgang og støtter små og mellomstore bedrifter i kunstig intelligens-sektoren.

Den inkluderer tiltak som regulative sandkasser, som gir en kontrollert miljø for testing av kunstig intelligens-systemer uten den vanlige fulle spekteret av regulative begrensninger. Denne tilnærmingen tillater praktisk utvikling og forfining av kunstig intelligens-teknologier i en virkelig kontekst, og fremmer innovasjon og vekst i sektoren. For små og mellomstore bedrifter, søker disse bestemmelsene å redusere barrierer for inngang og skape en miljø som er gunstig for innovasjon, og sikre at mindre aktører også kan bidra til og dra nytte av kunstig intelligens-økosystemet.

Enforcement og straffer

Effektiviteten av AI-akten understøttes av dens robuste enforcement- og straffe-mekanismer. Disse er designet for å sikre streng overholdelse av reguleringene og å straffe non-compliance betydelig. Akten skisserer en gradvis straffe-struktur, med bøter som varierer basert på alvorlighetsgraden og naturen til overtredelsen.

For eksempel kan bruk av forbudte kunstig intelligens-anvendelser føre til betydelige bøter, potensielt på millioner av euro eller en betydelig prosent av den overtredende enhets globale årlige omsetning. Denne strukturen speiler tilnærmingen til General Data Protection Regulation (GDPR), og understreker EUs forpliktelse til å opprettholde høye standarder i digital styring.

Enforcement sikres gjennom en koordinert innsats blant EUs medlemsstater, og sikrer at reguleringene har en enhetlig og kraftig effekt over hele det europeiske markedet.

Global innvirkning og betydning

EUs AI-akt er mer enn bare regional lovgivning; den har potensialet til å sette en global presedens for kunstig intelligens-regulering. Den omfattende tilnærmingen, som fokuserer på etisk utbredelse, transparens og respekt for grunnleggende rettigheter, stiller den som en potensiell mal for andre land.

Ved å ta opp både mulighetene og utfordringene som kunstig intelligens stiller, kan akten påvirke hvordan andre nasjoner, og muligens internasjonale organer, nærmer seg kunstig intelligens-styring. Den tjener som et viktig skritt mot å skape en global rammeverk for kunstig intelligens som harmoniserer teknologisk innovasjon med etiske og samfunnsmessige verdier.

Alex McFarland er en AI-journalist og forfatter som utforsker de nyeste utviklingene innen kunstig intelligens. Han har samarbeidet med tallrike AI-startups og publikasjoner verden over.