Connect with us

Tankeledere

Hvor Mye Vil EU Sin AI-Act Faktisk Påvirke Din Forretning?

mm

Da nye bestemmelser trer i kraft, her er hva selskaper virkelig må vite om samsvar

2. februar 2025 markerte den første store milepælen i utrullingen av Den europeiske unions AI-akt, med bestemmelser som forbød forbudte AI-praksiser og krevde at organisasjoner måtte sikre at deres ansatte hadde nok kunnskap, ferdigheter og forståelse om hvordan AI fungerer, risiko og fordeler (AI-litteratur). Nå markerer 2. august 2025 en annen kritisk vending, da forpliktelsene for generell formål AI-modeller har trådt i kraft. 

AI-akten gjelder for de som selger, importerer eller gjør AI-systemer eller generell formål AI-modeller tilgjengelige i EU, enten de er basert i EU eller ikke. Den gjelder også for selskaper basert i EU som bruker AI-systemer eller modeller.

Mens selskaper er genuint bekymret for AI-samsvar forpliktelsene, vil virkeligheten for de fleste bedrifter være mindre dramatisk enn bestemmelsene kan se ut på første blikk.

Som noen som driver et globalt selskap som bruker AI omfattende i vår dokumenthåndteringplattform, har jeg måttet navigere denne reguleringen førstehånd. Sannheten er at for det overveldende flertall av bedrifter, er AI-akten mye mer håndterbar enn den først kan se ut – lik hvordan GDPR syntes overveldende fra et amerikansk perspektiv, men viste seg å være arbeidbar når du forstod prinsippene.

Men til forskjell fra GDPRs enkelt implementeringsdato, ruller AI-akten ut i faser. Med bøter som når opp til 35 millioner euro eller 7% av global omsetning, og en kritisk påtalebølge like bak oss og en annen stor frist foran oss, er det en nødvendighet å få samsvar-strategien rett.

Hvor Vi Er På Tidslinjen

Per august 2025 er forpliktelsene for Generell formål AI (GPAI) modeller nå i kraft – og dette berører langt flere selskaper enn de fleste innser. Hvis du bruker grunnmodeller som GPT-5, Claude eller Llama i dine produkter, kan du arve samsvar-plikter selv om du betrakter deg selv som bare en “bruker” av modellen.

Forpliktelsene inkluderer å demonstrere samsvar med opphavsrettloven i treningdata, å utføre motstandstesting for sikkerhetssårbarheter, å implementere robuste sikkerhetstiltak og å levere detaljert teknisk dokumentasjon om modellens evner og begrensninger.

Mange SaaS-selskaper antar at de er unntatt fordi de ikke utvikler modeller fra scratch. Men hvis du er spesifikt finjustering eller på annen måte modifiserer modeller, kan du finne deg selv underlagt GPAI-forpliktelsene. Linjen mellom “bruke” og “tilby” AI-systemer er bevisst bred i reguleringen.

2. august 2026 er den store milepælen å se etter. Ved denne datoen må AI-systemer klassifisert som “høyrisiko” møte omfattende samsvar-krav. Omfanget er bredere enn mange bedrifter antar, og forpliktelsene er betydelige.

Høyrisiko-klassifiseringer inkluderer systemer brukt til rekruttering og anssettelse, kreditscoring og finansielle beslutninger, utdannelsesevaluering, medisinsk diagnose, sikkerhetskritisk infrastruktur og lovhåndhevelse-applikasjoner. Hvis ditt AI-verktøy hjelper til å bestemme hvem som får ansatt, godkjent for lån, innlemmet i programmer eller diagnostisert med tilstander, er du sannsynligvis i omfanget.

Det er en byrde som følger med dette. Du vil trenge omfattende risikostyringssystemer med kontinuerlig overvåking, teknisk dokumentasjon som beviser systemets sikkerhet og pålitelighet, datakvalitetsstandarder med auditable bevis for treningdata-integritet, automatisk logging av alle systembeslutninger og -operasjoner, meningsfull menneskelig tilsyn med evnen til å gripe inn i sanntid, og CE-merking med tredjeparts konformitetstesting.

Dette handler ikke bare om å legge til en disclaimer på nettstedet ditt. Høyrisiko-systemer krever kvalitetsstyringssystemer som vanligvis ses i medisinsk utstyrproduksjon eller bil-sikkerhetssystemer.

Forstå Risikokategoriene

AI-akten opererer på en fire-trinns, risikobasert tilnærming som er mer nyansert enn mange innser.

  • Uakseptabelt Risiko (Forbudt): Disse AI-applikasjonene er forbudt helt – sosial scoring-systemer, manipulerende AI som retter seg mot sårbare grupper, sanntids biometrisk identifisering i offentlige rom (med begrensede unntak for lovhåndhevelse), og gjenkjenning av følelser på arbeidsplassen eller i skoler.
  • Høy-Risiko (Sterkt Regulert, Men Tillatt): Dette er der mange bedrifter blir tatt på sengen. Som nevnt ovenfor, høyrisiko-applikasjoner inkluderer CV-gjennomgang og anssettelsesverktøy, kreditscoring og lånegodkjenningssystemer, medisinske diagnostiske enheter, sikkerhetssystemer i transport (autonome kjøretøy, trafikkhåndtering), utdannelsesevaluering-verktøy, lovhåndhevelse-applikasjoner og kritisk infrastrukturhåndtering.
  • Begrenset Risiko (Gjennomsiktighet Kreves): disse systemene omfatter primært AI som samhandler direkte med mennesker eller genererer innhold som kan forveksles med menneskeskapt materiale. Dette inkluderer chatboter, virtuelle assistenter og AI-systemer som lager syntetisk media som deepfakes eller manipulerte bilder og videoer. For disse applikasjonene er hovedreguleringskravet gjennomsiktighet – brukerne må være tydelig informert om når de samhandler med et AI-system i stedet for et menneske, eller når innhold er blitt kunstig generert.
  • Minimal Risiko: Det meste av AI-applikasjonene faller inn i denne minimal risikokategorien, som dekker systemer som utgjør liten trussel mot grunnleggende rettigheter eller sikkerhet. Disse inkluderer vanlige bedriftsverktøy som spamfiltre, varehåndteringssystemer, grunnleggende analyseplattformer, anbefalingsmotorer for innhold eller produkter og automatisert kundeservice-ruting. For minimal risiko-systemer er det essensielt ingen spesifikke regulatoriske forpliktelsene under AI-akten utenom generelle krav som AI-litteratur for ansatte.

Hvis du faller inn i “Uakseptabel eller Høy-Risiko”-kategorier, er gjennomsiktighet alene ikke nok. Hvis du faller hvor som helst, er samsvar-kravene håndterbare.

Grunnmodell-Rippleffekten

Den 2. august 2025 GPAI-fristen som nettopp er gått ut, fortjener spesiell oppmerksomhet fordi den skaper en rippleffekt gjennom hele AI-økosystemet. Leverandører av grunnmodeller som OpenAI, Anthropic og Meta har måttet implementere nye samsvarstiltak, og disse kravene flyter nedover til deres bedriftskunder.

Hvis du bygger på toppen av disse modellene, må du forstå leverandørens samsvar-holdning og hvordan den påvirker dine egne forpliktelsene. Noen modell-leverandører kan begrense visse bruksområder, andre kan overføre samsvar-kostnader gjennom høyere priser eller nye tjenestenivåer.

Selskaper bør gjennomføre en revisjon av sin AI-leverandørkjede nå hvis de ikke allerede har gjort det. Dokumenter hvilke modeller du bruker, hvordan du tilpasser dem og hva dataflyt som går gjennom dem. Denne inventaren vil være avgjørende for å forstå dine nåværende GPAI-forpliktelsene og å forberede deg på 2026 høyrisiko-system-kravene.

Få En ForSprang

AI-akten representerer verdens første omfattende AI-regulering, og vi er nå i midten av dens faserte utrulling. Med GPAI-forpliktelsene nå i kraft og den store høyrisiko-system-fristen som nærmer seg i august 2026, er selskaper som så på GDPR som en byrde, mistet muligheten til å gjøre personvern til en differensierer. Ikke gjør samme feil med AI-styring.

Bedriftene som kommer til å streve mest, er de som blir tatt uforberedt når påtale-intensiteten øker. De som bygger ansvarlig i dag, vil finne at samsvar-forbedringene forbedrer snarere enn hindrer deres AI-strategi. Det er fortsatt tid til å få en forsprang – men vinduet lukker raskt.

Stéphan Donzé er grunnlegger og CEO av AODocs, et programvareselskap han etablerte basert på ideen om at bedriftens behov for overholdelse og effektive prosesser ikke er motsatt med en god brukeropplevelse. Før han etablerte AODocs, var han VP of Engineering i Exalead, et ledende selskap for bedriftssøk. Etter at Exalead ble kjøpt av Dassault Systèmes i 2010, flyttet han til California fra Paris som VP of Product Strategy. Stéphane har en mastergrad i programvareutvikling fra Ecole Polytechnique i Frankrike (X96). Med 18 års erfaring innen bedriftsprogramvare, er han lidenskapelig opptatt av brukeropplevelse på tvers av en organisasjon.