Connect with us

De fleste tekniske chefer i USA ønsker AI-regulering, men hvem skal lede det?

Regulering

De fleste tekniske chefer i USA ønsker AI-regulering, men hvem skal lede det?

mm

Lige som 1990’erne havde commercialiseringen af Internettet, 2000’erne smartphone’en og 2010’erne opblomstringen af sociale medier, tilhører 2020’erne AI. Ligesom disse tidligere teknologiske gennembrud, udvider AI sig også åbenbart hurtigere, end regulatore og lovgivere kan følge med. 

Dotcom-boblen eksploderede i 1993 med lanceringen af den inklusive Mosaic-browser, og det var ikke før 1996, at den amerikanske kongres vedtog Telecommunications Act, den første til at udtrykkeligt omhandle Internettet. Ligesom Apple fremviste iPhone’en i 2007, selv om lovgivere vedtog 21st Century Communications and Video Accessibility Act i 2010, som krævede, at alle smartphones skulle inkludere tilgængelighedsfunktioner. 

Og selv om “det sociale mediedecennium” i 2010’erne så etableringen og udvidelsen af platforme som Facebook, WhatsApp, YouTube og Instagram, var det ikke før den sidste halvdel af årtiet, at FOSTA-SESTA-loven blev godkendt, som gjorde platforme ansvarlige for at vide, at de faciliterede seksuel menneskehandel. Vil historien gentage sig med AI? 

Mens AI blev mainstream efter den industrierende udgivelse af OpenAI’s ChatGPT i 2022, har værktøjets hjemland endnu ikke vedtaget føderal lovgivning til at regulere det. USA har i stedet skiftet holdning – fra restriktiv til deregulerende – efterhånden som administrationer er skiftet. 

AI i USA: En bipartisk sag

Tidligere præsident Joe Bidens Sikker, sikker og troværdig-lov krævede i 2023, at føderale myndigheder skulle tage skridt mod AI-sikkerhed, civile rettigheder, lighed og gennemsigtighed. “At udnytte AI til godt og realisere dets mange fordele kræver, at man afværger dets betydelige risici,” lød loven

I januar 2025 underskrev den nuværende præsident Donald Trump Fjernelse af barrierer for amerikansk lederskab i kunstig intelligens-loven, ophævede eksisterende AI-politikker og direktiver “som fungerer som barrierer for amerikansk AI-innovation, og baner vejen for, at USA kan handle beslutsomt for at fastholde det globale lederskab i kunstig intelligens.” 

Den nuværende administration søger således at accelerere AI-innovation i USA via dereguleringsbestræbelser, og modsætter sig potentielle risici gennem investering i forskning og udvikling. Spørgsmålet er dog, om det er regeringen, der skal håndtere disse bekymringer. 

I dag er der næsten universelle bekymringer om AI-risici, herunder etik, forstyrrelse og tillid. En studie fra 2024 om multistakeholder-bekymringer, der opstår fra AI, fandt ud, at de mest presserende bekymringer inkluderer bias, misbrug, uventet maskinadfærd, ulighed, social angst og ændringer i forsyningskæder, for at nævne nogle. 

De fleste tekniske chefer i USA er enige, men fremhæver paradokset. En rapport fra september 2025 fra Solvd, en AI-rådgivnings- og digital ingeniørfirma, konkluderede, at selv om 97% af de svarende Chief Information Officers (CIO’er) og Chief Technology Officers (CTO’er) er nogenlunde bekymrede over det uegnede brug af AI, mener 87%, at for meget AI-regulering kan begrænse innovation og blive en konkurrencemæssig ulempe. 

Disse ledere’s top-bekymringer genspejler dem, der er identificeret af studiet: AI-modeller, der bliver så kraftfulde, at de ikke kan kontrolleres, ondsindede aktører, der potentielt kan udnytte AI-sårbarheder, AI-modeller, der får for meget adgang til virksomhedsdata, og den desinformation eller bias, teknologien kunne medføre. 

Blandt de 500 amerikanske CIO’er og CTO’er i virksomheder, der laver over 500 millioner dollars i årlig omsætning, som Solvd undersøgte, foretrak 61% offentlig regulering, mens 36% foretrak brancheledet regulering. 

Brancheledet regulering kunne betyde en blandet model, der afviger fra den offentlige-private dikotomi. Biden-administrationen forhandlede en aftale med top-tekniske chefer i 2023, som detaljerede frivillige forpligtelser vedrørende AI-sikkerhedsforanstaltninger. Sådanne løfter inkluderede, at produkter var sikre, før de blev lanceret offentligt, opbygning af systemer, der satte sikkerheden i første række, og at vinde offentlighedens tillid gennem gennemsigtighed og afsløre AI-systemers evner, begrænsninger og områder for egnet og uegnet brug. 

En global samtale

På trods af afvigeren i virksomhedslederes præference for offentlig eller brancheledet regulering, er det en kendsgerning, at 82% af dem er primært ansvarlige for at lede interne AI-styring, ifølge Solvd. Kun 8% af respondenterna pegede på senior ledelse for intern AI-regulering, og 5% sagde, at deres virksomheder havde en dedikeret AI-etisk komité eller compliance-udvalg. 

Virksomheder – og deres medarbejdere – er således fanget mellem at vente på en offentlig politik, der måske eller måske ikke kommer, og handle næsten uafhængigt af senior ledelse og hold, der er trænet i AI-etik. 

Forskellige sammenhænge har fundet forskellige løsninger på denne komplicering. Den Europæiske Union (EU) kontrasterer for eksempel skarpt Trump-administrationens deregulerende tilgang via EU’s AI-akt, verdens første omfattende AI-lov. Vedtaget i marts 2024, forbød loven visse AI-anvendelser, etablerede en risikobaseret vurderingsramme og krævede lovmæssigt gennemsigtighed og kommunikation med brugere. 

Andre følger EU’s eksempel. Chile, Sydamerikas AI-leader, har nyligt forslagt en lovbud, der skal regulere AI, inspireret af den europæiske AI-akt. Kina, på den anden side, undgår i stor udstrækning disse hindringer, da landets politiske system favoriserer statsgodkendt regulering, subsidier og partnerskaber med private AI-virksomheder. Landets udfordringer stammer mindre fra en regulatorisk dikotomi og mere fra risikoen for censur og statsindblanding i innovation.  

Men USA, som den globale AI-leader, er bundet til at sætte tonen for fremtidens regulatoriske rammer. 

Endelige tanker

AI-implementering og innovation er blevet en konkurrencemæssig fordel i næsten alle brancher på verdensplan. Men uden reguleringens klarehed og skiftende politik, må tekniske chefer selv sætte deres egne sikkerhedsforanstaltninger, og være ansvarlige for at beskytte forbrugere, vinde deres tillid midt i udbredt frygt for AI, og innovere – samtidigt. 

På trods af tværsæktorielle bekymringer om, at strenge reguleringer kan hæmme innovation, kan det modsatte være tilfældet. Ifølge RegulatingAI, en USA-baseret non-profit-organisation, der er dedikeret til at udforske intersectionen mellem AI og regulering, holder usikkerhed om AI-politik tilbage for teknologiens adoption, hvilket forsinker realiseringen af økonomiske fordele, manglende investering og hæmmer virksomheders vækst. 

“At klargøre, hvordan AI-systemer defineres inden for regulatoriske sammenhænge, er afgørende, da usikkerhed i definitioner tilføjer overholdelsesudfordringer,” bemærkede non-profit-organisationen.  

Ligesom Solvd understregede vigtigheden af, at virksomheder griber den nuværende regulatoriske forvirring an. “Nu er det det perfekte øjeblik for virksomheder at etablere effektiv intern styring, før eksterne regulatore træder ind og potentielt påfører mindre fleksible løsninger,” konkluderede virksomhedens rapport.  

I denne sammenhæng står AI-innovatorer i USA over for uhørte udfordringer: reputationsrisici for ikke at antage overvågningspolitikker og muligheden for overholdelseslacuner, når regulering kommer på plads. 

Men muligheden lyser også igennem. Med bagklogskabets fordel fra Internettet, smartphone’en og sociale medier, er det nu præcis tid at se fremad og bygge et økosystem, der balancerer innovation med ansvarlighed, fremmer tillid og forbereder sig på, at regulering er uundgåelig.

Salomé er en i Medellín født journalist og senior reporter ved Espacio Media Incubator. Med en baggrund i historie og politik, lægger Salomés arbejde vægt på den sociale relevans af nye teknologier. Hun er blevet fremhævet i Al Jazeera, Latin America Reports og The Sociable, blandt andre.