Kunstig intelligens
Vi er ikke længere i gang med at justere AI. Vi er i gang med at justere civilisationer

I mange år har den vigtigste spørgsmål i kunstig intelligens (AI) været, hvordan man kan justere AI-modeller med menneskelige værdier. Forskere har forsøgt at definere sikkerhedsregler, etiske principper og kontrolmekanismer, der vejleder AI-beslutninger. Dette arbejde har opnået betydelig fremgang. Men nu, da disse AI-systemer bliver mere kapable og udbredte, begynder fokus på justering at skifte. Det, der startede som udfordringen med at justere en enkelt model til en enkelt sæt instruktioner, er nu blevet den langt større udfordring med at justere hele civilisationer, der bruger disse systemer på global skala. AI er ikke længere bare et værktøj. Det udvikler sig til en omgang, hvor samfund arbejder, kommunikerer, forhandler og konkurrerer. Som følge heraf forbliver justering ikke længere et teknisk problem. Det er blevet et civilisationsproblem. I denne artikel forklarer jeg, hvorfor justering ikke længere kun handler om modeller, og hvorfor vi må begynde at tænke i termer af civilisationer i stedet for maskiner. Jeg diskuterer også, hvordan denne skift påvirker vores ansvar og hvad det betyder for globalt samarbejde.
Hvis værdier repræsenterer AI virkelig?
Hvis du spørger en AI om et følsomt historisk begivenhed, afhænger svaret af de data, det har studeret. Hvis disse data kommer mest fra det vestlige internet, vil svaret have en vestlig bias. Det vil prioritere individualisme, åben tale og demokratiske idealer. Disse er gode værdier for mange mennesker. Men de er ikke de eneste værdier i verden.
En bruger i Singapore, en bruger i Riyadh og en bruger i San Francisco har forskellige definitioner af, hvad der er “nyttigt” og hvad der er “skadeligt.” I nogle kulturer er social harmoni vigtigere end absolut ytringsfrihed. I andre er respekt for hierarki vigtigere end disruption.
Når et Silicon Valley-selskab bruger “Reinforcement Learning from Human Feedback” (RLHF), hyrer de mennesker til at bedømme AI’s svar. Men hvem er disse mennesker? Hvad er deres overbevisninger? Hvis de justerer modellen med amerikanske standarder, bygger de ufrivilligt en amerikansk kultureksport. De bygger en digital diplomat, der gennemtvinger en bestemt civilisations regler på resten af verden.
Opkomsten af feedback-løkker
Udfordringen er ikke kun, at AI reflekterer overbevisninger fra en kultur. Det er, hvordan disse overbevisninger kan ændre os. Moderne AI-systemer har potentialet til at forme adfærd hos individer, organisationer og endda nationer. De kan påvirke, hvordan vi tænker, arbejder, stoler og konkurrerer. Dette skaber feedback-løkker mellem AI-systemer og menneskelige samfund; vi træner AI, og AI former, hvordan vi tænker og handler. Disse løkker bliver stærkere, da AI bliver mere udbredt. For at se, hvordan denne feedback-løkke fungerer, er her to eksempler:
- Stort set AI-udvikling ændrer social adfærd, og social adfærd ændrer de data, der træner nye systemer. For eksempel kan en anbefalingsalgoritme forme, hvad folk ser, læser og tror. Produktivitetsværktøjer omformer, hvordan hold samarbejder og hvordan studerende lærer. Disse skift i adfærd ændrer datapatterns i form af forskellige sevaner, arbejdspladskommunikationsmønstre eller skrivestile. Når disse data flyder ind i fremtidige træningsdatasets, justerer modellerne deres antagelser og output entsprechende. Menneskelig adfærd former modellerne, og modellerne former igen menneskelig adfærd.
- Automatiserede beslutningsværktøjer påvirker offentlig politik, og offentlig politik påvirker fremtidig modeltræning. For eksempel bruger mange regeringer nu AI til at foreslå, hvor de skal allokerer ressourcer som fx identificere, hvilke kvarterer har brug for mere sundhedsstøtte eller hvilke områder, der måske ser højere kriminelt risiko. Når politikere handler på disse anbefalinger, bliver resultaterne af disse beslutninger senere en del af nye datasets. Over tid bliver politiske beslutninger, der er formet af AI, til at forme den næste generation af AI-modeller.
Når du erkender denne feedback-løkke, bliver det klart, at AI langsomt former og justerer civilisationer. Som følge heraf begynder nationer at spørge: Hvordan kan de beskytte deres værdier, mens de integrerer AI i deres samfund og institutioner?
Opkomsten af suveræn AI
Denne justeringsudfordring har udløst en betydelig reaktion fra regeringer verden over. Nationer har indset, at afhængighed af importeret AI er en risiko for deres suverænitet. De kan ikke tillade, at deres borgere bliver uddannet, informeret og rådgivet af en sort kasse, der tænker som en fremmed.
Dette indsigt har ført til opkomsten af “Sovereign AI.” Frankrig investere kraftigt i at bygge modeller, der taler fransk og forstår fransk lovgivning og kultur. Indien bygger indfødt AI-modeller for at sikre deres kulturelle værdier. De Forenede Arabiske Emirater og Kina bygger AI-modeller, der er justeret med deres egne nationale visioner.
Dette er den nye våbenkapløb. Det er et kapløb om narrativ kontrol. En civilisation, der ikke har sin egen AI, vil til sidst miste sin egen hukommelse. Hvis dine børn stiller en maskin et spørgsmål, og maskinen svarer med logikken fra en anden kultur, begynder din kultur at erodere. Denne indsigt kan dog føre til dannelsen af distinkte digitale blokke. Vi kan ende med en vestlig AI, en kinesisk AI, en indisk AI og så videre. Disse systemer vil fungere med forskellige fakta og forskellige moralcompass. Disse udviklinger gør det klart, at hvis vi vil skabe en enkelt, rigtig justeret AI-model, må vi først finde en måde at justere civilisationer på.
Behov for en diplomatisk AI
Traditionel justering antager, at en model kan justeres ved omhyggelig træning, promptning og sikkerhedsforanstaltninger. Denne tænkning kommer fra den tekniske mindset i tidlig AI-sikkerhedsforskning. Men selv perfekt modelniveaujustering kan ikke løse udfordringerne med at justere civilisationer. Justeringen kan ikke forblive stabil, når samfund trækker i modsat retning. Hvis lande, selskaber og samfund har modsatrettede mål, vil de presse AI-systemer til at reflektere disse konflikter. Disse begrænsninger viser, at justering ikke kun er et teknisk problem. Det er et styre-, kulturelt og koordinationsproblem. Og disse problemer kræver ikke kun eksperter eller udviklere. De involverer hele civilisationer.
Så, hvordan går vi videre? Hvis vi accepterer, at universel justering er umulig, må vi ændre vores strategi. Vi må stoppe med at lede efter en teknisk løsning på et filosofisk problem. Vi må begynde at tænke som diplomater. Vi må bygge protokoller for “Civilisationsjustering.” Vi må finde ud af, hvordan AI kan respektere en samfunds overbevisninger og værdier uden at påtvinge det overbevisninger fra andre kulturer. Med andre ord, vi må have en digital FN for vores algoritmer.
Dette kræver gennemsigtighed. I øjeblikket ved vi ikke rigtig, hvilke værdier, der er gemt i de dybe lag af et neuralt netværk. Vi ser kun outputtet. For at justere civilisationer må vi være klare om “forfatningen” af hver model. En model skal kunne erklære sin bias. Den skal kunne sige: “Jeg er trænet på denne data, med disse sikkerhedsregler, prioriterende disse værdier.” Først når bias er synlig, kan vi stole på systemet. En bruger skal kunne skifte mellem perspektiver. Du skal kunne stille et spørgsmål og se, hvordan en “vestlig” model svarer i forhold til, hvordan en “østlig” model svarer. Dette ville gøre AI til et værktøj for forståelse i stedet for et værktøj for indoktrinering.
Bottom Line
Vi har brugt for meget tid på at bekymre os om Terminator. Den virkelige risiko er ikke, at en robot ødelægger os. Den virkelige risiko er, at en robot får os til at glemme, hvem vi er. Justering er ikke en kode, vi kan skrive en gang og glemme. Det er en konstant forhandling med AI-modeller for at holde dem justeret med vores overbevisninger og værdier. Det er en politisk handling. Mens vi går ind i denne næste fase af intelligensalderen, må vi se ud over skærmen. Vi må overveje, hvordan AI fortolker vores historie, vores grænser og vores overbevisninger. Vi bygger de tanker, der vil hjælpe os med at styre verden. Vi må sikre, at disse tanker respekterer forskellene mellem civilisationer.












