Connect with us

Vi Àr inte lÀngre i fÀrd med att anpassa AI. Vi anpassar civilisationer

Artificiell intelligens

Vi Àr inte lÀngre i fÀrd med att anpassa AI. Vi anpassar civilisationer

mm

Under många år har den viktigaste frågan inom artificiell intelligens (AI) varit hur man anpassar AI-modeller till mänskliga värderingar. Forskare har försökt definiera säkerhetsregler, etiska principer och kontrollmekanismer som vägleder AI-beslut. Detta arbete har uppnått betydande framsteg. Men nu, när dessa AI-system blir mer kapabla och utbredda, börjar fokuset på anpassning att förändras. Det som började som en utmaning att anpassa en enskild modell till en enskild uppsättning instruktioner har nu blivit den mycket större utmaningen att anpassa hela civilisationer som använder dessa system på en global skala. AI är inte längre bara ett verktyg. Det utvecklas till en miljö där samhällen arbetar, kommunicerar, förhandlar och konkurrerar. Som ett resultat är anpassning inte längre bara ett tekniskt problem. Det har blivit ett civilisationsproblem. I den här artikeln förklarar jag varför anpassning inte längre bara handlar om modeller och varför vi måste börja tänka i termer av civilisationer istället för maskiner. Jag diskuterar också hur denna förändring påverkar våra ansvar och vad det innebär för globalt samarbete.

Vems värderingar representerar AI egentligen?

Om du frågar en AI om en känslig historisk händelse, beror svaret på de data den har studerat. Om dessa data till största delen kommer från den västerländska internet, kommer svaret att ha en västerländsk bias. Det kommer att prioritera individualism, öppen tal och demokratiska ideal. Dessa är bra värderingar för många människor. Men de är inte de enda värderingarna i världen.

En användare i Singapore, en användare i Riyadh och en användare i San Francisco har olika definitioner av vad som är “hjälpsamt” och vad som är “skadligt”. I vissa kulturer är social harmoni viktigare än absolut yttrandefrihet. I andra är respekt för hierarki viktigare än förändring.

När ett företag i Silicon Valley använder “Reinforcement Learning from Human Feedback” (RLHF), anställer de människor för att betygsätta AI:s svar. Men vem är dessa människor? Vilka är deras övertygelser? Om de anpassar modellen till amerikanska standarder, bygger de oavsiktligt en amerikansk kulturell export. De bygger en digital diplomat som tvingar en specifik civilisations regler på resten av världen.

Uppkomsten av återkopplingsloopar

Utmaningen är inte bara att AI återspeglar övertygelser från en kultur. Det är hur dessa övertygelser kan förändra oss. Moderna AI-system har potentialen att forma beteendet hos individer, organisationer och till och med nationer. De kan påverka hur vi tänker, arbetar, litar och konkurrerar. Detta skapar återkopplingsloopar mellan AI-system och mänskliga samhällen; vi tränar AI och AI formar hur vi tänker och agerar. Dessa loopar blir starkare allteftersom AI blir mer utbrett. För att se hur denna återkopplingsloop fungerar, här är två exempel:

  • Storskalig AI-distribution förändrar socialt beteende, och socialt beteende förändrar de data som tränar nya system. Till exempel kan en rekommendationsalgoritm forma vad människor tittar på, läser och tror. Produktivitetsverktyg omformar hur team samarbetar och hur studenter lär. Dessa förändringar i beteende förändrar datamönster i form av olika tittvanor, kommunikationsmönster på arbetsplatsen eller skrivstilar. När dessa data flödar in i framtida träningsdataset, justerar modellerna sina antaganden och utdata enligt. Mänskligt beteende formar modellerna, och modellerna, i sin tur, formar mänskligt beteende.
  • Automatiserade beslutsverktyg påverkar offentlig politik, och offentlig politik påverkar framtida modellträning. Till exempel använder många regeringar nu AI för att föreslå var de ska allokerar resurser, som att identifiera vilka områden som behöver mer hälsovård eller vilka områden som kan se en högre brottsrisk. När beslutsfattare agerar på dessa rekommendationer, blir resultaten av dessa beslut senare en del av nya dataset. Över tiden blir policybeslut som formas av AI till beslut som formar nästa generation av AI-modeller.

När du känner till denna återkopplingsloop, blir det tydligt att AI gradvis formar och anpassar civilisationer. Som ett resultat börjar nationer att fråga: Hur kan de skydda sina värderingar medan de integrerar AI i sina samhällen och institutioner?

Uppkomsten av suverän AI

Denna anpassningsutmaning har utlöst en betydande reaktion från regeringar över hela världen. Nationer har insett att att förlita sig på importerad AI är en risk för deras suveränitet. De kan inte ha sina medborgare utbildade, informerade och rådgivna av en svart låda som tänker som en utlänning.

Denna insikt har lett till uppkomsten av “Sovereign AI“. Frankrike investera kraftigt för att bygga modeller som talar franska och förstår fransk lag och kultur. Indien bygger inhemska AI-modeller för att säkerställa deras kulturella värderingar. Förenade Arabemiraten och Kina bygger AI-modeller som är anpassade till deras egna nationella visioner.

Detta är den nya kapprustningen. Det är en kapprustning för narrativ kontroll. En civilisation som inte har sin egen AI kommer så småningom att förlora sin egen minnesbild. Om dina barn ställer en maskin en fråga, och maskinen svarar med logiken från en annan kultur, börjar din kultur att erodera. Denna insikt kan dock leda till bildandet av distinkta digitala block. Vi kan hamna med en västerländsk AI, en kinesisk AI, en indisk AI och så vidare. Dessa system kommer att fungera med olika fakta och olika moraliska kompasser. Dessa utvecklingar gör det tydligt att om vi vill skapa en enda, riktigt anpassad AI-modell, måste vi först hitta ett sätt att anpassa civilisationer.

Behov av en diplomatisk AI

Traditionell anpassning antar att en modell kan anpassas genom noggrann träning, promptning och skydd. Detta tänkande kommer från den tekniska mentaliteten i tidig AI-säkerhetsforskning. Men även perfekt modellanpassning kan inte lösa utmaningarna med att anpassa civilisationer. Anpassningen kan inte förbli stabil när samhällen drar i motsatta riktningar. Om länder, företag och samhällen har motsatta mål, kommer de att trycka AI-systemen att återspegla dessa konflikter. Dessa begränsningar visar att anpassning inte bara är ett tekniskt problem. Det är ett styrnings-, kulturellt och samordningsproblem. Och dessa problem kräver inte bara experter eller utvecklare. De involverar hela civilisationer.

Så, hur går vi vidare? Om vi accepterar att universell anpassning är omöjlig, måste vi ändra vår strategi. Vi måste sluta leta efter en teknisk lösning på ett filosofiskt problem. Vi måste börja tänka som diplomater. Vi behöver bygga protokoll för “Civilisationsanpassning”. Vi behöver ta reda på hur AI kan respektera en samhälles övertygelser och värderingar utan att påtvinga dem övertygelser från andra kulturer. Med andra ord, vi behöver en digital FN för våra algoritmer.

Detta kräver transparens. För närvarande vet vi inte riktigt vilka värderingar som är dolda i de djupa lagren av ett neuronnät. Vi ser bara utdata. För att anpassa civilisationer, måste vi vara tydliga med “konstitutionen” för varje modell. En modell bör kunna deklarera sin bias. Den bör kunna säga: “Jag är tränad på dessa data, med dessa säkerhetsregler, prioriterande dessa värderingar.” Först när biasen är synlig kan vi lita på systemet. En användare bör kunna växla mellan perspektiv. Du bör kunna ställa en fråga och se hur en “västerländsk” modell svarar jämfört med hur en “österländsk” modell svarar. Detta skulle förvandla AI till ett verktyg för förståelse, snarare än ett verktyg för indoktrinering.

Slutsatsen

Vi har lagt för mycket tid på att oroa oss för Terminator. Den verkliga risken är inte att en robot förstör oss. Den verkliga risken är att en robot gör oss glömma vem vi är. Anpassning är inte en kod vi kan skriva en gång och glömma. Det är en konstant förhandling med AI-modeller för att hålla dem anpassade till våra övertygelser och värderingar. Det är en politisk handling. När vi går in i denna nästa fas av intelligensåldern, måste vi titta bortom skärmen. Vi måste överväga hur AI tolkar vår historia, våra gränser och våra övertygelser. Vi bygger de sinnen som kommer att hjälpa oss att styra världen. Vi måste se till att dessa sinnen respekterar skillnaderna mellan civilisationer.

Dr. Tehseen Zia Ă€r en fast anstĂ€lld bitrĂ€dande professor vid COMSATS University Islamabad, med en doktorsexamen i AI frĂ„n Vienna University of Technology, Österrike. Specialiserad pĂ„ artificiell intelligens, maskinlĂ€rning, datavetenskap och datorseende, har han gjort betydande bidrag med publikationer i ansedda vetenskapliga tidskrifter. Dr. Tehseen har ocksĂ„ lett olika industriprojekt som huvudutredare och tjĂ€nstgjort som AI-konsult.