Kunstmatige intelligentie
We zijn AI’s niet langer aan het uitlijnen. We zijn beschavingen aan het uitlijnen

Voor veel jaar was de belangrijkste vraag in kunstmatige intelligentie (AI) hoe AI-modellen met menselijke waarden konden worden uitgelijnd. Onderzoekers probeerden veiligheidsregels, ethische principes en controlemechanismen te definiëren die AI-beslissingen zouden leiden. Dit werk heeft significante vooruitgang geboekt. Maar nu, terwijl deze AI-systemen krachtiger en wijdverspreider worden, begint de focus van uitlijning te verschuiven. Wat begon als de uitdaging om één model aan één set instructies uit te lijnen, is nu de veel grotere uitdaging om hele beschavingen die deze systemen op mondiaal niveau gebruiken, uit te lijnen. AI is niet langer alleen een instrument. Het evolueert naar een omgeving waarin samenlevingen werken, communiceren, onderhandelen en concurreren. Als gevolg hiervan blijft uitlijning niet langer een technisch probleem. Het is een civilisatorisch probleem. In dit artikel leg ik uit waarom uitlijning niet langer alleen over modellen gaat en waarom we moeten beginnen met denken in termen van beschavingen in plaats van machines. Ik bespreek ook hoe deze verschuiving onze verantwoordelijkheden beïnvloedt en wat het betekent voor mondiale samenwerking.
Wie zijn waarden worden door AI echt vertegenwoordigd?
Als je een AI vraagt over een gevoelige historische gebeurtenis, hangt het antwoord af van de data die het heeft bestudeerd. Als die data voornamelijk van het westerse internet komt, zal het antwoord een westerse bias hebben. Het zal individualisme, vrije meningsuiting en democratische idealen prioriteren. Deze zijn goede waarden voor veel mensen. Maar ze zijn niet de enige waarden in de wereld.
Een gebruiker in Singapore, een gebruiker in Riyad en een gebruiker in San Francisco hebben verschillende definities van wat “helpful” en wat “harmful” is. In sommige culturen is sociale harmonie belangrijker dan absolute vrijheid van meningsuiting. In andere is respect voor hiërarchie belangrijker dan disruptie.
Wanneer een bedrijf in Silicon Valley “Reinforcement Learning from Human Feedback” (RLHF) gebruikt, huren ze mensen in om de antwoorden van de AI te beoordelen. Maar wie zijn deze mensen? Wat zijn hun overtuigingen? Als ze het model uitlijnen met Amerikaanse normen, bouwen ze per ongeluk een Amerikaanse culturele export. Ze bouwen een digitale diplomaat die de regels van één specifieke beschaving oplegt aan de rest van de wereld.
De opkomst van feedbackloops
De uitdaging is niet alleen dat AI de overtuigingen van één cultuur weerspiegelt. Het is hoe die overtuigingen ons kunnen veranderen. Moderne AI-systemen hebben het potentieel om het gedrag van individuen, organisaties en zelfs naties te vormen. Ze kunnen beïnvloeden hoe we denken, werken, vertrouwen en concurreren. Dit creëert feedbackloops tussen AI-systemen en menselijke samenlevingen; we trainen AI en AI vormt hoe we denken en handelen. Deze loops worden sterker naarmate AI meer alomtegenwoordig wordt. Om te zien hoe deze feedbackloop werkt, zijn hier twee voorbeelden:
- Grote-schaal AI-implementatie verandert sociaal gedrag, en sociaal gedrag verandert de data die nieuwe systemen traint. Bijvoorbeeld, een aanbevelingsalgoritme kan bepalen wat mensen kijken, lezen en geloven. Productiviteitstools veranderen hoe teams samenwerken en hoe studenten leren. Deze verschuivingen in gedrag veranderen datapatronen in de vorm van verschillende kijkgedrag, communicatiepatronen op de werkplek of schrijfstijlen. Wanneer deze data in toekomstige trainingsdatasets stroomt, passen de modellen hun aannamen en uitvoer dienovereenkomstig aan. Menselijk gedrag vormt de modellen, en de modellen, op hun beurt, vormen menselijk gedrag.
- Geautomatiseerde beslissingshulpmiddelen beïnvloeden openbaar beleid, en openbaar beleid beïnvloedt toekomstige modeltraining. Bijvoorbeeld, veel overheden gebruiken nu AI om te suggereren waar ze middelen moeten toewijzen, zoals het identificeren van welke buurten meer gezondheidssteun nodig hebben of welke gebieden mogelijk een hoger misdaadriscio lopen. Wanneer beleidsmakers handelen op basis van deze aanbevelingen, worden de resultaten van die beslissingen later onderdeel van nieuwe datasets. Na verloop van tijd worden beleidsbeslissingen die door AI zijn gevormd, de volgende generatie AI-modellen.
Zodra je deze feedbackloop herkent, wordt het duidelijk dat AI langzaam beschavingen aan het uitlijnen is. Als gevolg daarvan beginnen naties te vragen: Hoe kunnen ze hun waarden beschermen terwijl ze AI integreren in hun samenlevingen en instellingen?
De opkomst van soevereine AI
Deze uitdaging van uitlijning heeft een significante reactie van overheden over de hele wereld teweeggebracht. Naties hebben gerealiseerd dat het afhankelijk zijn van geïmporteerde AI een risico voor hun soevereiniteit vormt. Ze kunnen het zich niet veroorloven dat hun burgers worden opgeleid, geïnformeerd en geadviseerd door een black box die als een vreemdeling denkt.
Deze realisatie heeft geleid tot de opkomst van “soevereine AI.” Frankrijk investeert zwaar in het bouwen van modellen die Frans spreken en Franse wet- en cultuur begrijpen. India bouwt inheemse AI-modellen om ervoor te zorgen dat hun culturele waarden worden behouden. De Verenigde Arabische Emiraten en China bouwen AI-modellen die zijn uitgelijnd met hun eigen nationale visies.
Dit is de nieuwe wapenwedloop. Het is een wedloop om narratieve controle. Een beschaving die geen eigen AI heeft, zal uiteindelijk haar eigen geheugen verliezen. Als je kinderen een machine een vraag stellen en de machine antwoordt met de logica van een andere cultuur, begint je cultuur af te brokkelen. Deze realisatie kan echter leiden tot de vorming van distincte digitale blokken. We kunnen eindigen met een westerse AI, een Chinese AI, een Indiase AI, enz. Deze systemen zullen opereren met verschillende feiten en morele kompassen. Deze ontwikkelingen maken het duidelijk dat als we een enkel, echt uitgelijnd AI-model willen creëren, we eerst een manier moeten vinden om beschavingen uit te lijnen.
Behoefte aan een diplomatieke AI
Traditionele uitlijning gaat ervan uit dat een model kan worden uitgelijnd door zorgvuldige training, prompting en beveiligingsmaatregelen. Dit denken komt uit de technische mindset van vroeg AI-veiligheidsonderzoek. Maar zelfs perfecte modeluitlijning kan de uitdagingen van het uitlijnen van beschavingen niet oplossen. De uitlijning kan niet stabiel blijven wanneer samenlevingen in tegenovergestelde richtingen trekken. Als landen, bedrijven en gemeenschappen conflicterende doelen hebben, zullen ze AI-systemen aanzetten om die conflicten te weerspiegelen. Deze beperkingen laten zien dat uitlijning niet alleen een technisch probleem is. Het is een bestuurs-, cultureel en coördinatieprobleem. En deze problemen vereisen niet alleen experts of ontwikkelaars. Ze betrekken hele beschavingen.
Dus, hoe gaan we verder? Als we accepteren dat universele uitlijning onmogelijk is, moeten we onze strategie veranderen. We moeten stoppen met zoeken naar een technische oplossing voor een filosofisch probleem. We moeten beginnen met denken als diplomaten. We zullen protocollen voor “Civilisatorische Uitlijning” moeten opstellen. We moeten uitzoeken hoe AI de overtuigingen en waarden van een samenleving kan respecteren zonder de overtuigingen van andere culturen op te dringen. Met andere woorden, we hebben een digitale Verenigde Naties voor onze algoritmes nodig.
Dit vereist transparantie. Momenteel weten we niet echt welke waarden verborgen liggen in de diepe lagen van een neurale netwerk. We zien alleen de uitvoer. Om beschavingen uit te lijnen, moeten we duidelijk zijn over de “Grondwet” van elk model. Een model moet in staat zijn om zijn vooroordeel te verklaren. Het moet in staat zijn om te zeggen: “Ik ben getraind op deze data, met deze veiligheidsregels, prioriterend deze waarden.” Alleen wanneer het vooroordeel zichtbaar is, kunnen we het systeem vertrouwen. Een gebruiker moet in staat zijn om tussen perspectieven te schakelen. Je moet in staat zijn om een vraag te stellen en te zien hoe een “westerse” model antwoordt versus hoe een “oosters” model antwoordt. Dit zou AI omvormen tot een instrument voor begrip, in plaats van een instrument voor indoctrinatie.
De bodemlijn
We hebben te veel tijd besteed aan het担心 maken over de Terminator. Het echte risico is niet dat een robot ons vernietigt. Het echte risico is dat een robot ons doet vergeten wie we zijn. Uitlijning is niet een code die we een keer kunnen schrijven en vergeten. Het is een constante onderhandeling met AI-modellen om ervoor te zorgen dat ze zijn uitgelijnd met onze overtuigingen en waarden. Het is een politieke daad. Terwijl we deze volgende fase van de intelligentie-era ingaan, moeten we voorbij het scherm kijken. We moeten overwegen hoe AI onze geschiedenis, onze grenzen en onze overtuigingen interpreteert. We zijn de geesten aan het bouwen die ons zullen helpen de wereld te besturen. We moeten ervoor zorgen dat die geesten het verschil tussen beschavingen respecteren.












