Inteligență artificială
Nu mai aliniem IA. Aliniem civilizații

De mulți ani, principala întrebare în inteligența artificială (IA) a fost cum să aliniem modelele de IA cu valorile umane. Cercetătorii au încercat să definească reguli de siguranță, principii etice și mecanisme de control care să ghideze deciziile IA. Această muncă a realizat progrese semnificative. Dar acum, pe măsură ce aceste sisteme de IA devin mai capabile și mai răspândite, focalizarea alinierii începe să se schimbe. Ce a început ca o provocare de a alinia un singur model la un singur set de instrucțiuni a devenit o provocare mult mai mare de a alinia întregi civilizații care folosesc aceste sisteme la scară globală. IA nu mai este doar un instrument. Ea evoluează într-un mediu în care societățile lucrează, comunică, negociază și concurează. Ca urmare, alinierea nu mai rămâne o problemă tehnică. Ea a devenit o problemă civilizațională. În acest articol, explic de ce alinierea nu mai este doar despre modele și de ce trebuie să începem să gândim în termeni de civilizații, în loc de mașini. De asemenea, discut cum această schimbare afectează responsabilitățile noastre și ce înseamnă pentru cooperarea globală.
Ale căror valori reprezintă realmente IA?
Dacă întrebi o IA despre un eveniment istoric sensibil, răspunsul său depinde de datele pe care le-a studiat. Dacă aceste date provin în principal de pe internetul occidental, răspunsul va avea o bias occidentală. Va prioritiza individualismul, libertatea de exprimare și idealurile democratice. Acestea sunt valori bune pentru multe persoane. Dar nu sunt singurele valori din lume.
Un utilizator din Singapore, un utilizator din Riyadh și un utilizator din San Francisco au definiții diferite ale a ceea ce este “util” și ale a ceea ce este “dăunător”. În unele culturi, armonia socială este mai importantă decât libertatea absolută de exprimare. În altele, respectul pentru ierarhie este mai important decât perturbarea.
Când o companie din Silicon Valley utilizează “Reinforcement Learning from Human Feedback” (RLHF), angajează oameni pentru a evalua răspunsurile IA. Dar cine sunt acești oameni? Care sunt credințele lor? Dacă aliniază modelul cu standardele americane, construiesc accidental o export cultural american. Construiesc un diplomat digital care impune regulile unei anumite civilizații asupra restului lumii.
Apariția buclelor de feedback
Provocarea nu este doar că IA reflectă credințele unei culturi. Este modul în care aceste credințe pot să ne schimbe. Sistemele de IA moderne au potențialul de a modela comportamentul indivizilor, organizațiilor și chiar națiunilor. Pot influența modul în care gândim, lucrăm, încredem și concurează. Acest lucru creează bucle de feedback între sistemele de IA și societățile umane; le antrenăm pe IA și IA ne modelează gândirea și acțiunile. Aceste bucle devin mai puternice pe măsură ce IA devine mai omniprezentă. Pentru a vedea cum funcționează această buclă de feedback, iată două exemple:
- Implementarea la scară largă a IA schimbă comportamentul social, și comportamentul social schimbă datele care antrenează noi sisteme. De exemplu, un algoritm de recomandare poate modela ce urmăresc oamenii, ce citesc și ce cred. Unelte de productivitate rescriu modul în care echipele colaborează și modul în care studenții învață. Aceste schimbări în comportament schimbă modelele de date sub forma unor obiceiuri de vizualizare diferite, modele de comunicare la locul de muncă sau stiluri de scriere. Când aceste date curg în seturile de date de antrenament viitoare, modelele ajustează ipotezele și ieșirile în consecință. Comportamentul uman modelează modelele, și modelele, la rândul lor, modelează comportamentul uman.
- Uneltele automate de decizie influențează politica publică, și politica publică influențează antrenamentul viitoarelor modele. De exemplu, multe guverne utilizează acum IA pentru a sugera unde să aloce resurse, cum ar fi identificarea cartierelor care au nevoie de mai mult sprijin pentru sănătate sau care zone ar putea prezenta un risc mai mare de criminalitate. Când factorii de decizie acționează pe baza acestor recomandări, rezultatele acestor decizii devin ulterior parte a noilor seturi de date. În timp, deciziile de politică modelate de IA ajung să modeleze generația următoare de modele de IA.
Odată ce recunoașteți această buclă de feedback, devine clar că IA modelează și aliniază gradual civilizații. Ca urmare, națiunile încep să se întrebe: Cum pot să-și protejeze valorile în timp ce integrează IA în societățile și instituțiile lor?
Apariția IA suverană
Această provocare de aliniere a provocat o reacție semnificativă din partea guvernelor din întreaga lume. Națiunile au realizat că să depindă de IA importată este un risc pentru suveranitatea lor. Nu-și pot permite ca cetățenii să fie educați, informați și consiliați de o cutie neagră care gândește ca un străin.
Această realizare a condus la apariția “IA suverană“. Franța investește puternic pentru a construi modele care vorbesc franceza și înțeleg legea și cultura franceză. India construiește modele de IA indigene pentru a-și asigura valorile culturale. Emiratele Arabe Unite și China construiesc modele de IA aliniate cu viziunile lor naționale.
Acesta este noul cursă a înarmării. Este o cursă pentru controlul narativ. O civilizație care nu are propria IA va pierde în cele din urmă propria memorie. Dacă copiii tăi pun o întrebare unei mașini, și mașina răspunde cu logica unei alte culturi, cultura ta începe să se erodeze. Această realizare, cu toate acestea, poate duce la formarea unor blocuri digitale distincte. Ne putem termina cu un IA occidental, un IA chinez, un IA indian și așa mai departe. Aceste sisteme vor funcționa cu fapte diferite și cu busole morale diferite. Aceste evoluții fac clar că, dacă vrem să creăm un model de IA realmente aliniat, trebuie să găsim mai întâi o modalitate de a alinia civilizații.
Nevoia de IA diplomatică
Alinierea tradițională presupune că un model poate fi aliniat prin antrenament atent, promptări și garduri de protecție. Această gândire provine din mentalitatea tehnică a cercetării timpurii a siguranței IA. Dar chiar și alinierea perfectă a modelului nu poate rezolva provocările alinierii civilizațiilor. Alinierea nu poate rămâne stabilă atunci când societățile se împing în direcții opuse. Dacă țările, companiile și comunitățile au obiective conflictuale, vor împinge sistemele de IA să reflecte aceste conflicte. Aceste limite arată că alinierea nu este doar o problemă tehnică. Este o problemă de guvernanță, culturală și de coordonare. Și aceste probleme necesită nu numai experți sau dezvoltatori. Implică întregi civilizații.
Deci, cum procedăm? Dacă acceptăm că alinierea universală este imposibilă, trebuie să schimbăm strategia. Trebuie să încetăm să căutăm o soluție tehnică pentru o problemă filosofică. Trebuie să începem să gândim ca diplomați. Trebuie să construim protocoale pentru “Alinierea Civilizațiilor”. Trebuie să descoperim cum IA poate respecta credințele și valorile unei societăți fără a impune altor culturi credințele sale. Cu alte cuvinte, avem nevoie de o Națiuni Unite digitale pentru algoritmii noștri.
Acest lucru necesită transparență. În prezent, nu știm realmente ce valori sunt ascunse în straturile profunde ale unei rețele neuronale. Vedem doar ieșirea. Pentru a alinia civilizații, trebuie să fim clari cu privire la “Constituția” fiecărui model. Un model ar trebui să poată declara prejudecățile sale. Ar trebui să poată spune: “Sunt antrenat pe aceste date, cu aceste reguli de siguranță, prioritizând aceste valori.” Doar atunci când prejudecățile sunt vizibile putem încredința sistemul. Un utilizator ar trebui să poată comuta între perspective. Ar trebui să poată pune o întrebare și să vadă cum răspunde un model “occidental” versus cum răspunde un model “oriental”. Acest lucru ar transforma IA într-un instrument de înțelegere, în loc de un instrument de indoctrinare.
Rezumat
Am petrecut prea mult timp îngrijorându-ne de Terminator. Riscul real nu este că un robot ne distruge. Riscul real este că un robot ne face să uităm cine suntem. Alinierea nu este un cod pe care îl putem scrie o dată și uita. Este o negociere constantă cu modelele de IA pentru a le ține aliniate cu credințele și valorile noastre. Este un act politic. Pe măsură ce intrăm în această nouă fază a erei inteligenței, trebuie să privim dincolo de ecran. Trebuie să luăm în considerare modul în care IA interpretează istoria noastră, granițele noastre și credințele noastre. Construim mințile care ne vor ajuta să gestionăm lumea. Trebuie să ne asigurăm că aceste minți respectă diferențele dintre civilizații.












