Connect with us

Nie Wyrównujemy Already AI. Wyrównujemy Cywilizacje

Sztuczna inteligencja

Nie Wyrównujemy Already AI. Wyrównujemy Cywilizacje

mm

Przez wiele lat głównym pytaniem w sztucznej inteligencji (AI) było, jak wyrównać modele AI z ludzkimi wartościami. Naukowcy próbowali zdefiniować zasady bezpieczeństwa, zasady etyczne i mechanizmy kontroli, które kierują decyzjami AI. Praca ta osiągnęła znaczny postęp. Ale teraz, gdy te systemy AI stają się coraz bardziej zaawansowane i powszechne, punkt ciężkości wyrównania zaczyna się przesuwać. To, co rozpoczęło się jako wyzwanie wyrównania jednego modelu do jednego zestawu instrukcji, stało się o wiele większym wyzwaniem wyrównania całych cywilizacji, które używają tych systemów na skalę globalną. AI nie jest już tylko narzędziem. Ewoluuje w środowisko, w którym społeczeństwa pracują, komunikują się, negocjują i konkurują. W związku z tym wyrównanie nie pozostaje już problemem technicznym. Stało się problemem cywilizacyjnym. W tym artykule wyjaśniam, dlaczego wyrównanie nie jest już tylko kwestią modeli i dlaczego musimy zacząć myśleć w kategoriach cywilizacji zamiast maszyn. Omawiam również, jak ten przełom wpływa na nasze odpowiedzialności i co oznacza to dla globalnej współpracy.

Czyje Wartości Rzeczywiście Reprezentuje AI?

Jeśli zadasz AI pytanie o wrażliwe wydarzenie historyczne, jego odpowiedź zależy od danych, które studiował. Jeśli te dane pochodzą głównie z internetu zachodniego, odpowiedź będzie miała zachodnią tendencję. Będzie priorytetem indywidualizm, wolność słowa i ideały demokratyczne. Są to dobre wartości dla wielu ludzi. Ale nie są one jedynymi wartościami na świecie.

Użytkownik w Singapurze, użytkownik w Rijadzie i użytkownik w San Francisco mają różne definicje tego, co jest “użyteczne” i co jest “szkodliwe”. W niektórych kulturach harmonia społeczna jest ważniejsza niż absolutna wolność słowa. W innych szacunek dla hierarchii jest ważniejszy niż zakłócenie.

Gdy firma z Doliny Krzemowej używa “Reinforcement Learning from Human Feedback” (RLHF), zatrudnia ludzi do oceny odpowiedzi AI. Ale kim są ci ludzie? Jakie są ich przekonania? Jeśli wyrównują model z amerykańskimi standardami, nieświadomie budują amerykański eksport kulturowy. Budują cyfrowego dyplomatę, który egzekwuje reguły jednej określonej cywilizacji wobec reszty świata.

Wzrost Pętli Sprzężenia

Wyzwanie nie polega tylko na tym, że AI odzwierciedla przekonania jednej kultury. Jest to sposób, w jaki te przekonania mogą nas zmienić. Nowoczesne systemy AI mają potencjał kształtować zachowanie jednostek, organizacji i nawet narodów. Mogą wpływać na to, jak myślimy, pracujemy, ufamy i konkurujemy. Tworzy to pętle sprzężenia między systemami AI a społeczeństwami ludzkimi; szkolimy AI, a AI kształtuje, jak myślimy i działamy. Te pętle stają się silniejsze, gdy AI staje się bardziej wszechobecne. Aby zobaczyć, jak działa ta pętla sprzężenia, oto dwa przykłady:

  • Wdrożenie AI w dużym stopniu zmienia zachowanie społeczne, a zachowanie społeczne zmienia dane, które szkolą nowe systemy. Na przykład algorytm rekomendacji może kształtować to, co ludzie oglądają, czytają i w co wierzą. Narzędzia produktywności zmieniają sposób, w jaki zespoły współpracują i jak studenci uczą się. Te zmiany w zachowaniu zmieniają wzorce danych w postaci różnych nawyków oglądania, wzorców komunikacji w miejscu pracy lub stylów pisarskich. Gdy te dane wpływają do przyszłych zbiorów danych szkoleniowych, modele dostosowują swoje założenia i dane wyjściowe odpowiednio. Zachowanie ludzkie kształtuje modele, a modele z kolei kształtują zachowanie ludzkie.
  • Narzędzia decyzyjne automatyczne wpływają na politykę publiczną, a polityka publiczna wpływa na szkolenie przyszłych modeli. Na przykład wiele rządów używa obecnie AI do sugerowania, gdzie alokować zasoby, takie jak identyfikowanie, które dzielnice potrzebują większego wsparcia zdrowotnego lub które obszary mogą mieć wyższe ryzyko przestępczości. Gdy decydenci działają na podstawie tych rekomendacji, wyniki tych decyzji później stają się częścią nowych zbiorów danych. Z czasem decyzje polityczne ukształtowane przez AI kończą się kształtowaniem następnej generacji modeli AI.

Gdy tylko rozpoznasz tę pętlę sprzężenia, staje się jasne, że AI stopniowo kształtuje i wyrównuje cywilizacje. W związku z tym narody zaczynają pytać: Jak mogą zabezpieczyć swoje wartości, integrując AI ze swoimi społeczeństwami i instytucjami?

Wzrost Suwerennego AI

To wyzwanie wyrównania spowodowało znaczącą reakcję ze strony rządów na całym świecie. Narody zrozumiały, że poleganie na importowanym AI jest ryzykiem dla ich suwerenności. Nie mogą pozwolić, aby ich obywatele byli edukowani, informowani i doradzani przez czarną skrzynkę, która myśli jak obcy.

To zrozumienie doprowadziło do powstania “Suwerennego AI“. Francja inwestuje dużo, aby zbudować modele, które mówią po francusku i rozumieją francuskie prawo i kulturę. Indie budują rodzime modele AI, aby zapewnić swoje wartości kulturowe. Zjednoczone Emiraty Arabskie i Chiny budują modele AI zgodne z ich własną wizją narodową.

To jest nowy wyścig zbrojeń. Jest to wyścig o kontrolę narracji. Cywilizacja, która nie ma własnego AI, w końcu straci swoją własną pamięć. Jeśli twoje dzieci zadają maszynie pytanie, a maszyna odpowie logiką innej kultury, twoja kultura zaczyna się erozyjnie zmieniać. To zrozumienie może jednak doprowadzić do powstania odrębnych bloków cyfrowych. Możemy skończyć z Western AI, chińskim AI, indyjskim AI itd. Te systemy będą działać z różnymi faktami i różnymi kompasami moralnymi. Te rozwój pokazuje, że jeśli chcemy stworzyć jeden, prawdziwie wyrównany model AI, musimy najpierw znaleźć sposób, aby wyrównać cywilizacje.

Potrzeba Dyplomatycznego AI

Tradycyjne wyrównanie zakłada, że model może być wyrównany przez staranne szkolenie, podpowiedzi i barierki. Ten sposób myślenia pochodzi z technicznego nastawienia wczesnych badań nad bezpieczeństwem AI. Ale nawet idealne wyrównanie modelu nie może rozwiązać wyzwań wyrównania cywilizacji. Wyrównanie nie może pozostać stabilne, gdy społeczeństwa ciągną w przeciwnych kierunkach. Jeśli kraje, firmy i społeczności mają sprzeczne cele, będą popychać systemy AI do odzwierciedlenia tych konfliktów. Te ograniczenia pokazują, że wyrównanie nie jest tylko problemem technicznym. Jest to problem zarządzania, kultury i koordynacji. I te problemy wymagają nie tylko ekspertów lub deweloperów. Wymagają one całych cywilizacji.

Więc, jak możemy iść dalej? Jeśli przyjmujemy, że powszechne wyrównanie jest niemożliwe, musimy zmienić naszą strategię. Musimy przestać szukać technicznego rozwiązania problemu filozoficznego. Musimy zacząć myśleć jak dyplomaci. Będziemy musieli zbudować protokoły “Wyrównania Cywilizacyjnego”. Musimy się dowiedzieć, jak AI może szanować przekonania i wartości społeczeństwa bez narzucania mu przekonań innych kultur. Innymi słowy, potrzebujemy cyfrowych Narodów Zjednoczonych dla naszych algorytmów.

To wymaga przejrzystości. Obecnie nie wiemy naprawdę, jakie wartości są ukryte w głębokich warstwach sieci neuronowej. Widzimy tylko dane wyjściowe. Aby wyrównać cywilizacje, musimy być jasni co do “Konstytucji” każdego modelu. Model powinien być w stanie zadeklarować swoją tendencję. Powinien być w stanie powiedzieć: “Jestem szkolony na tych danych, z tymi zasadami bezpieczeństwa, priorytetem tych wartości”. Dopiero gdy tendencja jest widoczna, możemy ufać systemowi. Użytkownik powinien być w stanie przełączać się między perspektywami. Powinieneś być w stanie zadać pytanie i zobaczyć, jak “zachodni” model odpowiada w porównaniu z “wschodnim” modelem. To zamieni AI w narzędzie do zrozumienia, a nie w narzędzie do indoktrynacji.

Podsumowanie

Zbyt długo martwiliśmy się o Terminатора. Prawdziwe ryzyko nie polega na tym, że robot nas zniszczy. Prawdziwe ryzyko polega na tym, że robot sprawi, iż zapomnimy, kim jesteśmy. Wyrównanie nie jest kodem, który możemy napisać raz i zapomnieć. Jest to ciągłe negocjowanie z modelami AI, aby utrzymać je wyrównane z naszymi przekonaniami i wartościami. Jest to akt polityczny. Gdy wkraczamy w tę następną fazę ery inteligencji, musimy patrzeć poza ekran. Musimy rozważyć, jak AI interpretuje naszą historię, nasze granice i nasze przekonania. Budujemy umysły, które pomogą nam zarządzać światem. Musimy upewnić się, że te umysły szanują różnice między cywilizacjami.

Dr. Tehseen Zia jest profesorem nadzwyczajnym w COMSATS University Islamabad, posiada tytuł doktora w dziedzinie sztucznej inteligencji na Vienna University of Technology, Austria. Specjalizując się w sztucznej inteligencji, uczeniu maszynowym, nauce o danych i widzeniu komputerowym, wniósł znaczący wkład poprzez publikacje w renomowanych czasopismach naukowych. Dr. Tehseen Zia również kierował różnymi projektami przemysłowymi jako główny badacz i pełnił funkcję konsultanta ds. sztucznej inteligencji.