AGI
Jak Trzy Prawa Robotyki Asimova Wpływają na Sztuczną Inteligencję

Trzy Prawa Robotyki są ikoniczne w świecie science fiction i stały się symbolem w społeczności sztucznej inteligencji i robotyki, pokazując, jak trudno jest właściwie zaprojektować system, który jest niezawodny.
Aby w pełni zrozumieć znaczenie tych trzech praw, musimy najpierw dowiedzieć się o wybitnym umyśle, który je wymyślił, zmarłym autorze science fiction Isaacu Asimowie. Następnie musimy zrozumieć, jak dostosować te prawa i jak mogą one ewoluować, aby chronić ludzkość.
Isaac Asimov – Wzrost geniusza
Isaac Asimov urodził się w Rosji 2 stycznia 1920, i wyemigrował do Stanów Zjednoczonych w wieku trzech lat. Dorastał w Brooklyn, w Nowym Jorku, i ukończył Uniwersytet Columbia w 1939. Został uznany za utalentowanego i płodnego pisarza, który koncentrował się na nauce i science fiction. Podczas swojej kariery napisał i/lub wyedytował ponad 500 książek.
Asimov był bardzo zainspirowany przez niektórych z najbardziej ikonicznych pisarzy w świecie science fiction. Zaczął pracę w Stoczni Marynarki Wojennej w Filadelfii, gdzie spotkał dwóch swoich współpracowników, którzy wkrótce staną się dwoma z najbardziej udanych pisarzy science fiction w historii fikcji spekulatywnej: L. Sprague de Camp i Robert A. Heinlein.
L. Sprague de Camp jest laureatem nagród, który napisał ponad 100 książek i był ważną postacią w science fiction w latach 30. i 40. Niektóre z jego najpopularniejszych dzieł to “Darkness Fall” (1939), “The Wheels of If” (1940), “A Gun for Dinosaur” (1956), “Aristotle and the Gun” (1958) i “The Glory That Was” (1960).
Robert A. Heinlein był prawdopodobnie najpopularniejszym pisarzem science fiction na świecie w czasie szczytu swojej kariery. Wraz z Isaacem Asimovem i Arthurem C. Clarke uważany był za “Wielką Trójkę” autorów science fiction. Niektóre z najpopularniejszych dzieł Roberta A. Heinleina to “Farnham’s Freehold” (1964) i “To Sail Beyond the Sunset” (1987). Obecna generacja najprawdopodobniej kojarzy go najlepiej z filmową adaptacją jego powieści “Starship Troopers” (1959).
Bycie otoczonym przez tych gigantów futuryzmu zainspirowało Isaaca Asimova do rozpoczęcia swojej płodnej kariery pisarskiej. Asimov był również bardzo szanowany w społeczności naukowej i często był zapraszany jako prelegent, aby wygłaszać wykłady na temat nauki.
Trzy Prawa Robotyki
Isaac Asimov był pierwszą osobą, która użyła terminu “robotyka” w opowiadaniu “Liar!”, które zostało opublikowane w 1941.
Krótko potem, jego opowiadanie z 1942 “Runaround” przedstawiło światu jego trzy prawa robotyki. Prawa te są:
1. Robot nie może zranić człowieka ani, przez bezczynność, pozwolić człowiekowi na szkodę.
2. Robot musi słuchać poleceń wydawanych przez ludzi, chyba że takie polecenia będą sprzeczne z Pierwszym Prawem.
3. Robot musi chronić swoje własne istnienie, o ile taka ochrona nie będzie sprzeczna z Pierwszym lub Drugim Prawem.
Te prawa zostały zaprojektowane, aby zapewnić interesujące punkty fabularne, a Asimov stworzył serię 37 opowiadań science fiction i sześciu powieści, w których pojawiły się roboty pozytronowe.
Jedna z tych kolekcji opowiadań zatytułowana “Ja, robot” została później zaadaptowana do filmu w 2004. Film “Ja, robot” z Willem Smithem jest osadzony w dystopijnej przyszłości 2035 i przedstawia wysoko inteligentne roboty publiczne, które działają zgodnie z trzema prawami robotyki. Film, podobnie jak opowiadania, szybko stał się przypowieścią o tym, jak programowanie może się nie powieść, i że programowanie jakiegokolwiek zaawansowanego AI wiąże się z wysokim ryzykiem.
Świat dogonił to, co wcześniej było science fiction, teraz projektujemy AI, które w niektórych aspektach są znacznie bardziej zaawansowane niż cokolwiek, co mógłby wymyślić Isaac Asimov, a jednocześnie są znacznie ograniczone.
Trzy prawa robotyki są często cytowane w dyskusjach na temat Sztucznej Inteligencji Ogólnej (AGI). Będziemy szybko eksplorować, co to jest AGI, a także jak trzy prawa robotyki muszą ewoluować, aby uniknąć potencjalnych problemów w przyszłości.
Sztuczna Inteligencja Ogólna (AGI)
Obecnie większość rodzajów AI, z którymi spotykamy się na co dzień, są określane jako “wąska AI”. Jest to rodzaj AI, który jest bardzo specyficzny i wąski w swojej funkcji użyteczności. Na przykład, samochód autonomiczny może nawigować po ulicach, ale ze względu na swoje “wąskie” ograniczenia AI nie może łatwo wykonywać innych zadań. Innym przykładem wąskiej AI jest system rozpoznawania obrazów, który może łatwo identyfikować i oznaczać obrazy w bazie danych, ale nie mógłby łatwo zostać dostosowany do innego zadania.
Sztuczna Inteligencja Ogólna, powszechnie określana jako “AGI”, to AI, która podobnie jak ludzie może szybko uczyć się, adaptować, zmieniać kierunek i funkcjonować w świecie rzeczywistym. Jest to rodzaj inteligencji, który nie jest wąski w swoim zakresie, może adaptować się do każdej sytuacji i uczyć się, jak radzić sobie z problemami świata rzeczywistego.
Należy stwierdzić, że chociaż AI rozwija się w tempie wykładniczym, jeszcze nie osiągnęliśmy AGI. Kiedy osiągniemy AGI, jest przedmiotem debaty, a każdy ma inną odpowiedź na temat terminu. Osobiście zgadzam się z poglądami Raya Kurzweila, wynalazcy, futurologa i autora “The Singularity is Near”, który uważa, że osiągniemy AGI do 2029.
To jest ten termin 2029, który jest tykającą bombą, musimy nauczyć się wprowadzać rodzaj podręcznika do AI, który nie tylko jest podobny do trzech praw, ale który jest bardziej zaawansowany i może naprawdę uniknąć konfliktów między ludźmi a robotami w świecie rzeczywistym.
Współczesne Prawa Robotyki
Chociaż trzy prawa robotyki były fenomenalne dla literatury, są one znacznie niewystarczające pod względem złożoności, aby poważnie zaprogramować je w robota. To było przecież punkt fabularny za opowiadaniem i powieściami. Konflikty między trzema prawami, lub co najmniej interpretacja trzech praw, powodowały, że roboty ulegały awarii, odwzajemniały się przeciwko ludziom lub innych punktów fabularnych.
Głównym problemem z obecnymi prawami jest to, że etyczne programowanie zawsze słuchania poleceń ludzi i zawsze chronienia samego siebie może być sprzeczne. Czy na przykład robot jest upoważniony do obrony siebie przed właścicielem, który go znęca się?
Jaki rodzaj mechanizmu awaryjnego należy zaprogramować? Jak instruujemy robota, aby wyłączył się niezależnie od konsekwencji? Co się dzieje, jeśli robot jest w trakcie ratowania żony przed znęcaniem się, czy robot powinien się wyłączyć, jeśli taki rozkaz wyda mąż, który ją znęca się?
Kto powinien wydawać polecenia robotom? Z uzbrojonymi autonomicznymi broniami, które mogą identyfikować i atakować cele z całego świata, czy robot powinien być w stanie odmówić wykonania polecenia, jeśli zidentyfikuje cel jako dziecko?
Innymi słowy, jeśli robot jest własnością i jest kontrolowany przez psychopatę, czy robot może odmówić wykonania poleceń, które są niemoralne? Pytania są liczne, a odpowiedzi są zbyt trudne dla jednej osoby, aby je udzielić. Dlatego organizacje takie jak The Future of Life Institute są tak ważne, czas, aby debatować nad tymi dylematami moralnymi, jest teraz, zanim pojawi się prawdziwa AGI.








