Kontakt z nami

Liderzy myśli

Jak trzy prawa robotyki Asimova wpływają na sztuczną inteligencję

mm

Trzy prawa robotyki są ikoną w świecie science fiction i stały się w społeczności zajmującej się sztuczną inteligencją i robotyką symbolem tego, jak trudno jest właściwie zaprojektować niezawodny system.

Aby w pełni zrozumieć znaczenie tych trzech praw, musimy najpierw poznać genialnego umysłu, który stworzył te prawa, nieżyjącego już autora science fiction Isaaca Asimova. Musimy zatem zrozumieć, jak dostosować te prawa i sprawić, by ewoluowały, aby chronić ludzkość.

Izaak Asimov – Narodziny geniuszu

Izaak Asimov urodził się w Rosji dnia 2 stycznia 1920 r. i w wieku trzech lat wyemigrował do Stanów Zjednoczonych. Dorastał w Brooklynie w Nowym Jorku i ukończył Uniwersytet Columbia w 1939 roku.  Uznano go za utalentowanego i płodnego pisarza zajmującego się nauką i science fiction. W swojej karierze napisał i/lub zredagował ponad 500 książek.

Asimov był w dużym stopniu zainspirowany niektórymi z najbardziej znanych pisarzy świata science fiction. Rozpoczął pracę w Philadelphia Navy Yard, gdzie poznał dwóch swoich współpracowników, z których wkrótce wyłoniło się dwóch pisarzy science fiction odnoszących największe sukcesy w historii fikcji spekulatywnej: L. Sprague de Camp oraz Robert A. Heinlein.

L. Sprague de Camp to wielokrotnie nagradzany autor, który napisał ponad 100 książek i był główną postacią science fiction lat trzydziestych i czterdziestych XX wieku. Do jego najpopularniejszych dzieł należą „Upadek ciemności” (1930), „Koła if” (1940), „Pistolet dla dinozaura” (1939), „Arystoteles i pistolet” (1940) oraz „Chwała, która Był” (1956).

Robert A. Heinlein był prawdopodobnie najpopularniejszym pisarzem science fiction na świecie u szczytu swojej kariery. Wraz z Izaakiem Asimowem i Arthur C. Clarke Uważany był za „Wielką Trójkę” autorów science fiction. Do najpopularniejszych dzieł Roberta A. Heinleina należały „Farnham's Freehold” (1964) i „Do Żegluj za zachodem słońca” (1987). Obecne pokolenie zna go chyba najlepiej z filmowej adaptacji powieści „Żołnierze statku kosmicznego” (1959).

Otoczenie tych gigantów futuryzmu zainspirowało Issaca Asimova do rozpoczęcia swojej płodnej kariery pisarskiej. Asimov cieszył się także dużym szacunkiem w środowisku naukowym i często był zamawiany jako mówca publiczny, który wygłaszał wykłady o nauce.

Trzy prawa robotyki

Isaac Asimov był pierwszą osobą, która użyła terminu „robotyka” w opowiadaniu zatytułowanym „Kłamca!”, opublikowanym w 1941 r.

Niedługo potem w swoim opowiadaniu „Runaround” z 1942 roku przedstawił światu trzy prawa robotyki. Prawa są następujące:

1. Robot nie może wyrządzić człowiekowi krzywdy ani poprzez zaniechanie działania dopuścić, aby człowiekowi stała się krzywda.

2. Robot musi słuchać poleceń wydawanych mu przez ludzi, z wyjątkiem sytuacji, gdy takie rozkazy są sprzeczne z Pierwszym Prawem.

3. Robot musi chronić swoje własne istnienie, o ile taka ochrona nie jest sprzeczna z Pierwszym lub Drugim Prawem.

Prawa te miały oferować ciekawe wątki fabularne, a Asimov stworzył serię 37 opowiadań science fiction i sześciu powieści o robotach pozytronowych.

Jeden z tych zbiorów opowiadań zatytułowany „Ja, Robot” został później zaadaptowany do filmu w 2004 roku. Akcja filmu „Ja, Robot” z Willem Smithem w roli głównej rozgrywa się w dystopijnym roku 2035 i przedstawia wysoce inteligentne roboty będące urzędnikami państwowymi, które działają zgodnie z trzema prawami robotyki. Film, podobnie jak poprzednie historie, szybko stał się przypowieścią o tym, jak programowanie może pójść źle i że programowanie dowolnego rodzaju zaawansowanej sztucznej inteligencji wiąże się z wysokim poziomem ryzyka.

Świat dogonił to, co wcześniej było science fiction. Obecnie projektujemy sztuczną inteligencję, która jest pod pewnymi względami znacznie bardziej zaawansowana, niż wszystko, co mógł sobie wyobrazić Issac Asimov, a jednocześnie jest znacznie bardziej ograniczona.

W dyskusjach na temat sztucznej inteligencji ogólnej (AGI) dość często odwołuje się do trzech praw robotyki. Szybko zbadamy, czym jest AGI i jak muszą ewoluować trzy prawa robotyki, aby uniknąć potencjalnych problemów w przyszłości.

Sztuczna ogólna inteligencja (AGI)

Obecnie większość typów sztucznej inteligencji, z którymi spotykamy się na co dzień, określa się ilościowo jako „wąską sztuczną inteligencję”. Jest to rodzaj sztucznej inteligencji, który jest bardzo specyficzny i wąski pod względem funkcji użytkowej. Na przykład pojazd autonomiczny może poruszać się po ulicach, ale ze względu na „wąskie” ograniczenia AI nie może łatwo wykonać innych zadań. Innym przykładem wąskiej sztucznej inteligencji byłby system rozpoznawania obrazów, który może z łatwością identyfikować i oznaczać obrazy w bazie danych, ale nie można go łatwo dostosować do innego zadania.

Sztuczna inteligencja ogólna, powszechnie określana jako „AGI”, to sztuczna inteligencja, która podobnie jak ludzie może szybko się uczyć, dostosowywać, obracać i funkcjonować w świecie rzeczywistym. Jest to rodzaj inteligencji, która nie ma wąskiego zakresu, potrafi dostosować się do każdej sytuacji i nauczyć się radzić sobie z problemami świata rzeczywistego.

Należy stwierdzić, że chociaż sztuczna inteligencja rozwija się w wykładniczym tempie, nadal nie osiągnęliśmy AGI. To, kiedy osiągniemy AGI, jest kwestią dyskusyjną i każdy ma inną odpowiedź co do harmonogramu. Osobiście podzielam poglądy Raya Kurzweila, wynalazcy, futurysty i autora książki „The Singularity is Near”, który uważa, że ​​będziemy mieli osiągnąć AGI do 2029 r.

To właśnie ta oś czasu 2029 to tykający zegar. Musimy nauczyć się wpisywać na stałe do sztucznej inteligencji pewien rodzaj zbioru przepisów, który będzie nie tylko podobny do trzech praw, ale także będzie bardziej zaawansowany i będzie w stanie faktycznie uniknąć sytuacji w świecie rzeczywistym konflikt ludzi i robotów.

Współczesne prawa robotyki

Chociaż trzy prawa robotyki były fenomenalne w literaturze, zdecydowanie brakuje im wyrafinowania, aby poważnie zaprogramować robota. W końcu taki był wątek fabularny opowiadań i powieści. Konflikty między trzema prawami lub przynajmniej interpretacja trzech praw spowodowały stopienie robotów, zemstę na ludziach lub inne kluczowe punkty fabuły.

Głównym problemem obecnych przepisów jest etyczne zaprogramowanie, aby zawsze przestrzegać ludzkich instrukcji i zawsze się chronić, co może być sprzeczne. W końcu, czy robot może bronić się przed właścicielem, który go wykorzystuje?

W jaki typ mechanizmu zabezpieczającego należy zaprogramować? Jak poinstruować robota, że ​​musi się wyłączyć bez względu na konsekwencje? Co się stanie, jeśli robot będzie w trakcie ratowania gospodyni domowej przed molestowaniem? Czy robot powinien automatycznie się wyłączyć, jeśli otrzyma takie polecenie od agresywnego męża?

Kto powinien wydawać polecenia robotom? Czy robot, dysponujący autonomiczną bronią zdolną do identyfikowania i namierzania wrogów z całego świata, powinien być w stanie odmówić wydania polecenia wyeliminowania celu, jeśli zidentyfikuje go jako dziecko?

Innymi słowy, jeśli robot jest własnością psychopaty i jest przez niego kontrolowany, czy może on odmawiać niemoralnych poleceń? Pytań jest wiele, a odpowiedzi są zbyt trudne, aby ktokolwiek mógł na nie odpowiedzieć. Dlatego organizacje takie jak Przyszłość życia Instytutu są tak ważne, że czas na debatę nad tymi dylematami moralnymi nadszedł teraz, zanim pojawi się prawdziwy AGI.

Antoine jest wizjonerskim liderem i partnerem założycielskim Unite.AI, napędzanym niezachwianą pasją do kształtowania i promowania przyszłości AI i robotyki. Jako seryjny przedsiębiorca wierzy, że AI będzie tak samo przełomowa dla społeczeństwa jak elektryczność i często zachwyca się potencjałem przełomowych technologii i AGI.

Jako futurysta, poświęca się badaniu, w jaki sposób te innowacje ukształtują nasz świat. Ponadto jest założycielem Securities.io, platforma skupiająca się na inwestowaniu w najnowocześniejsze technologie, które zmieniają przyszłość i przekształcają całe sektory.