Connect with us

Hur Asimovs tre robotlagar pÄverkar AI

AGI

Hur Asimovs tre robotlagar pÄverkar AI

mm

De tre robotlagarna är ikoniska i science fiction-världen och har blivit en symbol inom AI- och robotiksamhället för hur svårt det är att rätt utforma ett system som är felfritt.

För att fullständigt förstå vikten av dessa tre lagar måste vi först lära oss om den begåvade hjärnan som konceptualiserade dessa lagar, den avlidne science fiction-författaren Isaac Asimov. Vi måste sedan förstå hur vi kan anpassa dessa lagar och låta dem utvecklas för att skydda mänskligheten.

Isaac Asimov – Upptåget av ett geni

Isaac Asimov föddes i Ryssland den 2 januari 1920, och invandrade till USA vid tre års ålder. Han växte upp i Brooklyn, New York, och tog examen från Columbia University 1939. Han erkändes som en begåvad och produktiv författare som fokuserade på vetenskap och science fiction. Under sin karriär skrev och/eller redigerade han över 500 böcker.

Asimov inspirerades starkt av några av de mest ikoniska författarna i science fiction-världen. Han började sin anställning på Philadelphia Navy Yard, där han mötte två av sina medarbetare, som snart skulle bli två av de mest framgångsrika science fiction-författarna i spekulativ fiktions historia: L. Sprague de Camp och Robert A. Heinlein.

L. Sprague de Camp är en prisbelönt författare som skrev över 100 böcker och var en stor figur i science fiction under 1930- och 1940-talen. Några av hans mest kända verk inkluderade “Darkness Fall” (1939), “The Wheels of If” (1940), “A Gun for Dinosaur” (1956), “Aristotle and the Gun” (1958) och “The Glory That Was” (1960).

Robert A. Heinlein var möjligtvis den mest populära science fiction-författaren i världen under höjden av sin karriär. Tillsammans med Isaac Asimov och Arthur C. Clarke ansågs han vara “De stora tre” av science fiction-författare. Några av Robert A. Heinleins mest kända verk inkluderade “Farnham’s Freehold” (1964) och “To Sail Beyond the Sunset” (1987). Den nuvarande generationen känner honom förmodligen bäst för filmatiseringen av hans roman “Starship Troopers” (1959).

Att vara omgiven av dessa jättar inom futurism inspirerade Isaac Asimov att lansera sin produktiva författarkarriär. Asimov var också högt respekterad inom vetenskapsamhället och var ofta bokad som offentlig talare för att ge föreläsningar om vetenskap.

De tre robotlagarna

Isaac Asimov var den första personen som använde termen ‘Robotik’ i en novell som hette ‘Liar!’ som publicerades 1941.

Strax efter introducerade hans novell “Runaround” från 1942 världen för hans tre robotlagar. Lagarna är:

1. En robot får inte skada en människa eller, genom passivitet, tillåta en människa att komma till skada.

2. En robot måste lyda order som ges av människor, utom där sådana order skulle strida mot den första lagen.

3. En robot måste skydda sin egen existens så länge som sådan skydd inte strider mot den första eller andra lagen.

Dessa lagar var utformade för att erbjuda intressanta plotpunkter, och Asimov gick vidare för att skapa en serie om 37 science fiction-noveller och sex romaner som innehöll positroniska robotar.

En av dessa novellsamlingar, med titeln “I, Robot”, filmatiserades senare 2004. Filmen “I, Robot” med Will Smith utspelar sig i en dystopisk framtid 2035 och innehåller högt intelligenta offentliga tjänsterobotar som fungerar enligt de tre robotlagarna. Filmen, liksom berättelserna, blev snabbt en liknelse för hur programmering kan gå fel, och att programmering av någon typ av avancerad AI innebär en hög risk.

Världen har nu kommit ikapp det som tidigare var science fiction, vi designar nu AI som på något sätt är mer avancerad än något som Isaac Asimov kunde ha föreställt sig, samtidigt som den är mer begränsad.

De tre robotlagarna hänvisas till ganska ofta i diskussioner om Artificiell Allmän Intelligens (AGI). Vi kommer snabbt att utforska vad AGI är, samt hur de tre robotlagarna måste utvecklas för att undvika potentiella problem i framtiden.

Artificiell Allmän Intelligens (AGI)

För närvarande är de flesta typer av AI som vi möter i vår vardag “smal AI”. Detta är en typ av AI som är mycket specifik och smal i sin nyttofunktion. Till exempel kan en autonom fordon navigera på gator, men på grund av dess “smala” begränsningar kan AI inte lätt utföra andra uppgifter. Ett annat exempel på smal AI är ett bildigenkänningssystem som kan lätt identifiera och märka bilder i en databas, men som inte kan anpassas till en annan uppgift.

Artificiell Allmän Intelligens, som vanligtvis kallas “AGI”, är en AI som likt människor kan lära sig, anpassa sig, ändra riktning och fungera i den verkliga världen. Det är en typ av intelligens som inte är smal i omfattning, den kan anpassa sig till alla situationer och lära sig att hantera verkliga problem.

Det bör nämnas att medan AI utvecklas i en exponentiell takt, har vi ännu inte uppnått AGI. När vi kommer att nå AGI är föremål för debatt, och alla har olika svar på en tidsplan. Jag personligen ansluter mig till Ray Kurzweils åsikter, uppfinnare, futurist och författare till “The Singularity is Near”, som tror att vi kommer att ha uppnått AGI år 2029.

Det är denna tidsplan 2029 som är en tickande klocka, vi måste lära oss att införa en typ av regelbok i AI, som inte bara liknar de tre lagarna, utan som är mer avancerad och kan faktiskt undvika verkliga konflikter mellan människor och robotar.

Modernare robotlagar

Medan de tre robotlagarna var fantastiska för litteraturen, saknar de betydande sofistikering för att allvarligt programmeras in i en robot. Detta var ju plotpunkten bakom novellerna och romanerna. Konflikter mellan de tre lagarna, eller åtminstone tolkningen av de tre lagarna, orsakade att robotarna kollapsade, hämnades mot människor eller andra viktiga plotpunkter.

Huvudproblemet med de nuvarande lagarna är den etiska programmeringen att alltid lyda mänskliga instruktioner och att alltid skydda sig själv kan komma i konflikt. Vad händer om en robot tillåts försvara sig mot en ägare som misshandlar den?

Vilken typ av säkerhetsmekanism måste programmeras in? Hur instruerar vi en robot att den måste stängas av, oavsett konsekvenserna? Vad händer om en robot är i färd med att rädda en hemmafru från misshandel, ska roboten automatiskt stängas av om den instrueras att göra så av den misshandlande maken?

Vem ska ge instruktioner till robotar? Med autonoma vapen som kan identifiera och målinrikta fiender från hela världen, ska roboten kunna vägra en order att eliminera ett mål om den identifierar målet som ett barn?

Med andra ord, om roboten ägs och kontrolleras av en psykopat, kan roboten vägra order som är omoraliska? Frågorna är många, och svaren är för svåra för någon enskild person att svara på. Det är därför organisationer som The Future of Life Institute är så viktiga, tiden att debattera dessa moraliska dilemman är nu, innan en sann AGI uppkommer.

Antoine Àr en visionÀr ledare och medgrundare av Unite.AI, driven av en outtröttlig passion för att forma och frÀmja framtiden för AI och robotik. En serieentreprenör, han tror att AI kommer att vara lika omstörtande för samhÀllet som elektricitet, och fÄngas ofta i extas över potentialen för omstörtande teknologier och AGI. Som en futurist, Àr han dedikerad till att utforska hur dessa innovationer kommer att forma vÄr vÀrld. Dessutom Àr han grundare av Securities.io, en plattform som fokuserar pÄ att investera i banbrytande teknologier som omdefinierar framtiden och omformar hela sektorer.