stub Hur Asimovs tre robotlagar påverkar AI - Unite.AI
Anslut dig till vårt nätverk!

Tanke ledare

Hur Asimovs tre robotlagar påverkar AI

mm
Uppdaterad on

The Three Laws of Robotics är ikoniska i science fiction-världen och har blivit en symbol inom AI- och robotikgemenskapen för hur svårt det är att korrekt designa ett system som är idiotsäkert.

För att till fullo förstå vikten av dessa tre lagar måste vi först lära oss om det briljanta sinne som skapade dessa lagar, den bortgångne science fiction-författaren Isaac Asimov. Vi måste då förstå hur vi anpassar dessa lagar och får dem att utvecklas för att skydda mänskligheten.

Isaac Asimov – The Rise of a Genius

Isaac Asimov föddes i Ryssland den 2 januari 1920 och immigrerade till USA vid tre års ålder. Han växte upp i Brooklyn, New York, och tog examen från Columbia University 1939.  Han erkändes som en begåvad och produktiv författare som fokuserade på science och science fiction. Under sin karriär skrev och/eller redigerade han över 500 böcker.

Asimov blev mycket inspirerad av några av de mest ikoniska författarna i science fiction-världen. Han började sin anställning på Philadelphia Navy Yard där han träffade två av sina medarbetare, som snart skulle framstå som två om de mest framgångsrika science fiction-författarna i spekulativ fiktionshistoria: L. Sprague de Camp och Robert A. Heinlein.

L. Sprague de Camp är en prisbelönt författare som skrev över 100 böcker och var en stor figur inom science fiction på 1930- och 1940-talen. Några av hans mest populära verk inkluderar "Darkness Fall" (1939), "The Wheels of If" (1940), "A Gun for Dinosaur" (1956), "Aristotle and the Gun" (1958) och "The Glory That Var” (1960).

Robert A. Heinlein var förmodligen den mest populära science fiction-författaren i världen under höjden av sin karriär. Tillsammans med Isaac Asimov, och Arthur C. Clarke han ansågs vara "de tre stora" av science fiction-författare. Några av Robert A. Heinleins mest populära verk inkluderar "Farnham's Freehold" (1964) och "Till Segla bortom solnedgången” (1987). Den nuvarande generationen känner honom förmodligen bäst för filmatiseringen av hans roman "Starship Troopers" (1959).

Att vara omgiven av dessa futurismjättar inspirerade Issac Asimov att starta sin produktiva författarkarriär. Asimov var också mycket respekterad inom vetenskapssamhället och blev ofta bokad som en offentlig talare för att hålla föredrag om vetenskap.

Robotikens tre lagar

Issac Asimov var den första personen som använde termen "Robotics" i en novell som heter "Liar!" som gavs ut 1941.

Kort efter introducerade hans novell från 1942 "Runaround" världen till hans tre lagar inom robotik. Lagarna är:

1. En robot får inte skada en människa eller genom passivitet låta en människa komma till skada.

2. En robot måste lyda de order som människor ger den utom där sådana order skulle strida mot den första lagen.

3. En robot måste skydda sin egen existens så länge ett sådant skydd inte strider mot den första eller andra lagen.

Dessa lagar utformades för att erbjuda intressanta handlingspunkter, och Asimov fortsatte med att skapa en serie av 37 science fiction-noveller och sex romaner som innehöll positroniska robotar.

En av dessa novellsamlingar med titeln "I, Robot" anpassades senare för film 2004. "I, Robot"-filmen med Will Smith i huvudrollen utspelar sig i ett dystopiskt 2035 och innehåller mycket intelligenta offentliganställda robotar som verkar under de tre lagarna av robotik. Filmen, ungefär som berättelserna, blev snabbt en liknelse om hur programmering kunde gå fel, och att programmering av alla typer av avancerad AI innebär en hög risknivå.

Världen har nu kommit ikapp det som tidigare var science fiction, vi designar nu AI som på något sätt är mycket mer avancerad än något Issac Asimov kunde ha föreställt sig, samtidigt som den är mycket mer begränsad.

Robotikens tre lagar refereras ganska ofta i diskussioner om artificiell allmän intelligens (AGI). Vi kommer snabbt att utforska vad AGI är, samt hur de tre lagarna inom Robotics måste utvecklas för att undvika potentiella problem i framtiden.

Artificiell allmän intelligens (AGI)

För närvarande kvantifieras de flesta typer av AI som vi möter dagligen som "smal AI". Detta är en typ av AI som är mycket specifik och smal i sin hjälpfunktion. Till exempel kan ett autonomt fordon navigera på gator, men på grund av dess "snäva" begränsningar kan AI inte enkelt utföra andra uppgifter. Ett annat exempel på smal AI skulle vara ett bildigenkänningssystem som enkelt kan identifiera och märka bilder i en databas, men som inte enkelt skulle kunna anpassas till en annan uppgift.

Artificiell allmän intelligens, som vanligtvis kallas "AGI", är en AI som liknar människor snabbt kan lära sig, anpassa, svänga och fungera i den verkliga världen. Det är en typ av intelligens som inte är snäv i omfattning, den kan anpassa sig till alla situationer och lära sig hur man hanterar verkliga problem.

Det bör konstateras att även om AI går framåt i en exponentiell takt, har vi fortfarande inte uppnått AGI. När vi når AGI är uppe för debatt, och alla har olika svar på en tidslinje. Jag ansluter mig personligen till synpunkterna från Ray Kurzweil, uppfinnare, futurist och författare till "The Singularity is Near" som tror att vi kommer att ha uppnått AGI 2029.

Det är denna 2029 tidslinje som är en tickande klocka, vi måste lära oss att hårdkoda en typ av regelbok i AI, som inte bara liknar de tre lagarna, utan som är mer avancerad och faktiskt kan undvika verkligheten konflikt mellan människor och robotar.

Moderna robotars lagar

Medan de tre lagarna i Robotics var fenomenala för litteraturen, saknar de avsevärt sofistikering för att på allvar programmera in i en robot. Detta var trots allt handlingen bakom novellerna och romanerna. Konflikter mellan de tre lagarna, eller åtminstone tolkningen av de tre lagarna, fick robotarna att smälta samman, hämnas mot människor eller andra avgörande punkter.

Det största problemet med de nuvarande lagarna är den etiska programmeringen att alltid lyda mänskliga instruktioner och att alltid skydda sig själv kan komma i konflikt. Får roboten trots allt försvara sig mot en ägare som missbrukar den?

Vilken typ av felsäker mekanism behöver programmeras in? Hur instruerar vi en robot att den måste stängas av oavsett konsekvenserna? Vad händer om en robot håller på att rädda en hemmafru från missbruk, bör roboten stängas av automatiskt om den missbrukande maken uppmanas att göra det?

Vem ska ge instruktionerna till robotar? Med autonoma vapen som kan identifiera och rikta in sig på fiender från hela världen, borde roboten kunna vägra ett kommando för att eliminera ett mål om den identifierar målet som ett barn?

Med andra ord om roboten ägs och kontrolleras av en psykopat, kan roboten vägra order som är omoraliska? Frågorna är många och svaren är för svåra för någon individ att svara på. Det är därför organisationer som t.ex Livets framtid Institutet är så viktiga att det är dags att diskutera dessa moraliska dilemman nu innan en sann AGI dyker upp.

En av grundarna av unite.AI och en medlem av Forbes Technology Council, Antoine är en futurist som brinner för framtiden för AI och robotik.

Han är också grundare av Securities.io, en webbplats som fokuserar på att investera i disruptiv teknik.