AGI
Hvordan Asimovs tre lover for robotteknologi påvirker AI

De tre lovene for robotteknologi er ikoniske i science fiction-verdenen, og har blitt et symbol innen AI- og robotteknologisamfunnet på hvor vanskelig det er å designe et system som er feilfritt.
For å fullt utforstå betydningen av disse tre lovene, må vi først lære om den briljante hjernen som konseptualiserte disse lovene, den avdøde science fiction-forfatteren Isaac Asimov. Vi må deretter forstå hvordan vi kan tilpasse disse lovene og la dem utvikle seg for å beskytte menneskeheten.
Isaac Asimov – Oppstigningen av et geni
Isaac Asimov ble født i Russland den 2. januar 1920, og innvandret til USA i en alder av tre år. Han vokste opp i Brooklyn, New York, og tok eksamen ved Columbia University i 1939. Han ble anerkjent som en begavet og produktiv forfatter som fokuserte på vitenskap og science fiction. I løpet av sin karriere skrev han og/eller redigerte over 500 bøker.
Asimov ble sterkt inspirert av noen av de mest ikoniske forfatterne i science fiction-verdenen. Han begynte å arbeide ved Philadelphia Navy Yard, der han møtte to av sine medarbeidere, som skulle bli to av de mest suksessfulle science fiction-forfatterne i spekulativ fiksjons historie: L. Sprague de Camp og Robert A. Heinlein.
L. Sprague de Camp er en prisbelønt forfatter som skrev over 100 bøker og var en stor skikkelse i science fiction i 1930- og 1940-årene. Noen av hans mest populære verk inkluderte “Darkness Fall” (1939), “The Wheels of If” (1940), “A Gun for Dinosaur” (1956), “Aristotle and the Gun” (1958) og “The Glory That Was” (1960).
Robert A. Heinlein var kanskje den mest populære science fiction-forfatteren i verden på høyden av sin karriere. Sammen med Isaac Asimov og Arthur C. Clarke ble han betraktet som “De tre store” av science fiction-forfattere. Noen av Robert A. Heinleins mest populære verk inkluderte “Farnham’s Freehold” (1964) og “To Sail Beyond the Sunset” (1987). Den nåværende generasjonen kjenner ham kanskje best for filmatiseringen av hans roman “Starship Troopers” (1959).
Å være omgitt av disse gigantene i futurismen inspirerte Isaac Asimov til å lansere sin produktive forfatterkarriere. Asimov ble også høyt respektert i vitenskapssamfunnet og ble ofte booket som en offentlig taler for å holde foredrag om vitenskap.
De tre lovene for robotteknologi
Isaac Asimov var den første personen som brukte begrepet ‘robotteknologi’ i en kort historie kalt ‘Liar!’ som ble publisert i 1941.
Kort etter introduserte hans kort historie “Runaround” fra 1942 verden for hans tre lover for robotteknologi. Lovene er:
1. En robot kan ikke skade en menneskelig skapning eller, gjennom inaktivitet, tillate en menneskelig skapning å komme til skade.
2. En robot må adlyde ordrene som er gitt av menneskelige skapninger, unntatt der slike ordre ville komme i konflikt med den første loven.
3. En robot må beskytte sin egen eksistens så lenge som slike beskyttelse ikke kommer i konflikt med den første eller andre loven.
Disse lovene var designet for å tilby interessante plotpunkter, og Asimov gikk videre med å skape en serie på 37 science fiction-kort historier og seks romaner som inkluderte positroniske roboter.
En av disse kort historie-samlingene, tittelen “I, Robot”, ble senere filmatisert i 2004. Filmen “I, Robot” med Will Smith er satt i en dystopisk fremtid i 2035 og inkluderer høyt intelligente offentlige tjenestebotter som opererer under de tre lovene for robotteknologi. Filmen, likesom historiene, ble raskt en parabel på hvordan programmering kunne gå galt, og at programmering av noen type avansert AI innebærer en høy risiko.
Verden har nå kommet i forkjøpet av hva som tidligere var science fiction, vi designer nå AI som på noen måter er langt mer avansert enn noe Isaac Asimov kunne ha forestilt seg, samtidig som det er langt mer begrenset.
De tre lovene for robotteknologi refereres ofte i diskusjoner om kunstig generell intelligens (AGI). Vi vil raskt utforske hva AGI er, samt hvordan de tre lovene for robotteknologi må utvikle seg for å unngå potensielle problemer i fremtiden.
Kunstig generell intelligens (AGI)
For tiden er de fleste typer AI som vi møter på daglig basis klassifisert som “smal AI”. Dette er en type AI som er svært spesifikk og smal i sin nyttefunksjon. For eksempel kan en autonom bil navigere gater, men på grunn av dens “smale” begrensninger kan AI-en ikke lett fullføre andre oppgaver. Et annet eksempel på smal AI ville være et bilde-gjenkjenningssystem som kan lett identifisere og merke bilder i en database, men ville være uegnet til å lett kunne tilpasses til en annen oppgave.
Kunstig generell intelligens, som vanligvis kalles “AGI”, er en AI som, likesom mennesker, kan raskt lære, tilpasse seg, endre retning og fungere i den virkelige verden. Det er en type intelligens som ikke er smal i omfang, det kan tilpasse seg enhver situasjon og lære å håndtere virkelige problemer.
Det bør nevnes at mens AI utvikler seg i en eksponentiell takt, har vi ennå ikke oppnådd AGI. Når vi vil nå AGI, er det oppe til debatt, og alle har forskjellige svar på en tidsplan. Jeg personlig støtter synspunktene til Ray Kurzweil, oppfinner, futurist og forfatter av “The Singularity is Near”, som mener at vi vil ha oppnådd AGI i 2029.
Det er denne 2029-tidsplanen som er en tikkende klokke, vi må lære å hardkodere en type regelbok inn i AI-en, som ikke bare er lignende de tre lovene, men som er mer avansert og i stand til å faktisk unngå virkelige konflikter mellom mennesker og roboter.
Moderne lover for robotteknologi
Mens de tre lovene for robotteknologi var fantastiske for litteraturen, mangler de betydelig i sofistikasjon for å bli alvorlig programmerert inn i en robot. Dette var jo plottpunktet bak kort historiene og romanene. Konflikter mellom de tre lovene, eller i det minste tolkningen av de tre lovene, forårsaket at robotene kollapset, hevnet seg mot mennesker eller andre avgjørende plottpunkter.
Hovedproblemet med de nåværende lovene er den etiske programmeringen av alltid å adlyde menneskelige instruksjoner og alltid å beskytte seg selv, kan komme i konflikt. For eksempel, er roboten tillatt å forsvare seg mot en eier som misbruker den?
Hva slags sikkerhetsmekanisme må programmeres inn? Hvordan instruerer vi en robot om å skru av, uansett hva konsekvensene er? Hva skjer hvis en robot er i ferd med å redde en husmor fra misbruk, skal roboten automatisk skru av hvis den blir instruert til å gjøre det av den misbrukende ektemannen?
Hvem skal gi instruksjoner til robotene? Med autonome våpen i stand til å identifisere og angi mål på andre siden av verden, skal roboten kunne nekte en kommando til å eliminere et mål hvis den identifiserer målet som et barn?
Med andre ord, hvis roboten eies og kontrolleres av en psykopat, kan roboten nekte ordrer som er umoralske? Spørsmålene er tallrike, og svarene er for vanskelige for noen enkelt person å svare. Dette er hvorfor organisasjoner som The Future of Life Institute er så viktige, tiden til å debattere disse moralske dilemmaer er nå, før en sann AGI oppstår.








