AGI
Come le Tre Leggi della Robotica di Asimov Impattano sull’Intelligenza Artificiale

Le Tre Leggi della Robotica sono iconiche nel mondo della fantascienza e sono diventate un simbolo all’interno della comunità di intelligenza artificiale e robotica di quanto sia difficile progettare un sistema che sia a prova di errore.
Per comprendere appieno l’importanza di queste tre leggi, dobbiamo innanzitutto conoscere la mente brillante che le ha concepite, il defunto autore di fantascienza Isaac Asimov. Dobbiamo poi capire come adattare queste leggi e farle evolvere per proteggere l’umanità.
Isaac Asimov – L’ascesa di un genio
Isaac Asimov nacque in Russia il 2 gennaio 1920, e immigrò negli Stati Uniti all’età di tre anni. Crebbe a Brooklyn, New York, e si laureò alla Columbia University nel 1939. Fu riconosciuto come uno scrittore dotato e prolifico che si concentrò sulla scienza e la fantascienza. Durante la sua carriera scrisse e/o curò oltre 500 libri.
Asimov fu grandemente ispirato da alcuni degli scrittori più iconici del mondo della fantascienza. Iniziò a lavorare al Philadelphia Navy Yard, dove incontrò due dei suoi colleghi, che sarebbero presto diventati due degli scrittori di fantascienza più di successo nella storia della narrativa speculativa: L. Sprague de Camp e Robert A. Heinlein.
L. Sprague de Camp è un autore vincitore di premi che ha scritto oltre 100 libri e fu una figura importante nella fantascienza negli anni ’30 e ’40. Alcune delle sue opere più popolari includono “Darkness Fall” (1939), “The Wheels of If” (1940), “A Gun for Dinosaur” (1956), “Aristotle and the Gun” (1958) e “The Glory That Was” (1960).
Robert A. Heinlein fu probabilmente lo scrittore di fantascienza più popolare al mondo durante l’apice della sua carriera. Insieme a Isaac Asimov e Arthur C. Clarke fu considerato uno dei “Big Three” degli autori di fantascienza. Alcune delle opere più popolari di Robert A. Heinlein includono “Farnham’s Freehold” (1964) e “To Sail Beyond the Sunset” (1987). La generazione attuale probabilmente lo conosce meglio per l’adattamento cinematografico del suo romanzo “Starship Troopers” (1959).
Essere circondato da questi giganti del futurismo ispirò Isaac Asimov a lanciare la sua carriera di scrittore prolifico. Asimov fu anche molto rispettato nella comunità scientifica e fu frequentemente invitato come relatore a parlare di scienza.
Le Tre Leggi della Robotica
Isaac Asimov fu la prima persona a utilizzare il termine ‘robotica’ in un racconto breve intitolato ‘Liar!’ pubblicato nel 1941.
Poco dopo, il suo racconto breve del 1942 “Runaround” introdusse il mondo alle sue tre leggi della robotica. Le leggi sono:
1. Un robot non può recare danno a un essere umano o, attraverso l’inerzia, permettere a un essere umano di subire un danno.
2. Un robot deve obbedire agli ordini dati dagli esseri umani, eccetto quando tali ordini entrino in conflitto con la Prima Legge.
3. Un robot deve proteggere la sua stessa esistenza finché tale protezione non entri in conflitto con la Prima o la Seconda Legge.
Queste leggi furono progettate per offrire punti di trama interessanti e Asimov andò avanti a creare una serie di 37 racconti brevi di fantascienza e sei romanzi che presentavano robot positronici.
Una di queste raccolte di racconti brevi intitolata “I, Robot” fu successivamente adattata per il cinema nel 2004. Il film “I, Robot” con Will Smith è ambientato in un futuro distopico del 2035 e presenta robot pubblici intelligenti che operano secondo le tre leggi della robotica. Il film, come i racconti, divenne rapidamente una parabola di come la programmazione potesse andare storta e che la programmazione di qualsiasi tipo di intelligenza artificiale avanzata comporta un alto livello di rischio.
Il mondo ha ora raggiunto ciò che precedentemente era fantascienza, stiamo ora progettando intelligenza artificiale che in alcuni modi è molto più avanzata di qualsiasi cosa Isaac Asimov potesse aver immaginato, mentre allo stesso tempo è molto più limitata.
Le tre leggi della robotica sono citate frequentemente nelle discussioni sull’Intelligenza Artificiale Generale (AGI). Esploreremo rapidamente cosa sia l’AGI, nonché come le tre leggi della robotica debbano evolversi per evitare potenziali problemi nel futuro.
Intelligenza Artificiale Generale (AGI)
Attualmente, la maggior parte dei tipi di intelligenza artificiale che incontriamo quotidianamente sono quantificati come “intelligenza artificiale ristretta”. Questo è un tipo di intelligenza artificiale che è molto specifico e limitato nella sua funzione di utilità. Ad esempio, un veicolo autonomo può navigare nelle strade, ma a causa delle sue limitazioni “ristrette” l’intelligenza artificiale non può facilmente completare altri compiti. Un altro esempio di intelligenza artificiale ristretta sarebbe un sistema di riconoscimento di immagini che può facilmente identificare e etichettare le immagini in un database, ma non potrebbe essere facilmente adattato a un altro compito.
L’Intelligenza Artificiale Generale, comunemente indicata come “AGI”, è un’intelligenza artificiale che, simile agli esseri umani, può imparare, adattarsi, cambiare direzione e funzionare nel mondo reale. È un tipo di intelligenza che non è limitata nella sua portata, può adattarsi a qualsiasi situazione e imparare a gestire problemi del mondo reale.
Si deve affermare che, mentre l’intelligenza artificiale sta avanzando a un ritmo esponenziale, non abbiamo ancora raggiunto l’AGI. Quando raggiungeremo l’AGI è oggetto di dibattito e tutti hanno una risposta diversa sulla tempistica. Io personalmente mi attengo alle opinioni di Ray Kurzweil, inventore, futurista e autore di “The Singularity is Near”, che ritiene che raggiungeremo l’AGI entro il 2029.
È questo orologio a ticchettio del 2029 che è un countdown, dobbiamo imparare a codificare un tipo di libro di regole nell’intelligenza artificiale, che non solo sia simile alle tre leggi, ma che sia più avanzato e in grado di evitare realmente conflitti nel mondo reale tra esseri umani e robot.
Leggi della Robotica nel Mondo Moderno
Mentre le tre leggi della robotica furono fenomenali per la letteratura, sono significativamente carenti di sofisticazione per essere seriamente programmate in un robot. Questo era, dopotutto, il punto di trama dietro i racconti brevi e i romanzi. I conflitti tra le tre leggi, o almeno l’interpretazione delle tre leggi, causarono ai robot di avere un crollo, di reagire contro gli esseri umani o altri punti di trama cruciali.
Il principale problema con le leggi attuali è la programmazione etica di obbedire sempre agli ordini umani e di proteggere sempre se stessi può entrare in conflitto. Dopotutto, il robot è autorizzato a difendersi contro un proprietario che lo maltratta?
Che tipo di meccanismo di sicurezza deve essere programmato? Come istruire un robot che deve spegnersi indipendentemente dalle conseguenze? Cosa succede se un robot è nel processo di salvare una casalinga da abusi, il robot deve spegnersi automaticamente se istruito a farlo dal marito abusivo?
In altre parole, se il robot è di proprietà e controllato da un psicopatico, il robot può rifiutare ordini che sono immorali? Le domande sono numerose e le risposte sono troppo difficili per qualsiasi individuo da rispondere. È per questo che organizzazioni come The Future of Life Institute sono così importanti, il momento di dibattere queste dilemmi morali è adesso, prima che emerga un’AGI vera e propria.








