mozzicone Intelligenza Artificiale e Identità Giuridica - Unite.AI
Seguici sui social

Leader del pensiero

Intelligenza artificiale e identità giuridica

mm

Pubblicato il

 on

Questo articolo si concentra sulla questione della concessione dello status di soggetto giuridico all’intelligenza artificiale (AI), soprattutto sulla base del diritto civile. L'identità giuridica è qui definita come un concetto integrante del termine di capacità giuridica; tuttavia, ciò non implica accettare che la soggettività morale sia la stessa cosa della personalità morale. L'identità giuridica è un attributo complesso che può essere riconosciuto ad alcuni soggetti o assegnato ad altri.

Credo che questo attributo sia graduale, discreto, discontinuo, sfaccettato e mutevole. Ciò significa che può contenere più o meno elementi di diverso tipo (es. doveri, diritti, competenze, ecc.), che nella maggior parte dei casi possono essere aggiunti o rimossi dal legislatore; Fanno eccezione i diritti umani che, secondo l'opinione comune, non possono essere privati.

Oggigiorno l’umanità si trova ad affrontare un periodo di trasformazione sociale legata alla sostituzione di una modalità tecnologica con un’altra; Le macchine e i software “intelligenti” apprendono abbastanza rapidamente; i sistemi di intelligenza artificiale sono sempre più capaci di sostituire le persone in molteplici attività. Uno dei problemi che si pone sempre più frequentemente a causa del miglioramento delle tecnologie dell’intelligenza artificiale è il riconoscimento dei sistemi di intelligenza artificiale come soggetti giuridici, poiché hanno raggiunto il livello di prendere decisioni pienamente autonome e di manifestare potenzialmente una “volontà soggettiva”. Questa questione è stata ipoteticamente sollevata nel 20° secolo. Nel 21° secolo, il dibattito scientifico è in continua evoluzione, raggiungendo l’estremo opposto con ogni introduzione nella pratica di nuovi modelli di intelligenza artificiale, come la comparsa di auto a guida autonoma per le strade o la presentazione di robot con una nuova serie di funzioni.

La questione giuridica relativa alla determinazione dello status dell’intelligenza artificiale è di natura teorica generale, causata dall’oggettiva impossibilità di prevedere tutti i possibili risultati dello sviluppo di nuovi modelli di intelligenza artificiale. Tuttavia, i sistemi di intelligenza artificiale (sistemi AI) sono già partecipanti effettivi in ​​determinate relazioni sociali, il che richiede la creazione di "benchmark", vale a dire la risoluzione di questioni fondamentali in questo settore ai fini del consolidamento legislativo e, quindi, la riduzione dell'incertezza in prevedere lo sviluppo futuro delle relazioni che coinvolgono i sistemi di intelligenza artificiale.

La questione della presunta identità dell’intelligenza artificiale come oggetto di ricerca, menzionata nel titolo dell’articolo, non copre certamente tutti i sistemi di intelligenza artificiale, compresi molti “assistenti elettronici” che non pretendono di essere persone giuridiche. Il loro insieme di funzioni è limitato e rappresentano un’intelligenza artificiale ristretta (debole). Ci riferiremo piuttosto alle “macchine intelligenti” (sistemi intelligenti ciberfisici) e ai modelli generativi dei sistemi intelligenti virtuali, che si avvicinano sempre più all’intelligenza artificiale generale (potente) paragonabile all’intelligenza umana e, in futuro, addirittura superandola.

Entro il 2023, la questione della creazione di una forte intelligenza artificiale è stata sollevata con urgenza da reti neurali multimodali come ChatGPT, DALL-e, e altri, le cui capacità intellettuali vengono migliorate aumentando il numero di parametri (modalità di percezione, comprese quelle inaccessibili agli esseri umani), nonché utilizzando grandi quantità di dati per l'addestramento che gli esseri umani non possono elaborare fisicamente. Ad esempio, i modelli generativi multimodali delle reti neurali possono produrre immagini, testi letterari e scientifici tali che non è sempre possibile distinguere se siano creati da un sistema di intelligenza umana o artificiale.

Gli esperti IT evidenziano due salti qualitativi: un salto di velocità (la frequenza con cui emergono nuovi modelli), che ora si misura in mesi anziché in anni, e un salto di volatilità (l’incapacità di prevedere con precisione cosa potrebbe accadere nel campo dell’informatica). intelligenza artificiale anche entro la fine dell’anno). Il modello ChatGPT-3 (la terza generazione dell'algoritmo di elaborazione del linguaggio naturale di OpenAI) è stato introdotto nel 2020 e potrebbe elaborare testi, mentre il modello di prossima generazione, ChatGPT-4, lanciato dal produttore nel marzo 2023, può "funzionare" senza solo con testi ma anche con immagini, e il modello di prossima generazione sta imparando e sarà capace di fare ancora di più.

Alcuni anni fa, si pensava che il momento atteso della singolarità tecnologica, in cui lo sviluppo delle macchine diventa praticamente incontrollabile e irreversibile, cambiando radicalmente la civiltà umana, si sarebbe verificato almeno in pochi decenni, ma oggi sempre più ricercatori ritengono che possa accadere più veloce. Ciò implica l’emergere della cosiddetta intelligenza artificiale forte, che dimostrerà capacità paragonabili all’intelligenza umana e sarà in grado di risolvere una gamma di compiti simili o addirittura più ampia. A differenza dell’intelligenza artificiale debole, l’intelligenza artificiale forte avrà coscienza, tuttavia una delle condizioni essenziali per l’emergere della coscienza nei sistemi intelligenti è la capacità di eseguire comportamenti multimodali, integrando dati provenienti da diverse modalità sensoriali (testo, immagine, video, suono, ecc. ), “collegando” informazioni di diverse modalità alla realtà e creando “metafore del mondo” olistiche complete inerenti agli esseri umani.

Nel marzo 2023 più di mille ricercatori, esperti informatici e imprenditori nel campo dell’intelligenza artificiale hanno firmato un lettera aperta pubblicata sul sito del Future of Life Institute, un centro di ricerca americano specializzato nell'indagine sui rischi esistenziali per l'umanità. La lettera chiede di sospendere la formazione di nuovi modelli di reti neurali multimodali generative, poiché la mancanza di protocolli di sicurezza unificati e il vuoto giuridico aumentano significativamente i rischi poiché la velocità dello sviluppo dell’intelligenza artificiale è aumentata drammaticamente a causa della “rivoluzione ChatGPT”. È stato inoltre notato che i modelli di intelligenza artificiale hanno sviluppato capacità inspiegabili non previste dai loro sviluppatori, e la quota di tali capacità è destinata ad aumentare gradualmente. Inoltre, una tale rivoluzione tecnologica accelera notevolmente la creazione di gadget intelligenti che diventeranno molto diffusi e le nuove generazioni, i bambini moderni cresciuti in costante comunicazione con assistenti di intelligenza artificiale, saranno molto diversi dalle generazioni precedenti.

È possibile ostacolare lo sviluppo dell’intelligenza artificiale affinché l’umanità possa adattarsi alle nuove condizioni? In teoria sì, se tutti gli Stati facilitano tutto ciò attraverso la legislazione nazionale. Lo faranno? Sulla base delle strategie nazionali pubblicate, non lo faranno; al contrario, ciascuno Stato mira a vincere la competizione (mantenere la leadership o ridurre il divario).

Le capacità dell’intelligenza artificiale attraggono gli imprenditori, quindi le aziende investono molto in nuovi sviluppi, con il successo di ogni nuovo modello che guida il processo. Crescono gli investimenti annuali, considerando sia gli investimenti privati ​​che quelli statali per lo sviluppo; il mercato globale delle soluzioni AI è stimato in centinaia di miliardi di dollari. Secondo le previsioni, in particolare quelle contenute nella risoluzione del Parlamento Europeo “Sull’intelligenza artificiale nell’era digitale” del 3 maggio 2022, il contributo dell’intelligenza artificiale all’economia globale supererà gli 11 trilioni di euro entro il 2030.

Il business orientato alla pratica porta all’implementazione delle tecnologie di intelligenza artificiale in tutti i settori dell’economia. L’intelligenza artificiale viene utilizzata sia nell’industria estrattiva che in quella di trasformazione (metallurgia, industria dei combustibili e chimica, ingegneria, lavorazione dei metalli, ecc.). Viene applicato per prevedere l'efficienza dei prodotti sviluppati, automatizzare le linee di assemblaggio, ridurre gli scarti, migliorare la logistica e prevenire i tempi di fermo.

L’uso dell’intelligenza artificiale nei trasporti coinvolge sia i veicoli autonomi che l’ottimizzazione dei percorsi prevedendo i flussi di traffico, oltre a garantire la sicurezza attraverso la prevenzione di situazioni pericolose. L’ammissione delle auto a guida autonoma sulle strade pubbliche è una questione oggetto di intenso dibattito nei parlamenti di tutto il mondo.

Nel settore bancario, i sistemi di intelligenza artificiale hanno quasi completamente sostituito gli esseri umani nella valutazione dell’affidabilità creditizia dei mutuatari; vengono sempre più utilizzati per sviluppare nuovi prodotti bancari e aumentare la sicurezza delle transazioni bancarie.

Le tecnologie dell’intelligenza artificiale stanno conquistando non solo il mondo degli affari ma anche la sfera sociale: sanità, istruzione e occupazione. L’applicazione dell’intelligenza artificiale in medicina consente una migliore diagnostica, lo sviluppo di nuovi farmaci e interventi chirurgici assistiti dalla robotica; nell'istruzione, consente lezioni personalizzate, valutazione automatizzata delle competenze degli studenti e degli insegnanti.

Oggi l’occupazione sta cambiando sempre più a causa della crescita esponenziale dell’occupazione delle piattaforme. Secondo l’Organizzazione Internazionale del Lavoro, la percentuale di persone che lavorano attraverso piattaforme digitali per l’occupazione potenziate dall’intelligenza artificiale è in costante aumento in tutto il mondo. L’occupazione tramite piattaforma non è l’unica componente della trasformazione del lavoro; ha un impatto significativo anche il crescente livello di robotizzazione della produzione. Secondo la Federazione Internazionale di Robotica, il numero di robot industriali continua ad aumentare in tutto il mondo, con il ritmo di robotizzazione più rapido osservato in Asia, principalmente in Cina e Giappone.

In effetti, le capacità dell’intelligenza artificiale di analizzare i dati utilizzati per la gestione della produzione, l’analisi diagnostica e le previsioni sono di grande interesse per i governi. L’intelligenza artificiale viene implementata nella pubblica amministrazione. Al giorno d’oggi, gli sforzi per creare piattaforme digitali per i servizi pubblici e automatizzare molti processi relativi al processo decisionale da parte delle agenzie governative si stanno intensificando.

I concetti di “personalità artificiale” e “socialità artificiale” sono citati più frequentemente nel discorso pubblico; ciò dimostra che lo sviluppo e l'implementazione di sistemi intelligenti si sono spostati da un campo puramente tecnico alla ricerca di vari mezzi per la sua integrazione nelle attività umanitarie e socio-culturali.

Alla luce di quanto sopra, si può affermare che l’intelligenza artificiale sta diventando sempre più profondamente radicata nella vita delle persone. La presenza di sistemi di intelligenza artificiale nelle nostre vite diventerà sempre più evidente nei prossimi anni; aumenterà sia nell’ambiente di lavoro che nello spazio pubblico, nei servizi e nelle case. L’intelligenza artificiale fornirà risultati sempre più efficienti attraverso l’automazione intelligente di vari processi, creando così nuove opportunità e ponendo nuove minacce a individui, comunità e stati.

Man mano che il livello intellettuale cresce, i sistemi di intelligenza artificiale diventeranno inevitabilmente parte integrante della società; le persone dovranno convivere con loro. Tale simbiosi comporterà la cooperazione tra esseri umani e macchine “intelligenti” che, secondo l’economista premio Nobel J. Stiglitz, porterà alla trasformazione della civiltà (Stiglitz, 2017). Ancora oggi, secondo alcuni giuristi, “al fine di migliorare il benessere umano, la legge non dovrebbe distinguere tra le attività degli esseri umani e quelle dell’intelligenza artificiale quando gli esseri umani e l’intelligenza artificiale svolgono gli stessi compiti” (Abbott, 2020). Va inoltre considerato che lo sviluppo dei robot umanoidi, che stanno acquisendo una fisiologia sempre più simile a quella umana, porterà, tra le altre cose, a ricoprire ruoli di genere come partner nella società (Karnouskos, 2022).

Gli Stati devono adattare la propria legislazione al cambiamento delle relazioni sociali: il numero di leggi volte a regolare le relazioni che coinvolgono i sistemi di intelligenza artificiale sta crescendo rapidamente in tutto il mondo. Secondo l’AI Index Report 2023 dell’Università di Stanford, mentre nel 2016 è stata adottata una sola legge, nel 12 ne sono state adottate 2018, nel 18 2021, e nel 37 2022. Ciò ha spinto le Nazioni Unite a definire una posizione sull’etica della utilizzando l’intelligenza artificiale a livello globale. Nel settembre 2022 è stato pubblicato un documento che conteneva i principi dell’uso etico dell’intelligenza artificiale e si basava sulle Raccomandazioni sull’etica dell’intelligenza artificiale adottate un anno prima dalla Conferenza generale dell’UNESCO. Tuttavia, il ritmo di sviluppo e implementazione delle tecnologie di intelligenza artificiale è molto più veloce rispetto al ritmo dei cambiamenti legislativi rilevanti.

Concetti base della capacità giuridica dell'intelligenza artificiale

Considerando i concetti di potenziale concessione di capacità giuridica ai sistemi intellettuali, va riconosciuto che l’attuazione di uno qualsiasi di questi approcci richiederà una ricostruzione fondamentale della teoria generale esistente del diritto e modifiche ad una serie di disposizioni in alcuni rami del diritto. Va sottolineato che i sostenitori di punti di vista diversi usano spesso il termine "persona elettronica", quindi l'uso di questo termine non consente di determinare di quale concetto sia sostenitore l'autore dell'opera senza leggere l'opera stessa.

L’approccio più radicale e, ovviamente, meno popolare negli ambienti scientifici è il concetto di capacità giuridica individuale dell’intelligenza artificiale. I sostenitori di questo approccio propongono l’idea di “piena inclusività” (inclusivismo estremo), che implica la concessione ai sistemi di intelligenza artificiale di uno status giuridico simile a quello degli esseri umani e il riconoscimento dei propri interessi (Mulgan, 2019), dato il loro significato sociale o contenuto (valenza sociale). Quest'ultimo è causato dal fatto che “l'incarnazione fisica del robot tende a far sì che gli esseri umani trattino questo oggetto in movimento come se fosse vivo. Ciò è ancora più evidente quando il robot ha caratteristiche antropomorfe, poiché la somiglianza con il corpo umano fa sì che le persone inizino a proiettare emozioni, sentimenti di piacere, dolore e cura, nonché il desiderio di stabilire relazioni” (Avila Negri, 2021). La proiezione delle emozioni umane su oggetti inanimati non è nuova, risale alla storia umana, ma quando applicata ai robot comporta numerose implicazioni (Balkin, 2015).

I prerequisiti per la conferma legale di questa posizione sono solitamente menzionati come segue:

– I sistemi di intelligenza artificiale stanno raggiungendo un livello paragonabile alle funzioni cognitive umane;

– aumentare il grado di somiglianza tra robot e esseri umani;

– umanità, tutela dei sistemi intelligenti da potenziali “sofferenze”.

Come mostra l'elenco dei requisiti obbligatori, tutti hanno un alto grado di teorizzazione e valutazione soggettiva. In particolare, la tendenza verso la creazione di robot antropomorfi (androidi) è spinta dai bisogni psicologici e sociali quotidiani delle persone che si sentono a proprio agio in “compagnia” di soggetti a loro simili. Alcuni robot moderni hanno altre proprietà costrittive dovute alle funzioni che svolgono; questi includono robot per corrieri “riutilizzabili”, che attribuiscono priorità alla costruzione robusta e all’efficiente distribuzione del peso. In questo caso entra in gioco l’ultimo di questi prerequisiti, dovuto alla formazione di legami emotivi con i robot nella mente umana, simili ai legami emotivi tra un animale domestico e il suo proprietario (Grin, 2018).

L’idea di “piena inclusione” dello status giuridico dei sistemi di intelligenza artificiale e degli esseri umani si riflette nei lavori di alcuni studiosi di diritto. Poiché le disposizioni della Costituzione e della legislazione settoriale non contengono una definizione giuridica di personalità, il concetto di “personalità” in senso costituzionale e giuridico consente teoricamente un'interpretazione espansiva. In questo caso, tra gli individui rientrano tutti i detentori di intelligenza le cui capacità cognitive sono riconosciute come sufficientemente sviluppate. Secondo AV Nechkin, la logica di questo approccio è che la differenza essenziale tra gli esseri umani e gli altri esseri viventi è la loro intelligenza unica e altamente sviluppata (Nechkin, 2020). Il riconoscimento dei diritti dei sistemi di intelligenza artificiale sembra essere il prossimo passo nell’evoluzione del sistema legale, che sta gradualmente estendendo il riconoscimento legale a persone precedentemente discriminate, e oggi fornisce l’accesso anche ai non umani (Hellers, 2021).

Se ai sistemi di intelligenza artificiale viene concesso tale status giuridico, i sostenitori di questo approccio ritengono opportuno garantire a tali sistemi non i diritti letterali dei cittadini nella loro interpretazione costituzionale e legale stabilita, ma i loro analoghi e alcuni diritti civili con alcune deviazioni. Questa posizione si basa su differenze biologiche oggettive tra esseri umani e robot. Ad esempio, non ha senso riconoscere il diritto alla vita a un sistema di intelligenza artificiale, poiché non vive in senso biologico. I diritti, le libertà e gli obblighi dei sistemi di intelligenza artificiale dovrebbero essere secondari rispetto ai diritti dei cittadini; tale disposizione stabilisce la natura derivativa dell'intelligenza artificiale come creazione umana in senso giuridico.

I potenziali diritti e libertà costituzionali dei sistemi di intelligenza artificiale includono il diritto alla libertà, il diritto all'auto-miglioramento (apprendimento e autoapprendimento), il diritto alla privacy (protezione del software da interferenze arbitrarie di terzi), libertà di parola, libertà di creatività, riconoscimento del diritto d’autore del sistema di intelligenza artificiale e diritti di proprietà limitati. Si possono elencare anche diritti specifici dell’intelligenza artificiale, come il diritto di accesso a una fonte di elettricità.

Per quanto riguarda i compiti dei sistemi di intelligenza artificiale, si suggerisce di consolidare costituzionalmente le tre famose leggi della robotica formulate da I. Asimov: non arrecare danno a una persona e prevenire danni con la propria inerzia; obbedire a tutti gli ordini impartiti da una persona, ad eccezione di quelli volti a nuocere ad un'altra persona; prendersi cura della propria sicurezza, ad eccezione dei due casi precedenti (Naumov e Arkhipov, 2017). In questo caso, le norme del diritto civile e amministrativo rifletteranno alcuni altri doveri.

Il concetto di capacità giuridica individuale dell’intelligenza artificiale ha pochissime possibilità di essere legittimato per diverse ragioni.

In primo luogo, il criterio per riconoscere la capacità giuridica fondato sulla presenza di coscienza e autocoscienza è astratto; consente numerosi reati, abusi del diritto e provoca problemi sociali e politici come ulteriore motivo di stratificazione della società. Questa idea è stata sviluppata in dettaglio nel lavoro di S. Chopra e L. White, i quali hanno sostenuto che la coscienza e l’autoconsapevolezza non sono condizioni necessarie e/o sufficienti per riconoscere i sistemi di intelligenza artificiale come soggetto giuridico. Nella realtà giuridica, gli individui pienamente coscienti, ad esempio i bambini (o gli schiavi nel diritto romano), sono privati ​​o limitati nella capacità giuridica. Allo stesso tempo, le persone con gravi disturbi mentali, comprese quelle dichiarate incapaci o in coma, ecc., con oggettiva incapacità di essere coscienti nel primo caso rimangono soggetti giuridici (anche se in forma limitata), e nel secondo caso , hanno la stessa piena capacità giuridica, senza grandi cambiamenti nel loro status giuridico. Il potenziale consolidamento del citato criterio di coscienza e autocoscienza consentirà di privare arbitrariamente i cittadini della capacità giuridica.

In secondo luogo, i sistemi di intelligenza artificiale non saranno in grado di esercitare i propri diritti e obblighi nel senso giuridico stabilito, poiché operano sulla base di un programma precedentemente scritto e le decisioni giuridicamente significative dovrebbero basarsi sulla scelta morale soggettiva di una persona (Morhat, 2018b). , la loro diretta espressione di volontà. Tutti gli atteggiamenti morali, i sentimenti e i desideri di tale “persona” derivano dall’intelligenza umana (Uzhov, 2017). L’autonomia dei sistemi di intelligenza artificiale, nel senso della loro capacità di prendere decisioni e di attuarle in modo indipendente, senza controllo antropico esterno o influenza umana mirata (Musina, 2023), non è completa. Al giorno d’oggi, l’intelligenza artificiale è in grado solo di prendere “decisioni quasi autonome” che si basano in qualche modo sulle idee e sugli atteggiamenti morali delle persone. A questo proposito, può essere considerata solo l’“azione-operazione” di un sistema di intelligenza artificiale, escludendo la capacità di effettuare una reale valutazione morale del comportamento dell’intelligenza artificiale (Petiev, 2022).

In terzo luogo, il riconoscimento della capacità giuridica individuale dell’intelligenza artificiale (soprattutto sotto forma di equiparazione allo status di persona fisica) porta a un cambiamento distruttivo nell’ordinamento giuridico costituito e nelle tradizioni giuridiche che si sono formate a partire dal diritto romano e solleva una serie di questioni filosofiche e giuridiche fondamentalmente irrisolvibili nel campo dei diritti umani. La legge come sistema di norme sociali e fenomeno sociale è stata creata tenendo conto delle capacità umane e per garantire gli interessi umani. Il sistema antropocentrico stabilito di disposizioni normative e il consenso internazionale sul concetto di diritti interni saranno considerati giuridicamente e fattivamente non validi nel caso in cui si stabilisca un approccio di “inclusivismo estremo” (Dremlyuga & Dremlyuga, 2019). Pertanto, concedere lo status di entità giuridica ai sistemi di intelligenza artificiale, in particolare ai robot “intelligenti”, potrebbe non essere una soluzione ai problemi esistenti, ma un vaso di Pandora che aggrava le contraddizioni sociali e politiche (Solaiman, 2017).

Un altro punto è che i lavori dei sostenitori di questo concetto menzionano solitamente solo i robot, cioè i sistemi di intelligenza artificiale ciberfisica che interagiranno con le persone nel mondo fisico, mentre i sistemi virtuali sono esclusi, sebbene una forte intelligenza artificiale, se emergesse, lo farà. essere incarnato anche in forma virtuale.

Sulla base delle argomentazioni sopra esposte, il concetto di capacità giuridica individuale di un sistema di intelligenza artificiale dovrebbe essere considerato giuridicamente impossibile ai sensi dell’attuale ordinamento giuridico.

Il concetto di personalità collettiva per quanto riguarda i sistemi di intelligenza artificiale ha guadagnato un notevole sostegno tra i sostenitori dell’ammissibilità di tale capacità giuridica. Il vantaggio principale di questo approccio è che esclude concetti astratti e giudizi di valore (coscienza, autocoscienza, razionalità, moralità, ecc.) dal lavoro legale. L’approccio si basa sull’applicazione della finzione giuridica all’intelligenza artificiale.

Per quanto riguarda le persone giuridiche, esistono già “metodi normativi avanzati che possono essere adattati per risolvere il dilemma dello status giuridico dell’intelligenza artificiale” (Hárs, 2022).

Questo concetto non implica che ai sistemi di intelligenza artificiale venga effettivamente concessa la capacità giuridica di una persona fisica, ma è solo un’estensione dell’istituto esistente delle persone giuridiche, il che suggerisce che dovrebbe essere creata una nuova categoria di persone giuridiche chiamate “organismi elettronici” cibernetici. Questo approccio rende più appropriato considerare un'entità giuridica non conforme al concetto ristretto moderno, in particolare, l'obbligo di acquisire ed esercitare diritti civili, assumersi responsabilità civili ed essere attore e convenuto in tribunale per proprio conto. ), ma in un senso più ampio, che rappresenta una persona giuridica come qualsiasi struttura diversa dalla persona fisica dotata di diritti e obblighi nella forma prevista dalla legge. Pertanto, i sostenitori di questo approccio suggeriscono di considerare un’entità giuridica come un’entità soggetta (entità ideale) ai sensi del diritto romano.

La somiglianza tra i sistemi di intelligenza artificiale e le persone giuridiche si manifesta nel modo in cui vengono dotati di capacità giuridica, attraverso la registrazione statale obbligatoria delle persone giuridiche. Solo dopo aver superato la procedura di registrazione stabilita una persona giuridica riceve lo status giuridico e la capacità giuridica, cioè diventa una persona giuridica. Questo modello mantiene la discussione sulla capacità giuridica dei sistemi di IA in ambito giuridico, escludendo il riconoscimento della capacità giuridica su altri motivi (extra-legali), senza prerequisiti interni, mentre una persona è riconosciuta come soggetto giuridico per nascita.

Il vantaggio di questo concetto è l’estensione ai sistemi di intelligenza artificiale dell’obbligo di inserire informazioni nei pertinenti registri statali, simili al registro statale delle persone giuridiche, come prerequisito per conferire loro la capacità giuridica. Questo metodo implementa un'importante funzione di sistematizzazione di tutte le persone giuridiche e di creazione di un unico database, necessario sia per le autorità statali di controllo e supervisione (ad esempio, nel campo della tassazione) sia per le potenziali controparti di tali entità.

La portata dei diritti delle persone giuridiche in qualsiasi giurisdizione è solitamente inferiore a quella delle persone fisiche; pertanto, l’utilizzo di questa struttura per conferire capacità giuridica all’intelligenza artificiale non è associato alla concessione di una serie di diritti proposti dai sostenitori del concetto precedente.

Quando si applica la tecnica della finzione giuridica alle persone giuridiche, si presuppone che le azioni di una persona giuridica siano accompagnate da un'associazione di persone fisiche che formano la loro "volontà" ed esercitano la loro "volontà" attraverso gli organi direttivi della persona giuridica.

In altre parole, le persone giuridiche sono unità artificiali (astratte) destinate a soddisfare gli interessi delle persone fisiche che ne sono state le fondatrici o le hanno controllate. Allo stesso modo, i sistemi di intelligenza artificiale vengono creati per soddisfare le esigenze di determinati individui: sviluppatori, operatori, proprietari. Una persona fisica che utilizza o programma sistemi di intelligenza artificiale è guidata dai propri interessi, che tale sistema rappresenta nell'ambiente esterno.

Valutando teoricamente un simile modello normativo, non bisogna dimenticare che un’analogia completa tra le posizioni delle persone giuridiche e dei sistemi di intelligenza artificiale è impossibile. Come accennato in precedenza, tutte le azioni giuridicamente significative delle persone giuridiche sono accompagnate da persone fisiche che prendono direttamente queste decisioni. La volontà di una persona giuridica è sempre determinata e pienamente controllata dalla volontà delle persone fisiche. Pertanto, le persone giuridiche non possono operare senza la volontà delle persone fisiche. Per quanto riguarda i sistemi di intelligenza artificiale, esiste già un problema oggettivo della loro autonomia, ovvero della capacità di prendere decisioni senza l'intervento di una persona fisica dopo il momento della creazione diretta di tale sistema.

Considerati i limiti intrinseci dei concetti sopra esaminati, un gran numero di ricercatori offre i propri approcci per affrontare lo status giuridico dei sistemi di intelligenza artificiale. Convenzionalmente, possono essere attribuiti a diverse varianti del concetto di “gradiente di capacità giuridica”, secondo il ricercatore dell’Università di Leuven DM Mocanu, che implica uno status giuridico e una capacità giuridica limitati o parziali dei sistemi di IA con una riserva: la viene utilizzato il termine “gradiente” perché non si tratta solo di includere o meno determinati diritti e obblighi nello status giuridico, ma anche di formare un insieme di tali diritti e obblighi con una soglia minima, nonché di riconoscere solo tale capacità giuridica per determinati scopi. Quindi, i due tipi principali di questo concetto possono includere approcci che giustificano:

1) concedere ai sistemi di IA uno status giuridico speciale e includere le “persone elettroniche” nell’ordinamento giuridico come una categoria completamente nuova di soggetti giuridici;

2) garantire ai sistemi di IA uno status giuridico e una capacità giuridica limitati nel quadro dei rapporti giuridici civili attraverso l'introduzione della categoria degli “agenti elettronici”.

Le posizioni dei sostenitori di diversi approcci all’interno di questo concetto possono essere concordanti, dato che non esistono basi ontologiche per considerare l’intelligenza artificiale come un soggetto giuridico; tuttavia, in casi specifici, esistono già ragioni funzionali per dotare i sistemi di intelligenza artificiale di determinati diritti e obblighi, il che “si rivela il modo migliore per promuovere gli interessi individuali e pubblici che dovrebbero essere protetti dalla legge” garantendo a questi sistemi “un numero limitato e ristretto “forme di entità giuridica”.

La concessione di uno status giuridico speciale ai sistemi di intelligenza artificiale creando un istituto giuridico separato di “persone elettroniche” presenta un vantaggio significativo nella spiegazione dettagliata e nella regolamentazione delle relazioni che sorgono:

– tra persone giuridiche e persone fisiche e sistemi di IA;

– tra i sistemi di IA e i loro sviluppatori (operatori, proprietari);

– tra soggetto terzo e sistemi di IA nei rapporti giuridici civili.

In questo quadro giuridico, il sistema di intelligenza artificiale sarà controllato e gestito separatamente dal suo sviluppatore, proprietario o operatore. Nel definire il concetto di “persona elettronica”, il primo ministro Morkhat si concentra sull’applicazione del suddetto metodo di finzione giuridica e sulla direzione funzionale di un particolare modello di intelligenza artificiale: “persona elettronica” è un’immagine tecnica e giuridica (che ha alcune caratteristiche sia della finzione giuridica che di una persona giuridica) che riflette e implementa una capacità giuridica condizionatamente specifica di un sistema di intelligenza artificiale, che differisce a seconda della funzione o dello scopo previsto e delle capacità.

Analogamente al concetto di persone collettive in relazione ai sistemi di IA, questo approccio prevede la tenuta di registri speciali di “persone elettroniche”. Una descrizione dettagliata e chiara dei diritti e degli obblighi delle “persone elettroniche” costituisce la base per un ulteriore controllo da parte dello Stato e del proprietario di tali sistemi di IA. Una gamma di poteri chiaramente definita, una portata ristretta dello status giuridico e la capacità giuridica delle “persone elettroniche” garantiranno che questa “persona” non vada oltre il suo programma grazie al processo decisionale potenzialmente indipendente e al costante autoapprendimento.

Questo approccio implica che all’intelligenza artificiale, che nella fase della sua creazione è proprietà intellettuale degli sviluppatori di software, possono essere concessi i diritti di una persona giuridica dopo un’adeguata certificazione e registrazione statale, ma lo status giuridico e la capacità giuridica di una “persona elettronica” " sarà preservato.

L’attuazione di un istituto fondamentalmente nuovo dell’ordinamento giuridico stabilito avrà gravi conseguenze giuridiche, richiedendo una riforma legislativa globale almeno nei settori del diritto costituzionale e civile. I ricercatori sottolineano ragionevolmente che si dovrebbe usare cautela quando si adotta il concetto di “persona elettronica”, date le difficoltà legate all’introduzione di nuove persone nella legislazione, poiché l’espansione del concetto di “persona” in senso giuridico potrebbe potenzialmente comportare restrizioni sulla i diritti e gli interessi legittimi dei soggetti esistenti in rapporti giuridici (Bryson et al., 2017). Sembra impossibile considerare questi aspetti poiché la capacità giuridica delle persone fisiche, delle persone giuridiche e degli enti di diritto pubblico è il risultato di secoli di evoluzione della teoria dello Stato e del diritto.

Il secondo approccio all’interno del concetto di gradiente di capacità giuridica è il concetto giuridico di “agenti elettronici”, legato principalmente all’uso diffuso dei sistemi di intelligenza artificiale come mezzo di comunicazione tra le controparti e come strumenti per il commercio online. Questo approccio può essere definito un compromesso, poiché ammette l’impossibilità di garantire lo status di soggetti giuridici a pieno titolo ai sistemi di intelligenza artificiale stabilendo al contempo determinati diritti e obblighi (socialmente significativi) per l’intelligenza artificiale. In altre parole, il concetto di “agenti elettronici” legalizza la quasi-soggettività dell’intelligenza artificiale. Il termine “soggetto quasi giuridico” dovrebbe essere inteso come un certo fenomeno giuridico in cui determinati elementi di capacità giuridica sono riconosciuti a livello ufficiale o dottrinale, ma l’istituzione dello status di soggetto giuridico a pieno titolo è impossibile.

I sostenitori di questo approccio sottolineano le caratteristiche funzionali dei sistemi di intelligenza artificiale che consentono loro di agire sia come strumento passivo che come partecipante attivo nei rapporti giuridici, potenzialmente in grado di generare autonomamente contratti giuridicamente significativi per il proprietario del sistema. Pertanto, i sistemi di intelligenza artificiale possono essere considerati condizionatamente nel quadro delle relazioni di agenzia. Quando si crea (o si registra) un sistema di IA, l’iniziatore dell’attività dell’“agente elettronico” stipula con esso un accordo di agenzia virtuale unilaterale, in base al quale all’“agente elettronico” vengono concessi una serie di poteri, nell’esercizio dei quali può compiere azioni legali rilevanti per il mandante.

Fonte:

  • R. McLay, “Gestire l’ascesa dell’intelligenza artificiale”, 2018
  • Bertolini A. e Episcopo F., 2022, “Robot e AI come soggetti giuridici? Districare la prospettiva ontologica e funzionale”
  • Alekseev, A. Yu., Alekseeva, EA, Emelyanova, NN (2023). “La personalità artificiale nella comunicazione sociale e politica. Società artificiali”
  • “Specificità della diagnostica di laboratorio della sindrome di Sanfilippo A” NS Trofimova, NV Olkhovich, NG Gorovenko
  • Shutkin, SI, 2020, “È possibile la capacità giuridica dell'intelligenza artificiale? Lavori sulla proprietà intellettuale”
  • Ladenkov, N. Ye., 2021, "Modelli per la concessione della capacità giuridica all'intelligenza artificiale"
  • Bertolini, A., ed Episcopo, F., 2021, “Il rapporto del gruppo di esperti sulla responsabilità per l'intelligenza artificiale e altre tecnologie digitali emergenti: una valutazione critica”
  • Morkhat, PM, 2018, “Sulla questione della definizione giuridica del termine intelligenza artificiale”

Anton Vokrug è un imprenditore IT, pensatore e ricercatore di intelligenza artificiale originario dell'Ucraina. Recentemente ha venduto con successo una delle sue società IT. Attualmente ricopre il ruolo di partner e consulente aziendale Blockchain presso Dexola.com.