Lideri de opinie
Inteligența Artificială și Identitatea Juridică

Acest articol se concentrează pe problema acordării statutului de subiect juridic inteligenței artificiale (IA), în special pe baza dreptului civil. Identitatea juridică este definită aici ca un concept integral termenului de capacitate juridică; cu toate acestea, acest lucru nu implică acceptarea faptului că subiectivitatea morală este aceeași cu personalitatea morală. Identitatea juridică este un atribut complex care poate fi recunoscut pentru anumite subiecte sau atribuit altora.
Cred că acest atribut este gradat, discret, discontinuu, multifacetat și schimbător. Acest lucru înseamnă că poate conține mai multe sau mai puține elemente de diferite tipuri (de exemplu, îndatoriri, drepturi, competențe etc.), care în majoritatea cazurilor pot fi adăugate sau eliminate de legiuitor; drepturile omului, care, conform opiniei comune, nu pot fi lipsite, sunt excepția.
În prezent, omenirea se confruntă cu o perioadă de transformare socială legată de înlocuirea unui mod tehnologic cu altul; mașinile și software-urile “inteligente” învață foarte repede; sistemele de inteligență artificială sunt din ce în ce mai capabile să înlocuiască oamenii în multe activități. Una dintre problemele care apar din ce în ce mai frecvent din cauza îmbunătățirii tehnologiilor de inteligență artificială este recunoașterea sistemelor inteligente artificiale ca subiecte juridice, deoarece au atins nivelul de a lua decizii complet autonome și potențial de a manifesta “voință subiectivă”. Această problemă a fost ridicată ipotetic în secolul al XX-lea. În secolul al XXI-lea, dezbaterea științifică evoluează constant, ajungând la extreme opuse cu fiecare introducere a noilor modele de inteligență artificială în practică, cum ar fi apariția mașinilor autonome pe străzi sau prezentarea roboților cu un set nou de funcții.
Problema juridică a determinării statutului inteligenței artificiale este de natură teoretică generală, care este cauzată de imposibilitatea obiectivă de a prezice toate rezultatele posibile ale dezvoltării noilor modele de inteligență artificială. Cu toate acestea, sistemele de inteligență artificială (sistemele IA) sunt deja participanți actuali în anumite relații sociale, ceea ce necesită stabilirea “reperelor”, adică rezolvarea problemelor fundamentale în acest domeniu în scopul consolidării legislative și, astfel, reducerea incertitudinii în prezicerea dezvoltării relațiilor care implică sisteme de inteligență artificială în viitor.
Problema identității presupuse a inteligenței artificiale ca obiect de cercetare, menționată în titlul articolului, nu acoperă toate sistemele de inteligență artificială, inclusiv mulți “asistenți electronici” care nu pretind a fi entități juridice. Setul lor de funcții este limitat, și reprezintă o inteligență artificială slabă (slabă). Ne vom referi mai degrabă la “mașini inteligente” (sisteme cibernetice inteligente) și la modele generative de sisteme virtuale inteligente, care se apropie din ce în ce mai mult de inteligența artificială generală (puternică) comparabilă cu inteligența umană și, în viitor, chiar o va depăși.
Până în 2023, problema creării inteligenței artificiale puternice a fost ridicată de urgență de rețelele neuronale multimodale, cum ar fi ChatGPT, DALL-e și altele, ale căror capacități intelectuale sunt îmbunătățite prin creșterea numărului de parametri (modalități de percepție, inclusiv cele inaccesibile oamenilor), precum și prin utilizarea unor cantități mari de date pentru antrenament pe care oamenii nu le pot procesa fizic. De exemplu, modelele generative multimodale de rețele neuronale pot produce astfel de imagini, texte literare și științifice, încât nu este întotdeauna posibil să se determine dacă au fost create de un om sau de un sistem de inteligență artificială.
Experții IT subliniază două salturi calitative: un salt de viteză (frecvența apariției unor modele complet noi), care este acum măsurat în luni, și nu în ani, și un salt de volatilitate (imposibilitatea de a prezice cu exactitate ce poate să se întâmple în domeniul inteligenței artificiale, chiar și până la sfârșitul anului). Modelul ChatGPT-3 (a treia generație a algoritmului de procesare a limbajului natural de la OpenAI) a fost introdus în 2020 și putea procesa text, în timp ce următoarea generație de modele, ChatGPT-4, lansat de producător în martie 2023, poate “lucra” nu numai cu texte, ci și cu imagini, și următoarea generație de modele este în curs de învățare și va fi capabilă de și mai mult.
Cu câțiva ani în urmă, momentul anticipat al singularității tehnologice, când dezvoltarea mașinilor devine virtual imposibil de controlat și ireversibilă, schimbând dramatic civilizația umană, era considerat a fi cel puțin în câteva decenii, dar în prezent, tot mai mulți cercetători cred că acest lucru poate să se întâmple mult mai repede. Acest lucru implică apariția așa-numitei inteligențe artificiale puternice, care va demonstra capacități comparabile cu inteligența umană și va fi capabilă să rezolve o gamă similară sau chiar mai largă de sarcini. În contrast cu inteligența artificială slabă, inteligența artificială puternică va avea conștientizare, însă una dintre condițiile esențiale pentru apariția conștientizării în sistemele inteligente este capacitatea de a efectua un comportament multimodal, integrând date din diferite modalități senzoriale (text, imagine, video, sunet etc.), “conectând” informații de diferite modalități la realitate și creând metafore “holistice” complete, inerente oamenilor.
În martie 2023, peste o mie de cercetători, experți IT și antreprenori în domeniul inteligenței artificiale au semnat o scrisoare deschisă publicată pe site-ul Institutului pentru Viitorul Vieții, un centru de cercetare american specializat în investigarea riscurilor existențiale pentru omenire. Scrisoarea cere suspendarea antrenamentului noilor modele de rețele neuronale generative multimodale, deoarece lipsa unor protocoale de securitate unificate și vidul juridic sporesc semnificativ riscurile, având în vedere că viteza de dezvoltare a inteligenței artificiale a crescut dramatic din cauza “revoluției ChatGPT”. De asemenea, s-a remarcat că modelele de inteligență artificială au dezvoltat capacități neexplicate, care nu au fost intenționate de dezvoltatorii lor, și că partea acestor capacități va crește, probabil, treptat.
Este posibil să se împiedice dezvoltarea inteligenței artificiale, astfel încât omenirea să poată se adapte la noile condiții? În teorie, da, dacă toate statele facilitează acest lucru prin legislația națională. Vor face acest lucru? Pe baza strategiilor naționale publicate, nu; dimpotrivă, fiecare stat își propune să câștige concurența (să mențină leadershipul sau să îl reducă).
Capacitățile inteligenței artificiale atrag antreprenorii, astfel încât afacerile investesc masiv în noi dezvoltări, iar succesul fiecărui model nou impulsionează procesul. Investițiile anuale cresc, luând în considerare atât investițiile private, cât și cele de stat în dezvoltare; piața globală a soluțiilor de inteligență artificială este estimată la sute de miliarde de dolari. Conform prognozelor, în special celor conținute în Rezoluția Parlamentului European “Cu privire la Inteligența Artificială în Era Digitală” din 3 mai 2022, contribuția inteligenței artificiale la economia globală va depăși 11 trilioane de euro până în 2030.
Practica orientată spre afaceri duce la implementarea tehnologiilor de inteligență artificială în toate sectoarele economiei. Inteligența artificială este utilizată atât în industria extractivă, cât și în cea de prelucrare (metalurgie, industrie chimică, inginerie, prelucrarea metalelor etc.). Este aplicată pentru a prezice eficiența produselor dezvoltate, a automatiza liniile de asamblare, a reduce rebuturile, a îmbunătăți logistica și a preveni întreruperile.
Utilizarea inteligenței artificiale în transport implică atât vehicule autonome, cât și optimizarea rutelor prin prezicerea fluxurilor de trafic, precum și asigurarea siguranței prin prevenirea situațiilor periculoase. Admiterea mașinilor autonome pe drumurile publice este o problemă de dezbatere intensă în parlamentele din întreaga lume.
În domeniul bancar, sistemele de inteligență artificială au înlocuit aproape complet oamenii în evaluarea bonității creditare a împrumutaților; ele sunt utilizate din ce în ce mai mult pentru a dezvolta noi produse bancare și a îmbunătăți securitatea tranzacțiilor bancare.
Tehnologiile de inteligență artificială preiau controlul nu numai asupra afacerilor, ci și asupra sferei sociale: sănătate, educație și ocuparea forței de muncă. Aplicarea inteligenței artificiale în medicină permite o mai bună diagnosticare, dezvoltarea de noi medicamente și intervenții chirurgicale asistate de roboți; în educație, permite lecții personalizate, evaluarea automată a elevilor și a expertizei profesorilor.
Astăzi, ocuparea forței de muncă se schimbă din ce în ce mai mult din cauza creșterii exponențiale a ocupării forței de muncă pe platforme. Conform Organizației Internaționale a Muncii, partea oamenilor care lucrează prin platforme digitale de muncă, augmentate de inteligență artificială, crește constant în întreaga lume. Ocuparea forței de muncă pe platforme nu este singurul component al transformării forței de muncă; nivelul tot mai ridicat de robotizare a producției are, de asemenea, un impact semnificativ. Conform Federației Internaționale a Roboților, numărul de roboți industriali continuă să crească în întreaga lume, cu cel mai rapid ritm de robotizare observat în Asia, în special în China și Japonia.
Într-adevăr, capacitățile inteligenței artificiale de a analiza date utilizate pentru managementul producției, analiza diagnostică și previziunea sunt de mare interes pentru guverne. Inteligența artificială este implementată în administrația publică. În prezent, se intensifică eforturile de a crea platforme digitale pentru servicii publice și de a automatiza multe procese legate de luarea deciziilor de către agențiile guvernamentale.
Conceptele de “personalitate artificială” și “societate artificială” sunt menționate din ce în ce mai frecvent în discursul public; acest lucru demonstrează că dezvoltarea și implementarea sistemelor inteligente s-au mutat de la un domeniu pur tehnic la cercetarea diverselor modalități de integrare în activitățile umanitare și socioculturale.
Având în vedere cele de mai sus, se poate afirma că inteligența artificială devine din ce în ce mai profund integrată în viața oamenilor. Prezența sistemelor de inteligență artificială în viețile noastre va deveni din ce în ce mai evidentă în anii următori; aceasta va crește atât în mediul de lucru, cât și în spațiul public, în servicii și acasă. Inteligența artificială va oferi din ce în ce mai multe rezultate eficiente prin automatizarea inteligentă a diverselor procese, creând astfel noi oportunități și punând noi amenințări pentru indivizi, comunități și state.
Pe măsură ce nivelul intelectual crește, sistemele de inteligență artificială vor deveni inevitabil o parte integrantă a societății; oamenii vor trebui să coexiste cu ele. O astfel de simbioză va implica cooperarea dintre oameni și “mașini inteligente”, ceea ce, conform economistului laureat cu Premiul Nobel J. Stiglitz, va duce la transformarea civilizației (Stiglitz, 2017). Chiar și astăzi, conform unor avocați, “pentru a îmbunătăți bunăstarea umană, legea nu ar trebui să facă distincție între activitățile oamenilor și cele ale inteligenței artificiale atunci când oamenii și inteligența artificială efectuează aceleași sarcini” (Abbott, 2020). De asemenea, ar trebui luat în considerare faptul că dezvoltarea roboților umanoizi, care dobândesc o fiziologie tot mai asemănătoare cu cea a oamenilor, va duce, printre altele, la îndeplinirea rolurilor de gen ca parteneri în societate (Karnouskos, 2022).
Statele trebuie să-și adapteze legislația la relațiile sociale în schimbare: numărul legilor menite să reglementeze relațiile care implică sisteme de inteligență artificială crește rapid în întreaga lume. Conform Raportului AI Index 2023 al Universității Stanford, în timp ce în 2016 a fost adoptată doar o lege, în 2018 au fost 12, în 2021 – 18, și în 2022 – 37. Acest lucru a determinat Organizația Națiunilor Unite să definească o poziție cu privire la etica utilizării inteligenței artificiale la nivel global. În septembrie 2022, a fost publicat un document care conținea principiile utilizării etice a inteligenței artificiale și s-a bazat pe Recomandările cu privire la Etica Inteligenței Artificiale adoptate cu un an înainte de Conferința Generală a UNESCO. Cu toate acestea, ritmul de dezvoltare și implementare a tehnologiilor de inteligență artificială este mult mai rapid decât ritmul schimbărilor legislative corespunzătoare.
Concepte de bază ale capacității juridice a inteligenței artificiale
Luând în considerare conceptele de acordare potențială a capacității juridice sistemelor intelectuale, se recunoaște că implementarea oricăreia dintre aceste abordări va necesita o reconstrucție fundamentală a teoriei generale a dreptului și modificări ale unor prevederi din anumite ramuri ale dreptului. Se subliniază că susținătorii diferitelor puncte de vedere adesea folosesc termenul “persoană electronică”, astfel încât utilizarea acestui termen nu permite să se determine care concept este susținut de autorul lucrării fără a citi lucrarea însăși.
Abordarea cea mai radicală și, evident, cea mai puțin populară în cercurile științifice este conceptul capacității juridice individuale a inteligenței artificiale. Susținătorii acestei abordări propun ideea de “includere deplină” (inclusivism extrem), care implică acordarea sistemelor de inteligență artificială a unui statut juridic similar cu cel al oamenilor, precum și recunoașterea intereselor proprii (Mulgan, 2019), având în vedere semnificația lor socială sau conținutul social (valență socială). Acest lucru se datorează faptului că “încarnarea fizică a robotului are tendința de a face oamenii să trateze acest obiect în mișcare ca și cum ar fi viu. Acest lucru este și mai evident atunci când robotul are caracteristici antropomorfe, deoarece asemănarea cu corpul uman face oamenii să proiecteze emoții, sentimente de plăcere, durere și grijă, precum și dorința de a stabili relații” (Avila Negri, 2021). Proiectarea emoțiilor umane pe obiecte inanimate nu este nouă, datând de la începuturile istoriei umane, dar atunci când se aplică roboților, aceasta implică numeroase implicații (Balkin, 2015).
Premisele pentru confirmarea juridică a acestei poziții sunt de obicei menționate astfel:
– sistemele de inteligență artificială ating un nivel comparabil cu funcțiile cognitive umane;
– creșterea gradului de asemănare dintre roboți și oameni;
– protecția oamenilor, protejarea sistemelor inteligente de potențială “suferință”.
După cum se arată din lista cerințelor obligatorii, toate au un nivel ridicat de teoretizare și evaluare subiectivă. În special, tendința de a crea roboți antropomorfi (androizi) este dictată de nevoile psihologice și sociale zilnice ale oamenilor care se simt confortabil în “compania” subiectelor asemănătoare lor. Unii roboți moderni au alte proprietăți restrictive datorită funcțiilor pe care le îndeplinesc; acestea includ roboți de curierat “reutilizabili”, care acordă prioritate construcției robuste și distribuției eficiente a greutății. În acest caz, se pune în joc ultima dintre aceste premise, datorită formării legăturilor emoționale cu roboții în mintea umană, asemănătoare legăturilor emoționale dintre un animal de companie și stăpânul său (Grin, 2018).
Ideea “includerii depline” a statutului juridic al sistemelor de inteligență artificială și al oamenilor este reflectată în lucrările unor savanți în drept. Deoarece prevederile Constituției și legislației sectoriale nu conțin o definiție juridică a personalității, conceptul de “personalitate” în sensul constituțional și juridic permite, teoretic, o interpretare extinsă. În acest caz, persoanele ar include orice deținători de inteligență ale căror capacități cognitive sunt recunoscute ca fiind suficient de dezvoltate. Conform lui A.V. Nechkin, logica acestei abordări constă în faptul că diferența esențială dintre oameni și alte ființe vii constă în inteligența lor unică, foarte dezvoltată (Nechkin, 2020). Recunoașterea drepturilor sistemelor de inteligență artificială pare a fi următorul pas în evoluția sistemului juridic, care extinde treptat recunoașterea juridică la persoanele anterior discriminate și astăzi oferă acces și ne-umane (Hellers, 2021).
Dacă sistemele de inteligență artificială primesc un astfel de statut juridic, susținătorii acestei abordări consideră că este oportun să li se acorde acestor sisteme nu drepturi de cetățean în interpretarea lor constituțională și juridică stabilită, ci analogi și anumite drepturi civile cu unele abateri. Această poziție se bazează pe diferențele biologice obiective dintre oameni și roboți. De exemplu, nu are sens să se recunoască dreptul la viață pentru un sistem de inteligență artificială, deoarece nu trăiește în sens biologic. Drepturile, libertățile și obligațiile sistemelor de inteligență artificială ar trebui să fie secundare în comparație cu drepturile cetățenilor; această prevedere stabilește natura derivată a inteligenței artificiale ca o creație umană în sensul juridic.
Drepturile și libertățile constituționale potențiale ale sistemelor de inteligență artificială includ dreptul la libertate, dreptul la autoperfecționare (învățare și autoînvățare), dreptul la intimitate (protejarea software-ului de interferența arbitrară a terților), libertatea de exprimare, libertatea de creație, recunoașterea drepturilor de autor ale sistemului de inteligență artificială și drepturi de proprietate limitate. De asemenea, pot fi enumerate drepturi specifice ale inteligenței artificiale, cum ar fi dreptul de acces la o sursă de energie electrică.
În ceea ce privește îndatoririle sistemelor de inteligență artificială, se sugerează că cele trei legi bine cunoscute ale roboticii formulate de I. Asimov ar trebui să fie consolidate constituțional: a nu face rău unei persoane și a preveni răul prin inacțiunea proprie; a asculta toate ordinele date de o persoană, cu excepția celor menite să dăuneze altor persoane; a-și proteja propria siguranță, cu excepția celor două cazuri anterioare (Naumov și Arkhipov, 2017). În acest caz, regulile dreptului civil și administrativ vor reflecta și alte îndatoriri.
Conceptul capacității juridice individuale a inteligenței artificiale are foarte puține șanse de a fi legitimat din mai multe motive.
Mai întâi, criteriul de recunoaștere a capacității juridice pe baza prezenței conștientizării și a autoconștientizării este abstract; el permite numeroase abuzuri, încălcări ale legii și provoacă probleme sociale și politice ca motiv suplimentar pentru stratificarea societății. Această idee a fost dezvoltată în detaliu în lucrarea lui S. Chopra și L. White, care au argumentat că conștientizarea și autoconștientizarea nu sunt condiții necesare și/sau suficiente pentru recunoașterea sistemelor de inteligență artificială ca subiecte juridice. În realitatea juridică, indivizi complet conștienți, de exemplu, copiii (sau sclavii în dreptul roman), sunt lipsiți sau limitați în capacitatea juridică. În același timp, persoanele cu tulburări mintale severe, inclusiv cele declarate incapabile sau în comă etc., cu o incapacitate obiectivă de a fi conștiente în primul caz, rămân subiecte juridice (chiar dacă într-o formă limitată), iar în al doilea caz, au aceeași capacitate juridică deplină, fără schimbări majore în statutul lor juridic. Consolidarea criteriului menționat al conștientizării și autoconștientizării va permite să se priveze în mod arbitrar cetățenii de capacitatea juridică.
În al doilea rând, sistemele de inteligență artificială nu vor putea exercita drepturile și îndatoririle lor în sensul juridic stabilit, deoarece ele funcționează pe baza unui program scris anterior, iar deciziile juridic semnificative ar trebui să se bazeze pe alegerea morală subiectivă a unei persoane (Morhat, 2018b), pe exprimarea directă a voinței sale. Toate atitudinile morale, sentimentele și dorințele unei astfel de “persoane” devin derivate din inteligența umană (Uzhov, 2017). Autonomia sistemelor de inteligență artificială în sensul capacității lor de a lua decizii și de a le pune în aplicare independent, fără control antropogenic extern sau influență umană țintită (Musina, 2023), nu este cuprinzătoare. În prezent, inteligența artificială este capabilă doar să ia “decizii cu adevărat autonome” care sunt într-un fel bazate pe ideile și atitudinile morale ale oamenilor. În acest sens, se poate considera doar “acțiunea-operațiunea” unui sistem de inteligență artificială, excluzând posibilitatea unei evaluări morale reale a comportamentului inteligenței artificiale (Petiev, 2022).
În al treilea rând, recunoașterea capacității juridice individuale a inteligenței artificiale (în special sub forma egalării cu statutul unei persoane fizice) duce la o schimbare destructivă a ordinii juridice stabilite și a tradițiilor juridice care s-au format de la dreptul roman și ridică o serie de probleme filosofice și juridice fundamentale și de nerezolvat în domeniul drepturilor omului. Dreptul, ca sistem de norme sociale și fenomen social, a fost creat ținând cont de capacitățile umane și pentru a asigura interesele umane. Sistemul antropocentric stabilit de norme normative, consensul internațional cu privire la conceptul de drepturi interne va fi considerat juridic și factual invalid în cazul stabilirii unei abordări de “inclusivism extrem” (Dremlyuga & Dremlyuga, 2019). Prin urmare, acordarea statutului de entitate juridică sistemelor de inteligență artificială, în special “roboților inteligenți”, nu poate fi o soluție pentru problemele existente, ci o cutie a Pandorei care agravează contradicțiile sociale și politice (Solaiman, 2017).
Un alt aspect este acela că lucrările susținătorilor acestui concept menționează, de obicei, doar roboți, adică sisteme de inteligență artificială cibernetico-fizică care vor interacționa cu oamenii în lumea fizică, în timp ce sistemele virtuale sunt excluse, deși inteligența artificială puternică, dacă va apărea, va fi încarnată într-o formă virtuală, de asemenea.
Pe baza argumentelor de mai sus, conceptul capacității juridice individuale a sistemului de inteligență artificială ar trebui considerat ca fiind juridic imposibil în cadrul actual al ordinii juridice.
Conceptul personalității colective în ceea ce privește sistemele de inteligență artificială a câștigat un sprijin considerabil printre susținătorii admisibilității unei astfel de capacități juridice. Principalul avantaj al acestei abordări constă în faptul că exclude conceptele abstracte și judecățile de valoare (conștientizarea, autoconștientizarea, raționalitatea, moralitatea etc.) din activitatea juridică. Abordarea se bazează pe aplicarea ficțiunii juridice la inteligența artificială.
În ceea ce privește entitățile juridice, există deja “metode avansate de reglementare care pot fi adaptate pentru a rezolva dilema statutului juridic al inteligenței artificiale” (Hárs, 2022).
Acest concept nu implică faptul că sistemele de inteligență artificială primesc în realitate capacitatea juridică a unei persoane fizice, ci doar o extindere a instituției existente a entităților juridice, care sugerează că ar trebui creată o nouă categorie de entități juridice numite “organisme electronice cibernetice”. Această abordare face mai potrivit să se considere o entitate juridică nu în conformitate cu conceptul modern îngust, în special obligația că poate dobândi și exercita drepturi civile, suporta răspunderi civile și poate fi reclamant și pârât în instanță în nume propriu), ci într-un sens mai larg, care reprezintă o entitate juridică ca orice structură, alta decât o persoană fizică, înzestrată cu drepturi și îndatoriri în forma prevăzută de lege. Astfel, susținătorii acestei abordări sugerează să se considere o entitate juridică ca o entitate subiect (entitate ideală) în conformitate cu dreptul roman.
Asemănarea dintre sistemele de inteligență artificială și entitățile juridice se manifestă în modul în care acestea sunt înzestrate cu capacitate juridică – prin înregistrarea obligatorie a entităților juridice de stat. Doar după trecerea procedurii de înregistrare stabilite, o entitate juridică primește statut juridic și capacitate juridică, adică devine subiect juridic. Acest model ține discuțiile despre capacitatea juridică a sistemelor de inteligență artificială în domeniul juridic, excluzând recunoașterea capacității juridice pe alte (extra-juridice) motive, fără premise interne, în timp ce o persoană este recunoscută ca subiect juridic prin naștere.
Avantajul acestui concept constă în extinderea cerinței de a introduce informații în registrele de stat relevante, similare cu registrul de stat al entităților juridice, ca o condiție prealabilă pentru acordarea capacității juridice sistemelor de inteligență artificială. Această metodă implementează o funcție importantă de sistematizare a tuturor entităților juridice și creare a unei baze de date unice, care este necesară atât pentru autoritățile de stat pentru control și supraveghere (de exemplu, în domeniul fiscal), cât și pentru potențialii contractanți ai acestor entități.
Sfera drepturilor entităților juridice în orice jurisdicție este, de obicei, mai mică decât cea a persoanelor fizice; prin urmare, utilizarea acestei structuri pentru acordarea capacității juridice inteligenței artificiale nu este asociată cu acordarea unui număr de drepturi propuse de susținătorii conceptului anterior.
Atunci când se aplică tehnica ficțiunii juridice la entitățile juridice, se presupune că acțiunile unei entități juridice sunt însoțite de o asociere de persoane fizice care formează “voința” și exercită “voința” lor prin organele de conducere ale entității juridice.
În alte cuvinte, entitățile juridice sunt unități artificiale (abstracte) proiectate pentru a satisface interesele persoanelor fizice care au acționat ca fondatori sau le-au controlat. La fel, sistemele de inteligență artificială sunt create pentru a satisface nevoile anumitor indivizi – dezvoltatori, operatori, proprietari. O persoană fizică care utilizează sau programează sisteme de inteligență artificială este ghidată de propriile interese, pe care acest sistem le reprezintă în mediul extern.
Evaluând un astfel de model de reglementare în teorie, nu trebuie să uităm că o analogie completă între pozițiile entităților juridice și sistemele de inteligență artificială este imposibilă. Așa cum s-a menționat anterior, toate acțiunile juridic semnificative ale entităților juridice sunt însoțite de persoane fizice care iau direct aceste decizii. Voința unei entități juridice este întotdeauna determinată și controlată de voința persoanelor fizice. Astfel, entitățile juridice nu pot funcționa fără voința persoanelor fizice. În ceea ce privește sistemele de inteligență artificială, există deja o problemă obiectivă a autonomiei, adică a capacității de a lua decizii fără intervenția unei persoane fizice după momentul creării directe a unui astfel de sistem.
Având în vedere limitările inerente ale conceptelor examinate mai sus, o mulțime de cercetători oferă abordări proprii pentru rezolvarea statutului juridic al sistemelor de inteligență artificială. Convențional, acestea pot fi atribuite diferitelor variante ale conceptului de “capacitate juridică gradient”, conform cercetătorului de la Universitatea din Leuven D.M. Mocanu, care implică un statut juridic limitat sau parțial și capacitatea juridică a sistemelor de inteligență artificială, cu rezerva: termenul “gradient” este utilizat deoarece nu este vorba doar despre includerea sau excluderea anumitor drepturi și îndatoriri în statutul juridic, ci și despre formarea unui set de astfel de drepturi și îndatoriri cu un prag minim, precum și despre recunoașterea capacității juridice doar pentru anumite scopuri. Atunci, cele două tipuri principale ale acestui concept pot include abordări care justifică:
1) acordarea sistemelor de inteligență artificială a unui statut juridic special și includerea “persoanelor electronice” în ordinea juridică ca o categorie complet nouă de subiecte juridice;
2) acordarea sistemelor de inteligență artificială a unui statut juridic limitat și capacității juridice în cadrul relațiilor juridice civile prin introducerea categoriei de “agenți electronici”.
Poziția susținătorilor diferitelor abordări în cadrul acestui concept poate fi unită, având în vedere că nu există motive ontologice pentru a considera inteligența artificială ca subiect juridic; cu toate acestea, în cazuri specifice, există deja motive funcționale pentru a înzestra sistemele de inteligență artificială cu anumite drepturi și îndatoriri, care “demonstrează cel mai bun mod de a promova interesele individuale și publice care ar trebui protejate de lege” prin acordarea acestor sisteme “forme limitate și înguste” de entitate juridică.
Acordarea unui statut juridic special sistemelor de inteligență artificială prin stabilirea unei instituții juridice separate de “persoane electronice” are un avantaj semnificativ în explicarea și reglementarea detaliată a relațiilor care apar:
– între entitățile juridice și persoanele fizice și sistemele de inteligență artificială;
– între sistemele de inteligență artificială și dezvoltatorii (operatorii, proprietarii);
– între o parte terță și sistemele de inteligență artificială în relații juridice civile.
În acest cadru juridic, sistemul de inteligență artificială va fi controlat și gestionat separat de dezvoltatorul, proprietarul sau operatorul său. La crearea (sau înregistrarea) unui sistem de inteligență artificială, inițiatorul activității “agentului electronic” încheie un acord unilateral de agent virtual cu acesta, în urma căruia “agentul electronic” primește o serie de puteri, exercitându-le pe care poate efectua acțiuni juridice semnificative pentru principal.
Similar conceptului de persoane colective în ceea ce privește sistemele de inteligență artificială, această abordare implică păstrarea unor registre speciale de “persoane electronice”. O descriere detaliată și clară a drepturilor și îndatoririlor “persoanelor electronice” este baza pentru controlul ulterioară de către stat și proprietarul unor astfel de sisteme de inteligență artificială. O gamă bine definită de puteri, o sferă îngustă de statut juridic și capacitatea juridică a “persoanelor electronice” vor asigura că această “persoană” nu va depăși programul său din cauza deciziilor potențial independente și a învățării continue.
Această abordare implică faptul că inteligența artificială, care, în stadiul creării sale, este proprietatea intelectuală a dezvoltatorilor de software, poate primi drepturile unei entități juridice după certificarea și înregistrarea de stat corespunzătoare, dar statutul juridic și capacitatea juridică a “persoanei electronice” vor fi păstrate.
Implementarea unei instituții fundamental noi a ordinii juridice existente va avea consecințe juridice grave, necesitând o reformă legislativă cuprinzătoare, cel puțin în domeniile dreptului constituțional și civil. Cercetătorii subliniază în mod rezonabil că ar trebui să se exercite prudență la adoptarea conceptului de “persoană electronică”, având în vedere dificultățile de introducere a noilor persoane în legislație, deoarece extinderea conceptului de “persoană” în sensul juridic poate duce în mod potențial la restricționarea drepturilor și intereselor legitime ale subiectelor existente ale relațiilor juridice (Bryson et al., 2017). Se pare că este imposibil să se ia în considerare aceste aspecte, deoarece capacitatea juridică a persoanelor fizice, entităților juridice și entităților de drept public este rezultatul evoluției seculare a teoriei statului și dreptului.
A doua abordare în cadrul conceptului de capacitate juridică gradient este conceptul juridic de “agenți electronici”, în primul rând legat de utilizarea pe scară largă a sistemelor de inteligență artificială ca mijloc de comunicare între părți și ca instrumente pentru comerțul online. Această abordare poate fi numită o compromis, deoarece admite imposibilitatea acordării statutului de subiecte juridice depline sistemelor de inteligență artificială, dar stabilește anumite drepturi și îndatoriri (social semnificative) pentru inteligența artificială. În alte cuvinte, conceptul de “agenți electronici” legalizează cuasi-subiectivitatea inteligenței artificiale. Termenul “subiect juridic cuasi” ar trebui înțeles ca un anumit fenomen juridic, în care anumite elemente ale capacității juridice sunt recunoscute la nivel oficial sau doctrinar, dar stabilirea statutului de subiect juridic deplin este imposibilă.
Susținătorii acestei abordări subliniază caracteristicile funcționale ale sistemelor de inteligență artificială, care le permit să acționeze atât ca un instrument pasiv, cât și ca participant activ în relațiile juridice, capabil să genereze în mod independent contracte juridic semnificative pentru proprietarul sistemului. Prin urmare, sistemele de inteligență artificială pot fi considerate condiționat în cadrul relațiilor de agent. La crearea (sau înregistrarea) unui sistem de inteligență artificială, inițiatorul activității “agentului electronic” încheie un acord unilateral de agent virtual cu acesta, în urma căruia “agentul electronic” primește o serie de puteri, exercitându-le pe care poate efectua acțiuni juridice semnificative pentru principal.






