ciot Inteligență artificială și identitate juridică - Unite.AI
Conectează-te cu noi

Liderii gândirii

Inteligență artificială și identitate juridică

mm

Publicat

 on

Acest articol se concentrează pe problema acordării statutului de subiect juridic pentru inteligența artificială (IA), în special pe baza dreptului civil. Identitatea juridică este definită aici ca un concept integral termenului de capacitate juridică; totuși, aceasta nu implică acceptarea faptului că subiectivitatea morală este aceeași cu personalitatea morală. Identitatea juridică este un atribut complex care poate fi recunoscut anumitor subiecți sau atribuit altora.

Cred că acest atribut este gradat, discret, discontinuu, cu mai multe fațete și schimbător. Aceasta înseamnă că poate conține mai multe sau mai puține elemente de diferite tipuri (de exemplu, îndatoriri, drepturi, competențe etc.), care în majoritatea cazurilor pot fi adăugate sau eliminate de către legiuitor; drepturile omului, care, conform opiniei comune, nu pot fi private, fac excepție.

În zilele noastre, omenirea se confruntă cu o perioadă de transformare socială legată de înlocuirea unui mod tehnologic cu altul; mașinile „inteligente” și software-ul învață destul de repede; Sistemele de inteligență artificială sunt din ce în ce mai capabile să înlocuiască oamenii în multe activități. Una dintre problemele care se ridică din ce în ce mai frecvent din cauza perfecționării tehnologiilor de inteligență artificială este recunoașterea sistemelor inteligente artificiale ca subiecte juridice, acestea fiind atinse de nivelul de a lua decizii deplin autonome și de a manifesta potențial „voință subiectivă”. Această problemă a fost ridicată ipotetic în secolul al XX-lea. În secolul XXI, dezbaterea științifică este în continuă evoluție, ajungând la cealaltă extremă cu fiecare introducere în practică a unor noi modele de inteligență artificială, precum apariția mașinilor care se conduc singure pe străzi sau prezentarea roboților cu un nou set de funcții.

Problema juridică a determinării statutului inteligenței artificiale este de natură teoretică generală, care este cauzată de imposibilitatea obiectivă de a prezice toate rezultatele posibile ale dezvoltării de noi modele de inteligență artificială. Cu toate acestea, sistemele de inteligență artificială (sisteme de inteligență artificială) sunt deja participanți efectivi la anumite relații sociale, ceea ce necesită stabilirea de „referințe”, adică rezolvarea unor probleme fundamentale în acest domeniu în scopul consolidării legislative și, astfel, reducerea incertitudinii în prezicerea dezvoltării relațiilor care implică sisteme de inteligență artificială în viitor.

Problema presupusei identități a inteligenței artificiale ca obiect de cercetare, menționată în titlul articolului, cu siguranță nu acoperă toate sistemele de inteligență artificială, inclusiv mulți „asistenți electronici” care nu pretind a fi persoane juridice. Setul lor de funcții este limitat și reprezintă inteligență artificială îngustă (slabă). Ne vom referi mai degrabă la „mașini inteligente” (sisteme inteligente ciber-fizice) și modele generative de sisteme inteligente virtuale, care se apropie din ce în ce mai mult de inteligența artificială generală (puternică) comparabilă cu inteligența umană și, în viitor, chiar o depășește.

Până în 2023, problema creării unei inteligențe artificiale puternice a fost ridicată urgent de rețelele neuronale multimodale, cum ar fi Chat GPT, DALL-e, și altele, ale căror capacități intelectuale sunt îmbunătățite prin creșterea numărului de parametri (modalități de percepție, inclusiv cele inaccesibile oamenilor), precum și prin utilizarea unor cantități mari de date pentru antrenament pe care oamenii nu le pot procesa fizic. De exemplu, modelele generative multimodale ale rețelelor neuronale pot produce astfel de imagini, texte literare și științifice, încât nu este întotdeauna posibil să se distingă dacă sunt create de un sistem uman sau de inteligență artificială.

Experții IT evidențiază două salturi calitative: un salt de viteză (frecvența apariției unor modele noi), care acum se măsoară în luni și nu în ani, și un salt de volatilitate (incapacitatea de a prezice cu exactitate ce s-ar putea întâmpla în domeniul inteligență artificială chiar și până la sfârșitul anului). Modelul ChatGPT-3 (a treia generație a algoritmului de procesare a limbajului natural de la OpenAI) a fost introdus în 2020 și ar putea procesa text, în timp ce modelul de generație următoare, ChatGPT-4, lansat de producător în martie 2023, nu poate „funcționa” doar cu texte dar și cu imagini, iar modelul de generație următoare învață și va fi capabil de și mai mult.

În urmă cu câțiva ani, momentul anticipat al singularității tehnologice, când dezvoltarea mașinilor devine practic incontrolabilă și ireversibilă, schimbând dramatic civilizația umană, era considerat a avea loc cel puțin în câteva decenii, dar în prezent tot mai mulți cercetători cred că se poate întâmpla. mult mai repede. Aceasta presupune apariția așa-numitei inteligențe artificiale puternice, care va demonstra abilități comparabile cu inteligența umană și va fi capabilă să rezolve o gamă similară sau chiar mai largă de sarcini. Spre deosebire de inteligența artificială slabă, IA puternică va avea conștiință, totuși una dintre condițiile esențiale pentru apariția conștiinței în sistemele inteligente este capacitatea de a efectua un comportament multimodal, integrând date din diferite modalități senzoriale (text, imagine, video, sunet etc. ), „conectând” informațiile diferitelor modalități la realitate și creând „metafore mondiale” complete holistice inerente oamenilor.

În martie 2023, peste o mie de cercetători, experți IT și antreprenori din domeniul inteligenței artificiale au semnat un scrisoare deschisă publicată pe site-ul Institutului Future of Life, un centru de cercetare american specializat în investigarea riscurilor existențiale pentru umanitate. Scrisoarea solicită suspendarea instruirii noilor modele generative de rețele neuronale multimodale, deoarece lipsa protocoalelor de securitate unificate și a vidului legal sporesc semnificativ riscurile, deoarece viteza de dezvoltare a AI a crescut dramatic din cauza „revoluției ChatGPT”. S-a remarcat, de asemenea, că modelele de inteligență artificială au dezvoltat capacități inexplicabile care nu sunt intențiate de dezvoltatorii lor, iar ponderea acestor capacități este probabil să crească treptat. În plus, o astfel de revoluție tehnologică stimulează dramatic crearea de gadgeturi inteligente care se vor răspândi, iar noile generații, copiii moderni care au crescut în comunicare constantă cu asistenții de inteligență artificială, vor fi foarte diferite de generațiile anterioare.

Este posibil să împiedicăm dezvoltarea inteligenței artificiale pentru ca omenirea să se poată adapta la noile condiții? În teorie, este, dacă toate statele facilitează acest lucru prin legislația națională. Vor face asta? Pe baza strategiilor naționale publicate, acestea nu vor; dimpotrivă, fiecare stat își propune să câștige competiția (pentru a menține conducerea sau pentru a reduce decalajul).

Capacitățile inteligenței artificiale atrag antreprenori, astfel încât companiile investesc mult în noi dezvoltări, succesul fiecărui model nou conducând procesul. Investițiile anuale sunt în creștere, luând în considerare atât investițiile private, cât și cele de stat în dezvoltare; piața globală a soluțiilor AI este estimată la sute de miliarde de dolari. Potrivit previziunilor, în special cele cuprinse în rezoluția Parlamentului European „Cu privire la inteligența artificială în era digitală” din 3 mai 2022, contribuția inteligenței artificiale la economia globală va depăși 11 trilioane de euro până în 2030.

Afacerea orientată spre practică duce la implementarea tehnologiilor de inteligență artificială în toate sectoarele economiei. Inteligența artificială este utilizată atât în ​​industria extractivă, cât și în industria de prelucrare (metalurgie, industria combustibilului și chimică, inginerie, prelucrarea metalelor etc.). Este aplicat pentru a prezice eficiența produselor dezvoltate, pentru a automatiza liniile de asamblare, pentru a reduce rebuturile, pentru a îmbunătăți logistica și pentru a preveni timpul de nefuncționare.

Utilizarea inteligenței artificiale în transport implică atât vehicule autonome, cât și optimizarea rutelor prin predicția fluxurilor de trafic, precum și asigurarea siguranței prin prevenirea situațiilor periculoase. Admiterea mașinilor cu conducere autonomă pe drumurile publice este o problemă de dezbatere intensă în parlamentele din întreaga lume.

În domeniul bancar, sistemele de inteligență artificială au înlocuit aproape complet oamenii în evaluarea bonității debitorilor; acestea sunt din ce în ce mai utilizate pentru a dezvolta noi produse bancare și pentru a spori securitatea tranzacțiilor bancare.

Tehnologiile de inteligență artificială preiau nu numai afaceri, ci și sfera socială: sănătate, educație și angajare. Aplicarea inteligenței artificiale în medicină permite un diagnostic mai bun, dezvoltarea de noi medicamente și operații asistate de robotică; în educație, permite lecții personalizate, evaluarea automată a elevilor și a expertizei profesorilor.

Astăzi, ocuparea forței de muncă se schimbă din ce în ce mai mult datorită creșterii exponențiale a angajării pe platforme. Potrivit Organizației Internaționale a Muncii, ponderea persoanelor care lucrează prin platforme digitale de angajare sporite de inteligența artificială crește constant la nivel mondial. Angajarea pe platformă nu este singura componentă a transformării muncii; nivelul în creștere al robotizării producției are, de asemenea, un impact semnificativ. Potrivit Federației Internaționale de Robotică, numărul roboților industriali continuă să crească la nivel mondial, cel mai rapid ritm de robotizare fiind observat în Asia, în primul rând în China și Japonia.

Într-adevăr, capacitățile inteligenței artificiale de a analiza datele utilizate pentru managementul producției, analiza de diagnosticare și prognoză sunt de mare interes pentru guverne. Inteligența artificială este implementată în administrația publică. În prezent, eforturile de a crea platforme digitale pentru serviciile publice și de a automatiza multe procese legate de luarea deciziilor de către agențiile guvernamentale sunt intensificate.

Conceptele de „personalitate artificială” și „socialitate artificială” sunt menționate mai frecvent în discursul public; aceasta demonstrează că dezvoltarea și implementarea sistemelor inteligente s-au mutat dintr-un domeniu pur tehnic la cercetarea diferitelor mijloace de integrare a acestuia în activități umanitare și socio-culturale.

Având în vedere cele de mai sus, se poate afirma că inteligența artificială devine din ce în ce mai profund încorporată în viața oamenilor. Prezența sistemelor de inteligență artificială în viața noastră va deveni mai evidentă în următorii ani; va crește atât în ​​mediul de lucru, cât și în spațiul public, în servicii și acasă. Inteligența artificială va oferi rezultate din ce în ce mai eficiente prin automatizarea inteligentă a diferitelor procese, creând astfel noi oportunități și prezentând noi amenințări pentru indivizi, comunități și state.

Pe măsură ce nivelul intelectual crește, sistemele AI vor deveni inevitabil o parte integrantă a societății; oamenii vor trebui să coexiste cu ei. O astfel de simbioză va implica cooperarea dintre oameni și mașini „inteligente”, care, potrivit economistului laureat al Premiului Nobel J. Stiglitz, va duce la transformarea civilizației (Stiglitz, 2017). Chiar și astăzi, potrivit unor avocați, „pentru a spori bunăstarea umană, legea nu ar trebui să facă distincția între activitățile oamenilor și cele ale inteligenței artificiale atunci când oamenii și inteligența artificială îndeplinesc aceleași sarcini” (Abbott, 2020). De asemenea, trebuie avut în vedere că dezvoltarea roboților umanoizi, care dobândesc o fiziologie din ce în ce mai asemănătoare cu cea a oamenilor, va duce, printre altele, la îndeplinirea rolurilor lor de gen ca parteneri în societate (Karnouskos, 2022).

Statele trebuie să își adapteze legislația la relațiile sociale în schimbare: numărul de legi care vizează reglementarea relațiilor care implică sisteme de inteligență artificială crește rapid în întreaga lume. Potrivit Raportului AI Index 2023 al Universității Stanford, în timp ce o singură lege a fost adoptată în 2016, au fost 12 dintre ele în 2018, 18 – în 2021 și 37 – în 2022. Acest lucru a determinat Națiunile Unite să definească o poziție cu privire la etica folosind inteligența artificială la nivel global. În septembrie 2022, a fost publicat un document care conținea principiile utilizării etice a inteligenței artificiale și se baza pe Recomandările privind etica inteligenței artificiale adoptate cu un an în urmă de Conferința Generală UNESCO. Cu toate acestea, ritmul de dezvoltare și implementare a tehnologiilor de inteligență artificială este cu mult înaintea ritmului modificărilor relevante ale legislației.

Concepte de bază ale capacităţii juridice a inteligenţei artificiale

Având în vedere conceptele de potențial acordare a capacității juridice sistemelor intelectuale, trebuie recunoscut faptul că implementarea oricăreia dintre aceste abordări va necesita o reconstrucție fundamentală a teoriei generale a dreptului existentă și modificări la o serie de prevederi în anumite ramuri de drept. Trebuie subliniat că susținătorii diferitelor opinii folosesc adesea termenul „persoană electronică”, astfel, utilizarea acestui termen nu permite să se determine care concept este susținătorul lucrării fără a citi lucrarea în sine.

Cea mai radicală și, evident, cea mai puțin populară abordare în cercurile științifice este conceptul de capacitate juridică individuală a inteligenței artificiale. Susținătorii acestei abordări au înaintat ideea de „incluzivitate deplină” (inclusivism extrem), care implică acordarea sistemelor AI unui statut legal similar cu cel al oamenilor, precum și recunoașterea propriilor interese (Mulgan, 2019), având în vedere semnificația lor socială sau socială. continut (valenta sociala). Acesta din urmă este cauzat de faptul că „întruchiparea fizică a robotului tinde să-i facă pe oameni să trateze acest obiect în mișcare ca și cum ar fi în viață. Acest lucru este cu atât mai evident atunci când robotul are caracteristici antropomorfe, cu cât asemănarea cu corpul uman îi face pe oameni să înceapă să proiecteze emoții, sentimente de plăcere, durere și grijă, precum și dorința de a stabili relații” (Avila Negri, 2021). Proiecția emoțiilor umane pe obiecte neînsuflețite nu este nouă, datând din istoria omenirii, dar atunci când este aplicată la roboți, aceasta implică numeroase implicații (Balkin, 2015).

Condițiile prealabile pentru confirmarea legală a acestei poziții sunt de obicei menționate după cum urmează:

– sistemele AI ating un nivel comparabil cu funcțiile cognitive umane;

– creșterea gradului de similitudine între roboți și oameni;

– umanitate, protecția sistemelor inteligente de potențiala „suferință”.

După cum arată lista de cerințe obligatorii, toate au un grad ridicat de teoretizare și evaluare subiectivă. În special, tendința spre crearea de roboți antropomorfi (androidi) este condusă de nevoile psihologice și sociale de zi cu zi ale persoanelor care se simt confortabil în „compania” subiecților asemănători lor. Unii roboți moderni au alte proprietăți restrictive datorită funcțiilor pe care le îndeplinesc; acestea includ roboți de curierat „reutilizabili”, care acordă prioritate construcției robuste și distribuției eficiente a greutății. În acest caz, intră în joc ultima dintre aceste premise, datorită formării legăturilor emoționale cu roboții în mintea umană, similare legăturilor emoționale dintre un animal de companie și stăpânul său (Grin, 2018).

Ideea de „includere deplină” a statutului juridic al sistemelor AI și al oamenilor este reflectată în lucrările unor juriști. Întrucât prevederile Constituției și ale legislației sectoriale nu conțin o definiție juridică a personalității, conceptul de „personalitate” în sens constituțional și juridic permite teoretic o interpretare expansivă. În acest caz, indivizii ar include orice posesoare de inteligență ale căror abilități cognitive sunt recunoscute ca fiind suficient de dezvoltate. Potrivit AV Nechkin, logica acestei abordări este că diferența esențială dintre oameni și alte ființe vii este inteligența lor unică, foarte dezvoltată (Nechkin, 2020). Recunoașterea drepturilor sistemelor de inteligență artificială pare să fie următorul pas în evoluția sistemului juridic, care extinde treptat recunoașterea juridică la persoanele discriminate anterior, iar astăzi oferă acces și non-oamenilor (Hellers, 2021).

Dacă sistemelor AI li se acordă un astfel de statut legal, susținătorii acestei abordări consideră că este adecvat să se acorde acestor sisteme nu drepturi literale ale cetățenilor în interpretarea lor constituțională și legală stabilită, ci analogii lor și anumite drepturi civile cu unele abateri. Această poziție se bazează pe diferențele biologice obiective dintre oameni și roboți. De exemplu, nu are sens să recunoaștem dreptul la viață pentru un sistem AI, deoarece acesta nu trăiește în sens biologic. Drepturile, libertățile și obligațiile sistemelor de inteligență artificială ar trebui să fie secundare în comparație cu drepturile cetățenilor; această prevedere stabilește natura derivată a inteligenței artificiale ca creație umană în sens juridic.

Drepturile și libertățile constituționale potențiale ale sistemelor inteligente artificiale includ dreptul de a fi liber, dreptul la auto-perfecționare (învățare și auto-învățare), dreptul la viață privată (protecția software-ului împotriva interferențelor arbitrare a terților), libertatea de exprimare, libertatea creativității, recunoașterea drepturilor de autor ale sistemului AI și a drepturilor de proprietate limitate. De asemenea, pot fi enumerate drepturi specifice ale inteligenței artificiale, cum ar fi dreptul de acces la o sursă de energie electrică.

În ceea ce privește atribuțiile sistemelor de inteligență artificială, se sugerează ca cele trei legi binecunoscute ale roboticii formulate de I. Asimov să fie consolidate constituțional: A nu face rău unei persoane și a preveni vătămarea prin propria inacțiune; respectarea tuturor ordinelor date de o persoană, cu excepția celor care vizează vătămarea altei persoane; având grijă de propria lor siguranță, cu excepția celor două cazuri anterioare (Naumov și Arkhipov, 2017). În acest caz, normele de drept civil și administrativ vor reflecta și alte atribuții.

Conceptul de capacitate juridică individuală a inteligenței artificiale are șanse foarte mici de a fi legitimat din mai multe motive.

În primul rând, criteriul de recunoaștere a capacității juridice pe baza prezenței conștiinței și a conștiinței de sine este abstract; permite numeroase infracțiuni, abuzuri de drept și provoacă probleme sociale și politice ca motiv suplimentar pentru stratificarea societății. Această idee a fost dezvoltată în detaliu în lucrările lui S. Chopra și L. White, care au susținut că conștiința și conștientizarea de sine nu sunt condiții necesare și/sau suficiente pentru recunoașterea sistemelor AI ca subiect legal. În realitatea juridică, indivizii complet conștienți, de exemplu, copiii (sau sclavii în dreptul roman), sunt lipsiți sau limitati de capacitate juridică. Totodată, persoanele cu tulburări psihice severe, inclusiv cele declarate incapabile sau aflate în comă etc., cu incapacitate obiectivă de a fi conștientă în primul caz rămân subiecți de drept (deși într-o formă limitată), iar în al doilea caz. , au aceeași capacitate juridică deplină, fără modificări majore ale statutului lor juridic. Consolidarea potențială a criteriului menționat al conștiinței și conștiinței de sine va face posibilă lipsirea arbitrară a cetățenilor de capacitatea juridică.

În al doilea rând, sistemele de inteligență artificială nu își vor putea exercita drepturile și obligațiile în sensul legal stabilit, deoarece funcționează pe baza unui program scris anterior, iar deciziile semnificative din punct de vedere juridic ar trebui să se bazeze pe alegerea subiectivă, morală a unei persoane (Morhat, 2018b). , expresia lor directă a voinței. Toate atitudinile, sentimentele și dorințele morale ale unei astfel de „persoane” devin derivate din inteligența umană (Uzhov, 2017). Autonomia sistemelor de inteligență artificială în sensul capacității lor de a lua decizii și de a le implementa independent, fără control antropic extern sau influență umană vizată (Musina, 2023), nu este cuprinzătoare. În zilele noastre, inteligența artificială este capabilă doar să ia „decizii cvasi-autonome” care se bazează cumva pe ideile și atitudinile morale ale oamenilor. În acest sens, poate fi luată în considerare doar „acțiunea-operare” a unui sistem AI, excluzând capacitatea de a face o evaluare morală reală a comportamentului inteligenței artificiale (Petiev, 2022).

În al treilea rând, recunoașterea capacității juridice individuale a inteligenței artificiale (mai ales sub forma echivalării acesteia cu statutul de persoană fizică) duce la o schimbare distructivă a ordinii juridice consacrate și a tradițiilor juridice care s-au format încă de la dreptul roman și ridică o serie de probleme filozofice și juridice fundamental insolubile în domeniul drepturilor omului. Dreptul ca sistem de norme sociale și fenomen social a fost creat ținând cont de capacitățile umane și pentru a asigura interesele umane. Sistemul antropocentric de prevederi normative stabilit, consensul internațional asupra conceptului de drepturi interne vor fi considerate invalide din punct de vedere juridic și faptic în cazul stabilirii unei abordări de „incluzism extrem” (Dremlyuga & Dremlyuga, 2019). Prin urmare, acordarea statutului de entitate juridică sistemelor AI, în special roboților „inteligenti”, poate să nu fie o soluție la problemele existente, ci o cutie a Pandorei care agravează contradicțiile sociale și politice (Solaiman, 2017).

Un alt punct este că lucrările susținătorilor acestui concept menționează de obicei doar roboți, adică sisteme de inteligență artificială ciber-fizică care vor interacționa cu oamenii din lumea fizică, în timp ce sistemele virtuale sunt excluse, deși inteligența artificială puternică, dacă va apărea, va fi întruchipat și într-o formă virtuală.

Pe baza argumentelor de mai sus, conceptul de capacitate juridică individuală a unui sistem de inteligență artificială ar trebui considerat ca fiind imposibil din punct de vedere juridic în ordinea juridică actuală.

Conceptul de personalitate colectivă în ceea ce privește sistemele inteligente artificiale a câștigat un sprijin considerabil în rândul susținătorilor admisibilității unei astfel de capacități juridice. Principalul avantaj al acestei abordări este că exclude conceptele abstracte și judecățile de valoare (conștiință, conștientizare de sine, raționalitate, moralitate etc.) din activitatea juridică. Abordarea se bazează pe aplicarea ficțiunii juridice la inteligența artificială.

În ceea ce privește persoanele juridice, există deja „metode avansate de reglementare care pot fi adaptate pentru a rezolva dilema statutului juridic al inteligenței artificiale” (Hárs, 2022).

Acest concept nu implică faptul că sistemelor AI li se acordă de fapt capacitatea juridică a unei persoane fizice, ci este doar o extensie a instituției existente a persoanelor juridice, ceea ce sugerează că ar trebui creată o nouă categorie de entități juridice numite „organisme electronice” cibernetice. Această abordare face mai adecvată luarea în considerare a unei entități juridice care nu este în conformitate cu conceptul restrâns modern, în special, obligația ca aceasta să dobândească și să exercite drepturi civile, să poarte răspunderi civile și să fie reclamant și pârât în ​​instanță în nume propriu. ), dar în sens mai larg, care reprezintă o persoană juridică ca orice structură, alta decât o persoană fizică înzestrată cu drepturi și obligații în forma prevăzută de lege. Astfel, susținătorii acestei abordări sugerează să se considere o entitate juridică ca entitate subiect (entitate ideală) în dreptul roman.

Asemănarea dintre sistemele de inteligență artificială și persoanele juridice se manifestă în modul în care acestea sunt dotate cu capacitate juridică – prin înregistrarea de stat obligatorie a persoanelor juridice. Abia după trecerea procedurii de înregistrare stabilite, o persoană juridică este dotată cu personalitate juridică și capacitate juridică, adică devine subiect juridic. Acest model menține discuții despre capacitatea juridică a sistemelor AI în domeniul juridic, excluzând recunoașterea capacității juridice pe alte temeiuri (extralegale), fără precondiții interne, în timp ce o persoană este recunoscută ca subiect juridic prin naștere.

Avantajul acestui concept este extinderea la sistemele inteligente artificiale a cerinței de a introduce informații în registrele de stat relevante, similar registrului de stat al persoanelor juridice, ca o condiție prealabilă pentru acordarea capacității juridice. Această metodă implementează o funcție importantă de sistematizare a tuturor persoanelor juridice și de creare a unei baze de date unice, care este necesară atât pentru autoritățile statului să controleze și să supravegheze (de exemplu, în domeniul fiscalității), cât și potențialele contrapărți ale unor astfel de entități.

Domeniul de aplicare al drepturilor persoanelor juridice din orice jurisdicție este de obicei mai mic decât cel al persoanelor fizice; prin urmare, utilizarea acestei structuri pentru a acorda capacitate juridică inteligenței artificiale nu este asociată cu acordarea acesteia unui număr de drepturi propuse de susținătorii conceptului anterior.

La aplicarea tehnicii ficțiunii juridice la persoanele juridice, se presupune că acțiunile unei persoane juridice sunt însoțite de o asociație de persoane fizice care își formează „voința” și își exercită „voința” prin organele de conducere ale persoanei juridice.

Cu alte cuvinte, persoanele juridice sunt unități artificiale (abstracte) concepute pentru a satisface interesele persoanelor fizice care au acționat ca fondatori sau le-au controlat. De asemenea, sistemele inteligente artificiale sunt create pentru a satisface nevoile anumitor persoane – dezvoltatori, operatori, proprietari. O persoană fizică care utilizează sau programează sisteme AI este ghidată de propriile interese, pe care acest sistem le reprezintă în mediul extern.

Evaluând teoretic un astfel de model de reglementare, nu trebuie uitat că o analogie completă între pozițiile persoanelor juridice și sistemele AI este imposibilă. După cum sa menționat mai sus, toate acțiunile semnificative din punct de vedere juridic ale persoanelor juridice sunt însoțite de persoane fizice care iau direct aceste decizii. Voința unei persoane juridice este întotdeauna determinată și controlată pe deplin de voința persoanelor fizice. Astfel, persoanele juridice nu pot funcționa fără voința persoanelor fizice. În ceea ce privește sistemele AI, există deja o problemă obiectivă a autonomiei acestora, adică capacitatea de a lua decizii fără intervenția unei persoane fizice după momentul creării directe a unui astfel de sistem.

Având în vedere limitările inerente ale conceptelor analizate mai sus, un număr mare de cercetători oferă propriile abordări pentru abordarea statutului juridic al sistemelor inteligente artificiale. În mod convențional, ele pot fi atribuite diferitelor variații ale conceptului de „capacitate juridică în grad”, potrivit cercetătorului de la Universitatea din Leuven DM Mocanu, care implică un statut juridic limitat sau parțial și o capacitate juridică a sistemelor AI cu o rezervă: termenul „gradient” este folosit deoarece nu este vorba doar de includerea sau neincluderea anumitor drepturi și obligații în statutul juridic, ci și de formarea unui set de astfel de drepturi și obligații cu un prag minim, precum și de recunoașterea unei astfel de capacități juridice doar pentru anumite scopuri. Apoi, cele două tipuri principale ale acestui concept pot include abordări care justifică:

1) acordarea sistemelor AI unui statut juridic special și includerea „persoanelor electronice” în ordinea juridică ca o categorie complet nouă de subiecte juridice;

2) acordarea sistemelor AI a unui statut juridic limitat și a capacității juridice în cadrul raporturilor juridice civile prin introducerea categoriei „agenți electronici”.

Poziția susținătorilor diferitelor abordări în cadrul acestui concept poate fi unită, în condițiile în care nu există temeiuri ontologice pentru a considera inteligența artificială ca subiect juridic; cu toate acestea, în cazuri specifice, există deja motive funcționale pentru a dota sistemele de inteligență artificială cu anumite drepturi și obligații, ceea ce „demonstrează cea mai bună modalitate de promovare a intereselor individuale și publice care ar trebui protejate prin lege” prin acordarea acestor sisteme „limitată și restrânsă”. „forme de persoană juridică”.

Acordarea unui statut juridic special sistemelor de inteligență artificială prin înființarea unei instituții juridice separate de „persoane electronice” are un avantaj semnificativ în explicarea și reglementarea detaliată a relațiilor care apar:

– între persoane juridice și persoane fizice și sisteme AI;

– între sistemele AI și dezvoltatorii acestora (operatori, proprietari);

– între o terță parte și sistemele AI în relațiile juridice civile.

În acest cadru legal, sistemul de inteligență artificială va fi controlat și gestionat separat de dezvoltator, proprietar sau operator. Atunci când definește conceptul de „persoană electronică”, PM Morkhat se concentrează pe aplicarea metodei de ficțiune juridică menționată mai sus și pe direcția funcțională a unui anumit model de inteligență artificială: „persoană electronică” este o imagine tehnică și juridică (care are unele caracteristici ale ficțiunii juridice, precum și ale unei entități juridice) care reflectă și implementează o capacitate juridică specifică condiționat a unui sistem de inteligență artificială, care diferă în funcție de funcția sau scopul și capacitățile acestuia.

Similar conceptului de persoane colective în raport cu sistemele AI, această abordare presupune păstrarea unor registre speciale ale „persoanelor electronice”. O descriere detaliată și clară a drepturilor și obligațiilor „persoanelor electronice” stă la baza controlului suplimentar de către stat și proprietarul unor astfel de sisteme AI. O gamă clar definită de competențe, un domeniu de aplicare restrâns al statutului juridic și capacitatea juridică a „persoanelor electronice” vor asigura că această „persoană” nu depășește programul său, datorită potențialului independent de luare a deciziilor și auto-învățare constantă.

Această abordare presupune că inteligența artificială, care în stadiul creării ei este proprietatea intelectuală a dezvoltatorilor de software, poate primi drepturile unei persoane juridice după certificarea și înregistrarea de stat corespunzătoare, dar statutul juridic și capacitatea juridică a unei „persoane electronice”. ” se va păstra.

Implementarea unei instituții fundamental noi a ordinii juridice stabilite va avea consecințe juridice grave, necesitând o reformă legislativă cuprinzătoare cel puțin în domeniile dreptului constituțional și civil. Cercetătorii subliniază în mod rezonabil că ar trebui să se facă prudență la adoptarea conceptului de „persoană electronică”, având în vedere dificultățile de introducere a unor noi persoane în legislație, întrucât extinderea conceptului de „persoană” în sens juridic poate duce la restricții asupra drepturile și interesele legitime ale subiecților existenți ai relațiilor juridice (Bryson et al., 2017). Pare imposibil de luat în considerare aceste aspecte întrucât capacitatea juridică a persoanelor fizice, juridice și de drept public este rezultatul unor secole de evoluție a teoriei statului și dreptului.

A doua abordare în cadrul conceptului de capacitate juridică în gradient este conceptul juridic de „agenți electronici”, legat în primul rând de utilizarea pe scară largă a sistemelor AI ca mijloc de comunicare între contrapărți și ca instrumente pentru comerțul online. Această abordare poate fi numită un compromis, întrucât admite imposibilitatea acordării statutului de subiecți juridici cu drepturi depline sistemelor AI, stabilind în același timp anumite drepturi și obligații (semnificative din punct de vedere social) pentru inteligența artificială. Cu alte cuvinte, conceptul de „agenți electronici” legalizează cvasisubiectivitatea inteligenței artificiale. Termenul „subiect cvasi-juridic” trebuie înțeles ca un anumit fenomen juridic în care anumite elemente de capacitate juridică sunt recunoscute la nivel oficial sau doctrinar, dar stabilirea statutului de subiect de drept cu drepturi depline este imposibilă.

Susținătorii acestei abordări subliniază caracteristicile funcționale ale sistemelor AI care le permit să acționeze atât ca instrument pasiv, cât și ca participant activ în relațiile juridice, potențial capabile să genereze în mod independent contracte semnificative din punct de vedere juridic pentru proprietarul sistemului. Prin urmare, sistemele AI pot fi considerate condiționat în cadrul relațiilor cu agențiile. La crearea (sau înregistrarea) unui sistem AI, inițiatorul activității de „agent electronic” încheie cu acesta un contract virtual unilateral de agenție, în urma căruia „agentului electronic” i se acordă o serie de competențe, exercitându-le efectuează acțiuni legale care sunt semnificative pentru mandant.

Surse:

  • R. McLay, „Managing the rise of Artificial Intelligence”, 2018
  • Bertolini A. și Episcopo F., 2022, „Roboții și inteligența artificială ca subiecte juridice? Dezlegarea perspectivei ontologice și funcționale”
  • Alekseev, A. Yu., Alekseeva, EA, Emelyanova, NN (2023). „Personalitate artificială în comunicarea socială și politică. Societăți artificiale”
  • „Specificitățile diagnosticului de laborator al sindromului Sanfilippo A” NS Trofimova, NV Olkhovich, NG Gorovenko
  • Shutkin, SI, 2020, „Este posibilă capacitatea legală a inteligenței artificiale? Lucrări privind proprietatea intelectuală”
  • Ladenkov, N. Ye., 2021, „Modele de acordare a capacității juridice inteligenței artificiale”
  • Bertolini, A. și Episcopo, F., 2021, „Raportul grupului de experți privind răspunderea pentru inteligența artificială și alte tehnologii digitale emergente: o evaluare critică”
  • Morkhat, PM, 2018, „Cu privire la problema definiției legale a termenului de inteligență artificială”

Anton Vokrug este un antreprenor IT, gânditor și cercetător AI originar din Ucraina. Recent, a vândut cu succes una dintre companiile sale IT. În prezent, el servește ca partener și consilier de afaceri blockchain la Dexola.com.