stubs Mākslīgais intelekts un juridiskā identitāte — Unite.AI
Savienoties ar mums

Domu vadītāji

Mākslīgais intelekts un juridiskā identitāte

mm

Izdots

 on

Šajā rakstā uzmanība pievērsta jautājumam par juridiska subjekta statusa piešķiršanu mākslīgajam intelektam (AI), īpaši pamatojoties uz civiltiesībām. Juridiskā identitāte šeit tiek definēta kā rīcībspējas terminam neatņemams jēdziens; tomēr tas nenozīmē pieņemt, ka morālā subjektivitāte ir tas pats, kas morālā personība. Juridiskā identitāte ir sarežģīts atribūts, ko var atpazīt noteiktiem priekšmetiem vai piešķirt citiem.

Es uzskatu, ka šis atribūts ir klasificēts, diskrēts, pārtraukts, daudzšķautņains un mainīgs. Tas nozīmē, ka tajā var būt vairāk vai mazāk dažāda veida elementi (piemēram, pienākumi, tiesības, kompetences utt.), kurus vairumā gadījumu likumdevējs var pievienot vai noņemt; cilvēktiesības, kuras saskaņā ar izplatīto viedokli nevar atņemt, ir izņēmums.

Mūsdienās cilvēce saskaras ar sociālo transformāciju periodu, kas saistīts ar viena tehnoloģiskā režīma aizstāšanu ar citu; “viedās” mašīnas un programmatūra mācās diezgan ātri; mākslīgā intelekta sistēmas arvien vairāk spēj aizstāt cilvēkus daudzās darbībās. Viens no jautājumiem, kas arvien biežāk rodas mākslīgā intelekta tehnoloģiju pilnveidošanās dēļ, ir mākslīgo intelektuālo sistēmu atzīšana par juridiskiem subjektiem, jo ​​tās ir sasniegušas pilnībā autonomu lēmumu pieņemšanas un potenciāli “subjektīvās gribas” izpausmes līmeni. Šis jautājums hipotētiski tika izvirzīts 20. gadsimtā. 21. gadsimtā zinātniskās debates nepārtraukti attīstās, sasniedzot otru galējību ar katru jaunu mākslīgā intelekta modeļu ieviešanu praksē, piemēram, pašbraucošu automašīnu parādīšanās ielās vai robotu prezentēšana ar jaunu funkcijas.

Juridiskajam jautājumam par mākslīgā intelekta statusa noteikšanu ir vispārteorētisks raksturs, ko izraisa objektīva neiespējamība paredzēt visus iespējamos jaunu mākslīgā intelekta modeļu izstrādes iznākumus. Tomēr mākslīgā intelekta sistēmas (AI sistēmas) jau ir reāli dalībnieki noteiktās sociālajās attiecībās, kas prasa noteikt “benchmarks”, ti, šīs jomas fundamentālu jautājumu risināšanu likumdošanas konsolidācijas nolūkos un līdz ar to nenoteiktības mazināšanu. mākslīgā intelekta sistēmu attiecību attīstības prognozēšana nākotnē.

Raksta nosaukumā minētais jautājums par iespējamo mākslīgā intelekta kā izpētes objekta identitāti noteikti neaptver visas mākslīgā intelekta sistēmas, tostarp daudzus “elektroniskos palīgus”, kas nepretendē uz juridiskām personām. Viņu funkciju kopums ir ierobežots, un tie pārstāv šauru (vāju) mākslīgo intelektu. Drīzāk atsauksimies uz “viedajām mašīnām” (kiberfizikālās inteliģentās sistēmas) un virtuālo inteliģento sistēmu ģeneratīvajiem modeļiem, kas arvien vairāk tuvojas vispārējam (jaudīgam) cilvēka intelektam pielīdzināmam mākslīgajam intelektam un nākotnē to pat pārsniedz.

Līdz 2023. gadam jautājumu par spēcīga mākslīgā intelekta izveidi steidzami izvirzījuši multimodāli neironu tīkli, piemēram, ChatGPT, DALL-e, un citas, kuru intelektuālās spējas tiek pilnveidotas, palielinot parametru skaitu (uztveres modalitātes, tajā skaitā cilvēkiem nepieejamās), kā arī treniņiem izmantojot lielus datu apjomus, kurus cilvēks fiziski nevar apstrādāt. Piemēram, neironu tīklu multimodālie ģeneratīvie modeļi var radīt tādus attēlus, literārus un zinātniskus tekstus, ka ne vienmēr ir iespējams atšķirt, vai tos ir radījis cilvēks vai mākslīgā intelekta sistēma.

IT eksperti izceļ divus kvalitatīvus lēcienus: ātruma lēcienu (jaunu modeļu parādīšanās biežumu), ko tagad mēra mēnešos, nevis gados, un nepastāvības lēcienu (nespēju precīzi paredzēt, kas varētu notikt mākslīgais intelekts pat līdz gada beigām). ChatGPT-3 modelis (OpenAI dabiskās valodas apstrādes algoritma trešā paaudze) tika ieviests 2020. gadā un varēja apstrādāt tekstu, savukārt nākamās paaudzes modelis ChatGPT-4, ko ražotājs laida klajā 2023. gada martā, var nedarboties. tikai ar tekstiem, bet arī ar attēliem, un nākamās paaudzes modelis mācās un būs spējīgs vēl vairāk.

Pirms dažiem gadiem tika uzskatīts, ka paredzamais tehnoloģiskās singularitātes brīdis, kad mašīnu attīstība kļūst praktiski nekontrolējama un neatgriezeniska, dramatiski mainot cilvēka civilizāciju, iestāsies vismaz pēc dažām desmitgadēm, taču mūsdienās arvien vairāk pētnieku uzskata, ka tas var notikt. daudz ātrāk. Tas nozīmē tā sauktā spēcīga mākslīgā intelekta rašanos, kas demonstrēs cilvēka intelektam pielīdzināmas spējas un spēs atrisināt līdzīgu vai pat plašāku uzdevumu loku. Atšķirībā no vāja mākslīgā intelekta, spēcīgam AI būs apziņa, tomēr viens no būtiskiem nosacījumiem apziņas rašanās inteliģentās sistēmās ir spēja veikt multimodālu uzvedību, integrējot datus no dažādām maņu modalitātēm (teksts, attēls, video, skaņa utt.). ), “savienojot” dažādu modalitātes informāciju ar realitāti un radot pilnīgas holistiskas “pasaules metaforas”, kas raksturīgas cilvēkiem.

2023. gada martā vairāk nekā tūkstotis pētnieku, IT ekspertu un uzņēmēju mākslīgā intelekta jomā parakstīja atklāta vēstule, kas publicēta Dzīves nākotnes institūta mājaslapā, Amerikas pētniecības centrs, kas specializējas cilvēces eksistenciālo risku izpētē. Vēstulē aicināts apturēt jaunu ģeneratīvu multimodālu neironu tīklu modeļu apmācību, jo vienotu drošības protokolu trūkums un tiesiskais vakuums būtiski palielina riskus, jo “ChatGPT revolūcijas” dēļ AI attīstības ātrums ir dramatiski pieaudzis. Tāpat tika atzīmēts, ka mākslīgā intelekta modeļi ir attīstījuši neizskaidrojamas iespējas, kuras nav paredzējuši to izstrādātāji, un šādu iespēju īpatsvars, visticamāk, pakāpeniski palielināsies. Turklāt šāda tehnoloģiskā revolūcija krasi veicina viedo gadžetu radīšanu, kas kļūs plaši izplatīts, un jaunās paaudzes, mūsdienu bērni, kas uzauguši pastāvīgā saziņā ar mākslīgā intelekta palīgiem, ļoti atšķirsies no iepriekšējām paaudzēm.

Vai ir iespējams kavēt mākslīgā intelekta attīstību, lai cilvēce varētu pielāgoties jauniem apstākļiem? Teorētiski tā ir, ja visas valstis to veicina ar valsts tiesību aktiem. Vai viņi to darīs? Pamatojoties uz publicētajām valsts stratēģijām, tās nebūs; gluži pretēji, katras valsts mērķis ir uzvarēt konkursā (saglabāt vadību vai samazināt atšķirību).

Mākslīgā intelekta iespējas piesaista uzņēmējus, tāpēc uzņēmumi iegulda lielus līdzekļus jaunos izstrādēs, un katra jaunā modeļa panākumi virza procesu. Ikgadējās investīcijas pieaug, ņemot vērā gan privātās, gan valsts investīcijas attīstībā; globālais AI risinājumu tirgus tiek lēsts simtiem miljardu dolāru apmērā. Saskaņā ar prognozēm, jo ​​īpaši tām, kas ietvertas Eiropas Parlamenta 3. gada 2022. maija rezolūcijā “Par mākslīgo intelektu digitālajā laikmetā”, mākslīgā intelekta devums pasaules ekonomikā līdz 11. gadam pārsniegs 2030 triljonus eiro.

Uz praksi orientēta uzņēmējdarbība noved pie mākslīgā intelekta tehnoloģiju ieviešanas visās tautsaimniecības nozarēs. Mākslīgais intelekts tiek izmantots gan ieguves, gan apstrādes rūpniecībā (metalurģijā, degvielas un ķīmiskajā rūpniecībā, mašīnbūvē, metālapstrādē u.c.). To izmanto, lai prognozētu izstrādāto produktu efektivitāti, automatizētu montāžas līnijas, samazinātu izbrāķēto daudzumu, uzlabotu loģistiku un novērstu dīkstāves.

Mākslīgā intelekta izmantošana transportā ietver gan autonomos transportlīdzekļus, gan maršruta optimizāciju, prognozējot satiksmes plūsmas, kā arī drošības nodrošināšanu, novēršot bīstamas situācijas. Pašbraucošo automašīnu pielaišana uz koplietošanas ceļiem ir jautājums, par ko notiek intensīvas debates parlamentos visā pasaulē.

Banku jomā mākslīgā intelekta sistēmas gandrīz pilnībā ir aizstājušas cilvēkus kredītņēmēju kredītspējas novērtēšanā; tos arvien vairāk izmanto jaunu banku produktu izstrādei un banku darījumu drošības uzlabošanai.

Mākslīgā intelekta tehnoloģijas pārņem ne tikai uzņēmējdarbību, bet arī sociālo sfēru: veselības aprūpi, izglītību un nodarbinātību. Mākslīgā intelekta pielietošana medicīnā ļauj labāk veikt diagnostiku, izstrādāt jaunas zāles un veikt operācijas ar robotu palīdzību; izglītībā tas ļauj veikt personalizētas stundas, automatizēti novērtēt skolēnu un skolotāju zināšanas.

Mūsdienās nodarbinātība arvien vairāk mainās, pateicoties platformu nodarbinātības eksponenciālajam pieaugumam. Saskaņā ar Starptautiskās darba organizācijas datiem visā pasaulē nepārtraukti pieaug to cilvēku īpatsvars, kuri strādā, izmantojot digitālās nodarbinātības platformas, ko papildina mākslīgais intelekts. Platformu nodarbinātība nav vienīgā darbaspēka pārveides sastāvdaļa; būtisku ietekmi atstāj arī pieaugošais ražošanas robotizācijas līmenis. Saskaņā ar Starptautiskās Robotikas federācijas datiem industriālo robotu skaits turpina pieaugt visā pasaulē, un ātrākais robotizācijas temps ir novērots Āzijā, galvenokārt Ķīnā un Japānā.

Patiešām, mākslīgā intelekta iespējas analizēt datus, ko izmanto ražošanas vadībai, diagnostikas analītikai un prognozēšanai, ir ļoti ieinteresētas valdībām. Valsts pārvaldē tiek ieviests mākslīgais intelekts. Mūsdienās tiek pastiprināti centieni izveidot digitālas platformas sabiedriskajiem pakalpojumiem un automatizēt daudzus procesus, kas saistīti ar valsts aģentūru lēmumu pieņemšanu.

Publiskajā diskursā biežāk tiek pieminēti jēdzieni “mākslīgā personība” un “mākslīgā socialitāte”; tas parāda, ka viedo sistēmu izstrāde un ieviešana ir pārgājusi no tīri tehniskas jomas uz dažādu veidu izpēti to integrēšanai humanitārajās un sociāli kultūras aktivitātēs.

Ņemot vērā iepriekš minēto, var konstatēt, ka mākslīgais intelekts arvien dziļāk iekļaujas cilvēku dzīvēs. Mākslīgā intelekta sistēmu klātbūtne mūsu dzīvē kļūs skaidrāka tuvākajos gados; tas pieaugs gan darba vidē, gan publiskajā telpā, servisos un mājās. Mākslīgais intelekts arvien vairāk nodrošinās efektīvākus rezultātus, izmantojot dažādu procesu inteliģentu automatizāciju, tādējādi radot jaunas iespējas un radot jaunus draudus indivīdiem, kopienām un valstīm.

Pieaugot intelektuālajam līmenim, AI sistēmas neizbēgami kļūs par sabiedrības neatņemamu sastāvdaļu; cilvēkiem ar viņiem būs jāsadzīvo. Šāda simbioze ietvers sadarbību starp cilvēkiem un “gudrajām” mašīnām, kas, pēc Nobela prēmijas laureāta ekonomista J. Stiglica domām, novedīs pie civilizācijas transformācijas (Stiglitz, 2017). Pat šodien, pēc dažu juristu domām, “lai veicinātu cilvēku labklājību, tiesību aktos nevajadzētu nošķirt cilvēku darbības no mākslīgā intelekta darbībām, kad cilvēki un mākslīgais intelekts veic vienus un tos pašus uzdevumus” (Abbott, 2020). Jāņem vērā arī tas, ka humanoīdu robotu attīstība, kuru fizioloģija kļūst arvien līdzīgāka cilvēka fizioloģijai, cita starpā novedīs pie tā, ka viņi pildīs dzimumu lomas kā partneri sabiedrībā (Karnouskos, 2022).

Valstīm ir jāpielāgo likumdošana mainīgajām sociālajām attiecībām: visā pasaulē strauji pieaug likumu skaits, kuru mērķis ir regulēt attiecības, kurās iesaistītas mākslīgā intelekta sistēmas. Saskaņā ar Stenfordas Universitātes 2023. gada AI indeksa ziņojumu, lai gan 2016. gadā tika pieņemts tikai viens likums, 12. gadā tie bija 2018, 18. gadā – 2021, bet 37. gadā – 2022. Tas pamudināja Apvienoto Nāciju Organizāciju noteikt nostāju attiecībā uz ētikas jautājumiem. izmantojot mākslīgo intelektu globālā līmenī. 2022. gada septembrī tika publicēts dokuments, kas saturēja mākslīgā intelekta ētiskas izmantošanas principus un tika balstīts uz gadu iepriekš UNESCO Ģenerālās konferences pieņemtajiem ieteikumiem par mākslīgā intelekta ētiku. Tomēr mākslīgā intelekta tehnoloģiju attīstības un ieviešanas tempi ir tālu priekšā attiecīgo likumdošanas izmaiņu tempam.

Mākslīgā intelekta juridiskās kapacitātes pamatjēdzieni

Ņemot vērā koncepcijas par potenciālās rīcībspējas piešķiršanu intelektuālajām sistēmām, jāatzīst, ka jebkuras no šīm pieejām īstenošanai būs nepieciešama esošās vispārējās tiesību teorijas fundamentāla rekonstrukcija un vairāku noteikumu grozījumi atsevišķās tiesību nozarēs. Jāuzsver, ka dažādu uzskatu piekritēji nereti lieto terminu “elektroniskā persona”, līdz ar to šī termina lietošana neļauj noteikt, kura jēdziena piekritējs ir darba autors, neizlasot pašu darbu.

Visradikālākā un, protams, vismazāk populārā pieeja zinātnieku aprindās ir mākslīgā intelekta individuālās tiesībspējas jēdziens. Šīs pieejas atbalstītāji izvirzīja ideju par “pilnīgu iekļaušanu” (ekstrēmu iekļaušanu), kas nozīmē, ka mākslīgā intelekta sistēmām tiek piešķirts cilvēku statusam līdzīgs juridisks statuss, kā arī jāatzīst viņu pašu intereses (Mulgan, 2019), ņemot vērā to sociālo vai sociālo nozīmi. saturs (sociālā valence). Pēdējo izraisa fakts, ka “robota fiziskais iemiesojums mēdz likt cilvēkiem izturēties pret šo kustīgo objektu tā, it kā tas būtu dzīvs. Tas ir vēl acīmredzamāk, ja robotam ir antropomorfas īpašības, jo līdzība ar cilvēka ķermeni liek cilvēkiem projicēt emocijas, baudas, sāpju un rūpju sajūtas, kā arī vēlmi nodibināt attiecības” (Avila Negri, 2021). Cilvēka emociju projicēšana uz nedzīviem objektiem nav nekas jauns, datēts ar cilvēces vēsturi, taču, ja to attiecina uz robotiem, tas rada daudzas sekas (Balkin, 2015).

Šīs amata juridiskās apstiprināšanas priekšnosacījumi parasti tiek minēti šādi:

– AI sistēmas sasniedz līmeni, kas salīdzināms ar cilvēka kognitīvajām funkcijām;

– līdzības pakāpes palielināšana starp robotiem un cilvēkiem;

– cilvēciskums, viedo sistēmu aizsardzība no iespējamām “ciešanām”.

Kā liecina obligāto prasību saraksts, visās tajās ir augsta teorētiskuma pakāpe un subjektīvs vērtējums. Jo īpaši tendenci uz antropomorfo robotu (anroīdu) radīšanu nosaka to cilvēku ikdienas psiholoģiskās un sociālās vajadzības, kuri jūtas ērti sev līdzīgu priekšmetu “uzņēmumā”. Dažiem mūsdienu robotiem ir arī citas sašaurinošas īpašības to veikto funkciju dēļ; tajos ietilpst “atkārtoti lietojami” kurjerroboti, kuru prioritāte ir izturīga konstrukcija un efektīva svara sadale. Šajā gadījumā spēlē pēdējais no šiem priekšnosacījumiem, jo ​​cilvēka prātā veidojas emocionālas saites ar robotiem, līdzīgi kā emocionālās saites starp mājdzīvnieku un tā īpašnieku (Grin, 2018).

Ideja par mākslīgā intelekta sistēmu un cilvēku juridiskā statusa “pilnīgu iekļaušanu” ir atspoguļota dažu tiesību zinātnieku darbos. Tā kā Satversmes un nozaru likumdošanas normas nesatur personības juridisko definīciju, jēdziens “personība” konstitucionālajā un juridiskajā izpratnē teorētiski pieļauj ekspansīvu interpretāciju. Šajā gadījumā indivīdi būtu visi intelekta turētāji, kuru kognitīvās spējas ir atzītas par pietiekami attīstītām. Pēc AV Nečkina domām, šīs pieejas loģika ir tāda, ka būtiskā atšķirība starp cilvēkiem un citām dzīvām būtnēm ir viņu unikālais augsti attīstītais intelekts (Nechkin, 2020). Mākslīgā intelekta sistēmu tiesību atzīšana, šķiet, ir nākamais solis tiesību sistēmas evolūcijā, kas pakāpeniski paplašina juridisko atzīšanu arī iepriekš diskriminētiem cilvēkiem un mūsdienās nodrošina piekļuvi arī personām, kas nav cilvēki (Hellers, 2021).

Ja mākslīgā intelekta sistēmām tiek piešķirts šāds juridiskais statuss, šīs pieejas piekritēji uzskata, ka ir lietderīgi šādām sistēmām piešķirt nevis burtiskas pilsoņu tiesības to noteiktajā konstitucionālajā un juridiskajā interpretācijā, bet gan to analogus un noteiktas civiltiesības ar dažām novirzēm. Šī pozīcija ir balstīta uz objektīvām bioloģiskām atšķirībām starp cilvēkiem un robotiem. Piemēram, AI sistēmai nav jēgas atzīt tiesības uz dzīvību, jo tā nedzīvo bioloģiskā nozīmē. Mākslīgā intelekta sistēmu tiesībām, brīvībām un pienākumiem jābūt sekundāriem salīdzinājumā ar pilsoņu tiesībām; šis noteikums nosaka mākslīgā intelekta kā cilvēka radījuma juridiskā nozīmē atvasināto raksturu.

Mākslīgo viedo sistēmu iespējamās konstitucionālās tiesības un brīvības ietver tiesības būt brīvam, tiesības uz sevis pilnveidošanu (mācīšanos un pašmācīšanos), tiesības uz privātumu (programmatūras aizsardzība pret trešo personu patvaļīgu iejaukšanos), vārda brīvību, radošuma brīvība, AI sistēmas autortiesību atzīšana un ierobežotas īpašuma tiesības. Var uzskaitīt arī īpašas mākslīgā intelekta tiesības, piemēram, tiesības piekļūt elektroenerģijas avotam.

Runājot par mākslīgā intelekta sistēmu pienākumiem, tiek ierosināts konstitucionāli nostiprināt trīs labi zināmos I. Asimova formulētos robotikas likumus: Nenodarīt kaitējumu personai un novērst kaitējumu ar savu bezdarbību; izpildīt visas personas dotās pavēles, izņemot tās, kuru mērķis ir kaitēt citai personai; rūpējoties par savu drošību, izņemot divus iepriekšējos gadījumus (Naumovs un Arkhipovs, 2017). Šajā gadījumā civiltiesību un administratīvo tiesību normas atspoguļos dažus citus pienākumus.

Mākslīgā intelekta individuālās tiesībspējas jēdzienam ir ļoti maz iespēju tikt leģitimizētam vairāku iemeslu dēļ.

Pirmkārt, rīcībspējas atzīšanas kritērijs, pamatojoties uz apziņas un pašapziņas klātbūtni, ir abstrakts; tas pieļauj daudzus pārkāpumus, tiesību ļaunprātīgu izmantošanu un provocē sociālās un politiskās problēmas kā papildu iemeslu sabiedrības noslāņošanai. Šī ideja tika detalizēti izstrādāta S. Chopra un L. White darbā, kuri apgalvoja, ka apziņa un pašapziņa nav nepieciešams un/vai pietiekams nosacījums, lai AI sistēmas atzītu par juridisku subjektu. Juridiskajā realitātē pilnīgi apzinātiem indivīdiem, piemēram, bērniem (vai romiešu tiesībās vergiem), ir atņemta vai ierobežota rīcībspēja. Tajā pašā laikā personas ar smagiem garīga rakstura traucējumiem, tostarp atzītas par rīcībnespējīgām vai komā u.tml., ar objektīvu nespēju būt pie samaņas pirmajā gadījumā paliek tiesību subjekti (kaut arī ierobežotā formā), bet otrajā gadījumā , tiem ir vienāda pilna tiesībspēja, bez būtiskām izmaiņām to juridiskajā statusā. Minētā apziņas un pašapziņas kritērija iespējamā nostiprināšanās dos iespēju patvaļīgi atņemt pilsoņiem rīcībspēju.

Otrkārt, mākslīgā intelekta sistēmas nevarēs īstenot savas tiesības un pienākumus noteiktajā juridiskajā izpratnē, jo tās darbojas, pamatojoties uz iepriekš uzrakstītu programmu, un juridiski nozīmīgiem lēmumiem jābūt balstītiem uz personas subjektīvo, morālo izvēli (Morhat, 2018b). , viņu tiešā gribas izpausme. Visas šādas “personas” morālās attieksmes, jūtas un vēlmes rodas no cilvēka intelekta (Uzhov, 2017). Mākslīgā intelekta sistēmu autonomija to spēju pieņemt lēmumus un tos īstenot patstāvīgi, bez ārējas antropogēnas kontroles vai mērķtiecīgas cilvēka ietekmes nozīmē (Musina, 2023) nav visaptveroša. Mūsdienās mākslīgais intelekts spēj pieņemt tikai “kvaziautonomus lēmumus”, kas kaut kādā veidā ir balstīti uz cilvēku idejām un morālo attieksmi. Šajā sakarā var apsvērt tikai AI sistēmas “darbību-operāciju”, izslēdzot spēju veikt reālu morālu novērtējumu mākslīgā intelekta uzvedībai (Petiev, 2022).

Treškārt, mākslīgā intelekta individuālās tiesībspējas atzīšana (sevišķi pielīdzinot to fiziskas personas statusam) noved pie destruktīvas izmaiņas izveidotajā tiesību sistēmā un tiesību tradīcijās, kas veidojušās kopš romiešu tiesībām un izvirza vairākus fundamentāli neatrisināmus filozofiskus un juridiskus jautājumus cilvēktiesību jomā. Tiesības kā sociālo normu sistēma un sociāla parādība tika radīta, pienācīgi ņemot vērā cilvēka spējas un cilvēka interešu nodrošināšanai. Izveidotā antropocentriskā normatīvo noteikumu sistēma, starptautiskais konsenss par iekšējo tiesību jēdzienu tiks uzskatīts par juridiski un faktiski nederīgu “ekstrēma inkluzīvisma” pieejas iedibināšanas gadījumā (Dremlyuga & Dremlyuga, 2019). Tāpēc juridiskas personas statusa piešķiršana AI sistēmām, jo ​​īpaši “gudrajiem” robotiem, var būt nevis esošo problēmu risinājums, bet gan Pandoras lāde, kas saasina sociālās un politiskās pretrunas (Solaiman, 2017).

Vēl viens moments ir tas, ka šīs koncepcijas piekritēju darbos parasti ir minēti tikai roboti, proti, kiberfizikālās mākslīgā intelekta sistēmas, kas mijiedarbosies ar cilvēkiem fiziskajā pasaulē, savukārt virtuālās sistēmas ir izslēgtas, lai gan spēcīgs mākslīgais intelekts, ja tāds parādīsies, iemiesotos arī virtuālā formā.

Pamatojoties uz iepriekš minētajiem argumentiem, mākslīgā intelekta sistēmas individuālās tiesībspējas jēdziens ir uzskatāms par juridiski neiespējamu pašreizējās tiesību sistēmas ietvaros.

Kolektīvās personības jēdziens attiecībā uz mākslīgām inteliģentām sistēmām ir guvis ievērojamu atbalstu šādas tiesībspējas pieļaujamības piekritēju vidū. Šīs pieejas galvenā priekšrocība ir tā, ka tā no juridiskā darba izslēdz abstraktus jēdzienus un vērtību spriedumus (apziņa, pašapziņa, racionalitāte, morāle u.c.). Pieejas pamatā ir juridiskās daiļliteratūras pielietojums mākslīgajam intelektam.

Runājot par juridiskajām personām, jau ir “progresīvas regulēšanas metodes, kuras var pielāgot mākslīgā intelekta juridiskā statusa dilemmas risināšanai” (Hárs, 2022).

Šis jēdziens nenozīmē, ka mākslīgā intelekta sistēmām faktiski tiek piešķirta fiziskas personas tiesībspēja, bet tā ir tikai esošās juridisko personu institūcijas paplašinājums, kas liek domāt, ka būtu jāizveido jauna juridisko personu kategorija, ko sauc par kibernētiskiem “elektroniskiem organismiem”. Šāda pieeja padara lietderīgāku juridisku personu uzskatīt par neatbilstošu mūsdienu šaurajam jēdzienam, jo ​​īpaši saistībām, ka tai var iegūt un realizēt civiltiesības, uzņemties civiltiesiskās saistības, kā arī būt prasītājam un atbildētājam tiesā savā vārdā. ), bet plašākā nozīmē, kas pārstāv juridisku personu kā jebkuru struktūru, kas nav fiziska persona, kas apveltīta ar tiesībām un pienākumiem likumā paredzētajā formā. Tādējādi šīs pieejas piekritēji iesaka uzskatīt juridisku personu par subjektu vienību (ideālo vienību) saskaņā ar romiešu tiesībām.

Mākslīgā intelekta sistēmu un juridisko personu līdzība izpaužas to apveltīšanā ar rīcībspēju – ar obligātu juridisko personu valsts reģistrāciju. Tikai pēc noteiktās reģistrācijas procedūras nokārtošanas juridiskajai personai tiek piešķirts tiesiskais statuss un rīcībspēja, ti, tā kļūst par tiesību subjektu. Šis modelis uztur diskusijas par AI sistēmu rīcībspēju tiesību jomā, izslēdzot rīcībspējas atzīšanu uz citiem (ārpustiesiskiem) pamatiem, bez iekšējiem priekšnosacījumiem, savukārt persona tiek atzīta par tiesību subjektu pēc dzimšanas.

Šīs koncepcijas priekšrocība ir prasība ievadīt informāciju attiecīgajos valsts reģistros, līdzīgi kā valsts juridisko personu reģistrā, kā priekšnoteikums rīcībspējas piešķiršanai, attiecinot uz mākslīgām viedajām sistēmām. Ar šo metodi tiek īstenota svarīga visu juridisko personu sistematizēšanas un vienotas datubāzes izveides funkcija, kas nepieciešama gan valsts kontroles un uzraudzības iestādēm (piemēram, nodokļu jomā), gan potenciālajiem šādu subjektu darījumu partneriem.

Juridisko personu tiesību apjoms jebkurā jurisdikcijā parasti ir mazāks nekā fizisko personu tiesību apjoms; tādēļ šīs struktūras izmantošana mākslīgā intelekta rīcībspējas piešķiršanai nav saistīta ar vairāku tiesību piešķiršanu tam, ko ierosināja iepriekšējās koncepcijas piekritēji.

Piemērojot juridiskās daiļliteratūras tehniku ​​juridiskām personām, tiek pieņemts, ka juridiskās personas rīcību pavada fizisku personu apvienība, kas veido savu “gribu” un īsteno savu “gribu” ar juridiskās personas pārvaldes institūciju starpniecību.

Citiem vārdiem sakot, juridiskās personas ir mākslīgas (abstraktas) vienības, kas paredzētas to fizisko personu interešu apmierināšanai, kuras darbojās kā to dibinātāji vai tās kontrolēja. Tāpat mākslīgās inteliģentās sistēmas tiek radītas, lai apmierinātu atsevišķu personu – izstrādātāju, operatoru, īpašnieku – vajadzības. Fiziskā persona, kas lieto vai programmē AI sistēmas, vadās pēc savām interesēm, kuras šī sistēma pārstāv ārējā vidē.

Teorētiski vērtējot šādu regulējuma modeli, nevajadzētu aizmirst, ka pilnīga līdzība starp juridisko personu un AI sistēmu pozīcijām nav iespējama. Kā minēts iepriekš, visas juridiski nozīmīgās juridisko personu darbības pavada fiziskas personas, kuras tieši pieņem šos lēmumus. Juridiskas personas gribu vienmēr nosaka un pilnībā kontrolē fizisko personu griba. Tādējādi juridiskās personas nevar darboties bez fizisko personu gribas. Kas attiecas uz AI sistēmām, tad jau pastāv objektīva to autonomijas problēma, proti, spēja pieņemt lēmumus bez fiziskas personas iejaukšanās pēc šādas sistēmas tiešas izveides brīža.

Ņemot vērā iepriekš apskatīto jēdzienu raksturīgos ierobežojumus, liels skaits pētnieku piedāvā savas pieejas mākslīgo viedo sistēmu juridiskā statusa risināšanai. Tradicionāli tos var attiecināt uz dažādām jēdziena “gradienta tiesībspēja” variācijām, norāda Lēvenas Universitātes pētnieks DM Mokanu, kurš norāda uz ierobežotu vai daļēju mākslīgā intelekta sistēmu juridisko statusu un juridisko spēju ar atrunu: termins "gradients" tiek lietots, jo runa ir ne tikai par noteiktu tiesību un pienākumu iekļaušanu vai neiekļaušanu tiesiskajā statusā, bet arī par šādu tiesību un pienākumu kopuma veidošanu ar minimālo slieksni, kā arī par šādas rīcībspējas atzīšanu tikai noteiktiem mērķiem. Tad divi galvenie šīs koncepcijas veidi var ietvert pieejas, kas attaisno:

1) piešķirot mākslīgā intelekta sistēmām īpašu juridisko statusu un iekļaujot "elektroniskās personas" tiesību sistēmā kā pilnīgi jaunu tiesību subjektu kategoriju;

2) AI sistēmām ierobežota juridiskā statusa un rīcībspējas piešķiršana civiltiesisko attiecību ietvaros, ieviešot kategoriju “elektroniskie aģenti”.

Dažādu pieeju piekritēju nostāja šajā jēdzienā var būt vienota, ņemot vērā, ka nav ontoloģiska pamata uzskatīt mākslīgo intelektu par juridisku subjektu; tomēr atsevišķos gadījumos jau ir funkcionāli iemesli apveltīt mākslīgā intelekta sistēmas ar noteiktām tiesībām un pienākumiem, kas "pierāda vislabāko veidu, kā veicināt ar likumu aizsargājamās personas un sabiedrības intereses", piešķirot šīm sistēmām "ierobežotas un šauras" "juridisko personu formas".

Īpaša juridiskā statusa piešķiršanai mākslīgā intelekta sistēmām, izveidojot atsevišķu “elektronisko personu” tiesību institūciju, ir būtiska priekšrocība radušos attiecību detalizētā skaidrošanā un regulēšanā:

– starp juridiskām un fiziskām personām un mākslīgā intelekta sistēmām;

– starp AI sistēmām un to izstrādātājiem (operatoriem, īpašniekiem);

– starp trešo personu un mākslīgā intelekta sistēmām civiltiesiskajās attiecībās.

Šajā tiesiskajā regulējumā mākslīgā intelekta sistēma tiks kontrolēta un pārvaldīta atsevišķi no tās izstrādātāja, īpašnieka vai operatora. Definējot jēdzienu “elektroniskā persona”, PM Morkhats pievēršas iepriekš minētās juridiskās fikcijas metodes pielietojumam un konkrēta mākslīgā intelekta modeļa funkcionālajam virzienam: “elektroniskā persona” ir tehnisks un juridisks tēls (kuru ir dažas juridiskas daiļliteratūras, kā arī juridiskas personas pazīmes), kas atspoguļo un realizē nosacīti specifisku mākslīgā intelekta sistēmas rīcībspēju, kas atšķiras atkarībā no tās paredzētās funkcijas vai mērķa un iespējām.

Līdzīgi kā kolektīvu personu jēdziens saistībā ar AI sistēmām, šī pieeja ietver īpašu “elektronisko personu” reģistru uzturēšanu. Detalizēts un skaidrs “elektronisko personu” tiesību un pienākumu apraksts ir pamats turpmākai valsts un šādu AI sistēmu īpašnieka kontrolei. Skaidri definēts pilnvaru loks, sašaurināts juridiskā statusa apjoms un “elektronisko personu” tiesiskā rīcībspēja nodrošinās, ka šī “persona” nepārsniegs savu programmu potenciāli neatkarīgas lēmumu pieņemšanas un pastāvīgas pašmācības dēļ.

Šāda pieeja paredz, ka mākslīgajam intelektam, kas tā radīšanas stadijā ir programmatūras izstrādātāju intelektuālais īpašums, pēc atbilstošas ​​sertifikācijas un valsts reģistrācijas var tikt piešķirtas juridiskas personas tiesības, bet “elektroniskas personas” juridiskais statuss un rīcībspēja. ” tiks saglabāta.

Principiāli jaunas izveidotās tiesiskās kārtības institūcijas ieviešana radīs nopietnas tiesiskās sekas, kas prasīs visaptverošu likumdošanas reformu vismaz konstitucionālo un civiltiesību jomās. Pētnieki pamatoti norāda, ka, pieņemot jēdzienu “elektroniskā persona”, jāievēro piesardzība, ņemot vērā grūtības jaunu personu ieviešanā likumdošanā, jo jēdziena “persona” paplašināšana juridiskajā nozīmē potenciāli var radīt ierobežojumus esošo tiesisko attiecību subjektu tiesības un leģitīmās intereses (Bryson et al., 2017). Šķiet, ka šos aspektus nav iespējams aplūkot, jo fizisko personu, juridisko personu un publisko tiesību subjektu rīcībspēja ir valsts un tiesību teorijas gadsimtiem ilgas attīstības rezultāts.

Otrā pieeja gradienta tiesībspējas jēdzienā ir “elektronisko aģentu” juridiskais jēdziens, kas galvenokārt saistīts ar AI sistēmu plašo izmantošanu kā saziņas līdzekli starp darījuma partneriem un kā tiešsaistes tirdzniecības rīku. Šo pieeju var saukt par kompromisu, jo tā pieļauj iespēju mākslīgā intelekta sistēmām piešķirt pilntiesīgu tiesību subjektu statusu, vienlaikus nosakot mākslīgajam intelektam noteiktas (sociāli nozīmīgas) tiesības un pienākumus. Citiem vārdiem sakot, jēdziens “elektroniskie aģenti” legalizē mākslīgā intelekta kvazi-subjektivitāti. Ar jēdzienu “kvazijuridiskais subjekts” jāsaprot noteikta tiesību parādība, kurā atsevišķi rīcībspējas elementi tiek atzīti oficiālā vai doktrinārā līmenī, bet pilnvērtīga tiesību subjekta statusa noteikšana nav iespējama.

Šīs pieejas piekritēji uzsver AI sistēmu funkcionālās iezīmes, kas ļauj tām darboties gan kā pasīvam instrumentam, gan kā aktīvam tiesisko attiecību dalībniekam, kas potenciāli spēj patstāvīgi ģenerēt sistēmas īpašniekam juridiski nozīmīgus līgumus. Tāpēc AI sistēmas nosacīti var aplūkot aģentūru attiecību ietvaros. Veidojot (vai reģistrējot) AI sistēmu, “elektroniskā aģenta” darbības iniciators noslēdz ar to virtuālu vienpusēju aģenta līgumu, kā rezultātā “elektroniskajam aģentam” tiek piešķirtas vairākas pilnvaras, kuras īstenojot, tas var. veikt principālam nozīmīgas juridiskas darbības.

Avoti:

  • R. Maklejs, “Mākslīgā intelekta pieauguma pārvaldība”, 2018
  • Bertolini A. un Episcopo F., 2022, “Roboti un AI kā juridiskie subjekti? Ontoloģiskās un funkcionālās perspektīvas atdalīšana”
  • Aleksejevs, A. Yu., Aleksejeva, EA, Emelyanova, NN (2023). “Mākslīgā personība sociālajā un politiskajā komunikācijā. Mākslīgās sabiedrības”
  • “Sanfilippo A sindroma laboratoriskās diagnostikas specifika” NS Trofimova, NV Olkhovich, NG Gorovenko
  • Shutkin, SI, 2020, “Vai mākslīgā intelekta juridiskā kapacitāte ir iespējama? Darbi ar intelektuālo īpašumu”
  • Ladenkovs, N. Ye., 2021, “Mākslīgā intelekta rīcībspējas piešķiršanas modeļi”
  • Bertolini, A. un Episcopo, F., 2021, “Ekspertu grupas ziņojums par atbildību par mākslīgo intelektu un citām jaunām digitālajām tehnoloģijām: kritisks novērtējums”
  • Morkhat, PM, 2018, “Par jautājumu par mākslīgā intelekta termina juridisko definīciju”

Antons Vokrugs ir IT uzņēmējs, domātājs un mākslīgā intelekta pētnieks no Ukrainas. Nesen viņš veiksmīgi pārdeva vienu no saviem IT uzņēmumiem. Pašlaik viņš ir partneris un blokķēdes biznesa padomnieks Dexola.com.