výhonek Umělá inteligence a právní identita - Unite.AI
Spojte se s námi

Myšlenkové vůdce

Umělá inteligence a právní identita

mm

Zveřejněno

 on

Tento článek se zaměřuje na problematiku přiznávání statutu právního subjektu umělé inteligenci (AI), zejména na základě občanského práva. Právní identita je zde definována jako pojem neoddělitelný od pojmu způsobilost k právním úkonům; to však neznamená přijmout, že morální subjektivita je totéž jako morální osobnost. Právní identita je komplexní atribut, který lze u určitých subjektů rozpoznat nebo přiřadit jiným.

Věřím, že tento atribut je odstupňovaný, diskrétní, nespojitý, mnohostranný a proměnlivý. To znamená, že může obsahovat více či méně prvků různého typu (např. povinnosti, práva, kompetence atd.), které ve většině případů může zákonodárce přidat nebo odebrat; lidská práva, která podle obecného názoru nelze zbavit, jsou výjimkou.

V současné době čelí lidstvo období společenské transformace související s nahrazením jednoho technologického režimu jiným; „chytré“ stroje a software se učí poměrně rychle; systémy umělé inteligence jsou stále více schopny nahradit lidi v mnoha činnostech. Jedním z problémů, který se v souvislosti se zdokonalováním technologií umělé inteligence objevuje stále častěji, je uznání systémů umělé inteligence jako právních subjektů, neboť dosáhly úrovně plně autonomního rozhodování a potenciálně projevující „subjektivní vůli“. Tato otázka byla hypoteticky vznesena ve 20. století. V 21. století se vědecká debata neustále vyvíjí a s každým uvedením nových modelů umělé inteligence do praxe se dostává do druhého extrému, jako je výskyt samořiditelných aut v ulicích nebo představení robotů s novou sadou funkcí.

Právní problematika určování statusu umělé inteligence je obecně teoretického charakteru, což je způsobeno objektivní nemožností predikce všech možných výstupů vývoje nových modelů umělé inteligence. Systémy umělé inteligence (AI systémy) jsou však již skutečnými účastníky určitých společenských vztahů, což vyžaduje stanovení „benchmarků“, tedy řešení zásadních problémů v této oblasti za účelem legislativní konsolidace, a tím snížení nejistoty v předpovídání vývoje vztahů zahrnujících systémy umělé inteligence v budoucnosti.

Problematika údajné identity umělé inteligence jako objektu výzkumu, zmíněná v nadpisu článku, rozhodně nepokrývá všechny systémy umělé inteligence, včetně mnoha „elektronických asistentů“, kteří se nehlásí k právnické osobě. Jejich sada funkcí je omezená a představují úzkou (slabou) umělou inteligenci. Budeme odkazovat spíše na „chytré stroje“ (kyberneticky-fyzikální inteligentní systémy) a generativní modely virtuálních inteligentních systémů, které se stále více přibližují obecné (výkonné) umělé inteligenci srovnatelné s inteligencí lidskou a v budoucnu ji i překračují.

Do roku 2023 byla otázka vytvoření silné umělé inteligence naléhavě nastolena multimodálními neuronovými sítěmi, jako je např. ChatGPT, DALL-e, a další, jejichž intelektuální schopnosti se zlepšují zvýšením počtu parametrů (modalit vnímání, včetně těch, které jsou lidem nepřístupné), a také využitím velkého množství dat pro trénink, které lidé nemohou fyzicky zpracovat. Například multimodální generativní modely neuronových sítí mohou produkovat takové obrázky, literární a vědecké texty, že není vždy možné rozlišit, zda je vytváří člověk nebo systém umělé inteligence.

IT experti zdůrazňují dva kvalitativní skoky: skok v rychlosti (četnost výskytu zcela nových modelů), který se nyní měří spíše v měsících než letech, a skok ve volatilitě (neschopnost přesně předvídat, co se může stát v oblasti umělá inteligence i do konce roku). Model ChatGPT-3 (třetí generace algoritmu pro zpracování přirozeného jazyka od OpenAI) byl představen v roce 2020 a mohl zpracovávat text, zatímco model příští generace, ChatGPT-4, který výrobce uvedl na trh v březnu 2023, nemůže „fungovat“ pouze s texty, ale i s obrázky a model nové generace se učí a bude schopen ještě více.

Před několika lety se předpokládalo, že očekávaný okamžik technologické výjimečnosti, kdy se vývoj strojů stává prakticky nekontrolovatelným a nevratným, dramaticky měnící lidskou civilizaci, nastane alespoň za několik desetiletí, ale v současnosti se stále více výzkumníků domnívá, že se to může stát. mnohem rychlejší. Z toho vyplývá vznik tzv. silné umělé inteligence, která bude demonstrovat schopnosti srovnatelné s lidskou inteligencí a bude schopna řešit podobné nebo ještě širší spektrum úkolů. Na rozdíl od slabé umělé inteligence bude mít silná umělá inteligence vědomí, přesto jednou ze základních podmínek pro vznik vědomí v inteligentních systémech je schopnost provádět multimodální chování, integrovat data z různých smyslových modalit (text, obrázek, video, zvuk atd.). ), „propojování“ informací různých modalit s realitou a vytváření úplných holistických „světových metafor“, které jsou lidem vlastní.

V březnu 2023 podepsalo více než tisíc výzkumníků, IT odborníků a podnikatelů v oblasti umělé inteligence otevřený dopis zveřejněný na webu Institutu budoucnosti života, americké výzkumné centrum specializující se na zkoumání existenčních rizik pro lidstvo. Dopis vyzývá k pozastavení školení nových modelů generativních multimodálních neuronových sítí, protože nedostatek sjednocených bezpečnostních protokolů a právní vakuum významně zvyšují rizika, protože rychlost vývoje AI se dramaticky zvýšila v důsledku „revoluce ChatGPT“. Bylo také poznamenáno, že modely umělé inteligence vyvinuly nevysvětlitelné schopnosti, které jejich vývojáři nezamýšleli, a podíl takových schopností se bude pravděpodobně postupně zvyšovat. Navíc taková technologická revoluce dramaticky podporuje vytváření inteligentních gadgetů, které se rozšíří, a nové generace, moderní děti, které vyrostly v neustálé komunikaci s asistenty umělé inteligence, se budou velmi lišit od předchozích generací.

Je možné bránit rozvoji umělé inteligence, aby se lidstvo dokázalo přizpůsobit novým podmínkám? Teoreticky ano, pokud to všechny státy umožní prostřednictvím vnitrostátních právních předpisů. Udělají tak? Na základě zveřejněných národních strategií nebudou; naopak, každý stát usiluje o vítězství v soutěži (udržení vedení nebo zmenšení rozdílu).

Schopnosti umělé inteligence přitahují podnikatele, takže podniky výrazně investují do nového vývoje, přičemž úspěch každého nového modelu řídí celý proces. Každoroční investice rostou, počítáme-li soukromé i státní investice do rozvoje; globální trh s řešeními AI se odhaduje na stovky miliard dolarů. Podle prognóz, zejména těch, které jsou obsaženy v usnesení Evropského parlamentu „O umělé inteligenci v digitálním věku“ ze dne 3. května 2022, přesáhne příspěvek umělé inteligence pro globální ekonomiku do roku 11 2030 bilionů eur.

Prakticky orientované podnikání vede k implementaci technologií umělé inteligence ve všech odvětvích ekonomiky. Umělá inteligence se využívá jak v těžebním, tak zpracovatelském průmyslu (hutnictví, palivový a chemický průmysl, strojírenství, kovoobrábění atd.). Používá se k předpovídání účinnosti vyvinutých produktů, automatizaci montážních linek, snížení zmetkovitosti, zlepšení logistiky a předcházení prostojům.

Využití umělé inteligence v dopravě zahrnuje jak autonomní vozidla, tak optimalizaci trasy předvídáním dopravních toků a také zajištění bezpečnosti předcházením nebezpečným situacím. Připuštění samořiditelných aut na veřejné silnice je tématem intenzivních diskusí v parlamentech po celém světě.

V bankovnictví systémy umělé inteligence téměř úplně nahradily lidi při posuzování bonity dlužníků; jsou stále více využívány k vývoji nových bankovních produktů a zvyšování bezpečnosti bankovních transakcí.

Technologie umělé inteligence přebírají nejen byznys, ale i sociální sféru: zdravotnictví, školství a zaměstnanost. Aplikace umělé inteligence v medicíně umožňuje lepší diagnostiku, vývoj nových léků a roboticky asistované operace; ve vzdělávání umožňuje personalizované hodiny, automatizované hodnocení studentů a odbornosti učitelů.

Dnes se zaměstnanost stále více mění kvůli exponenciálnímu růstu zaměstnanosti platforem. Podle Mezinárodní organizace práce podíl lidí pracujících prostřednictvím digitálních pracovních platforem rozšířených o umělou inteligenci celosvětově neustále roste. Platformová zaměstnanost není jedinou složkou transformace práce; významný vliv má i rostoucí míra robotizace výroby. Podle Mezinárodní federace robotiky celosvětově počet průmyslových robotů stále roste, přičemž nejrychlejší tempo robotizace bylo pozorováno v Asii, především v Číně a Japonsku.

Schopnosti umělé inteligence analyzovat data používaná pro řízení výroby, diagnostické analýzy a prognózy jsou skutečně velmi zajímavé pro vlády. Ve veřejné správě se zavádí umělá inteligence. V současné době sílí snahy o vytvoření digitálních platforem pro veřejné služby a automatizaci mnoha procesů souvisejících s rozhodováním státních orgánů.

Ve veřejném diskurzu jsou častěji zmiňovány pojmy „umělá osobnost“ a „umělá socialita“; to ukazuje, že vývoj a implementace inteligentních systémů se posunuly z čistě technické oblasti k výzkumu různých způsobů jeho integrace do humanitárních a sociokulturních aktivit.

S ohledem na výše uvedené lze konstatovat, že umělá inteligence se stále více zasazuje do života lidí. Přítomnost systémů umělé inteligence v našich životech bude v nadcházejících letech zřetelnější; poroste jak v pracovním prostředí, tak ve veřejném prostoru, ve službách i v domácnosti. Umělá inteligence bude stále více poskytovat efektivnější výsledky prostřednictvím inteligentní automatizace různých procesů, čímž vytváří nové příležitosti a představuje nové hrozby pro jednotlivce, komunity a státy.

S růstem intelektuální úrovně se systémy AI nevyhnutelně stanou nedílnou součástí společnosti; lidé s nimi budou muset koexistovat. Taková symbióza bude zahrnovat spolupráci mezi lidmi a „chytrými“ stroji, což podle nositele Nobelovy ceny za ekonomii J. Stiglitze povede k transformaci civilizace (Stiglitz, 2017). Dokonce i dnes, podle některých právníků, „za účelem zlepšení lidského blahobytu by zákon neměl rozlišovat mezi činnostmi lidí a činností umělé inteligence, když lidé a umělá inteligence plní stejné úkoly“ (Abbott, 2020). Je třeba také vzít v úvahu, že vývoj humanoidních robotů, kteří nabývají fyziologii stále více podobnou té lidské, povede mimo jiné k jejich plnění genderových rolí jako partnerů ve společnosti (Karnouskos, 2022).

Státy musí přizpůsobit svou legislativu měnícím se společenským vztahům: počet zákonů zaměřených na regulaci vztahů zahrnujících systémy umělé inteligence po celém světě rychle roste. Podle zprávy o indexu AI Stanfordské univerzity 2023, zatímco v roce 2016 byl přijat pouze jeden zákon, v roce 12 jich bylo 2018, v roce 18 2021 a v roce 37 2022. To přimělo Organizaci spojených národů, aby definovala postoj k etice pomocí umělé inteligence na globální úrovni. V září 2022 byl zveřejněn dokument, který obsahoval zásady etického využívání umělé inteligence a vycházel z Doporučení o etice umělé inteligence přijatých o rok dříve Generální konferencí UNESCO. Tempo vývoje a implementace technologií umělé inteligence je však daleko před tempem příslušných změn v legislativě.

Základní pojmy právní způsobilosti umělé inteligence

Vezmeme-li v úvahu koncepty potenciálního udělování právní způsobilosti duševním systémům, je třeba si uvědomit, že implementace kteréhokoli z těchto přístupů si vyžádá zásadní rekonstrukci stávající obecné teorie práva a novelizaci řady ustanovení v určitých odvětvích práva. Je třeba zdůraznit, že zastánci různých názorů často používají termín „elektronická osoba“, takže použití tohoto termínu neumožňuje bez přečtení díla samotného určit, který koncept autor díla zastává.

Nejradikálnějším a ve vědeckých kruzích samozřejmě nejméně oblíbeným přístupem je koncept individuální právní způsobilosti umělé inteligence. Zastánci tohoto přístupu prosazují myšlenku „plné inkluzivity“ (extrémní inkluzivismus), což znamená přiznat systémům umělé inteligence právní status podobný lidskému, stejně jako uznání jejich vlastních zájmů (Mulgan, 2019), vzhledem k jejich společenskému významu nebo sociálnímu obsah (sociální valence). To je způsobeno skutečností, že „fyzické ztělesnění robota vede k tomu, že lidé zacházejí s pohybujícím se objektem, jako by byl živý. To je ještě evidentnější, když má robot antropomorfní vlastnosti, protože podobnost s lidským tělem nutí lidi promítat emoce, pocity potěšení, bolesti a péče, stejně jako touhu navazovat vztahy“ (Avila Negri, 2021). Projekce lidských emocí na neživé předměty není nová, pochází z historie lidstva, ale při aplikaci na roboty s sebou nese četné důsledky (Balkin, 2015).

Předpoklady pro právní potvrzení této pozice jsou obvykle uvedeny takto:

– systémy umělé inteligence dosahují úrovně srovnatelné s lidskými kognitivními funkcemi;

– zvýšení míry podobnosti mezi roboty a lidmi;

– lidskost, ochrana inteligentních systémů před potenciálním „utrpením“.

Jak ukazuje seznam povinných požadavků, všechny mají vysokou míru teoretičnosti a subjektivního hodnocení. Zejména trend k vytváření antropomorfních robotů (androidů) je poháněn každodenními psychologickými a sociálními potřebami lidí, kteří se cítí dobře ve „společnosti“ jim podobných subjektů. Někteří moderní roboti mají jiné omezující vlastnosti kvůli funkcím, které vykonávají; patří mezi ně „opakovaně použitelné“ kurýrní roboty, které kladou důraz na robustní konstrukci a efektivní rozložení hmotnosti. V tomto případě přichází do hry poslední z těchto předpokladů, a to kvůli formování emocionálních vazeb s roboty v lidské mysli, podobně jako emocionální vazby mezi domácím mazlíčkem a jeho majitelem (Grin, 2018).

Myšlenka „plného začlenění“ právního postavení systémů umělé inteligence a lidí se odráží v dílech některých právních vědců. Vzhledem k tomu, že ustanovení Ústavy a odvětvové právní úpravy neobsahují zákonnou definici osobnosti, umožňuje pojem „osobnost“ v ústavním a právním smyslu teoreticky expanzivní výklad. V tomto případě by mezi jednotlivce patřili všichni nositelé inteligence, jejichž kognitivní schopnosti jsou uznávány jako dostatečně vyvinuté. Podle AV Nechkina je logika tohoto přístupu taková, že zásadní rozdíl mezi lidmi a ostatními živými bytostmi je jejich jedinečná vysoce vyvinutá inteligence (Nechkin, 2020). Uznání práv systémů umělé inteligence se zdá být dalším krokem v evoluci právního systému, který postupně rozšiřuje právní uznání na dříve diskriminované lidi a dnes poskytuje přístup i jiným než lidem (Hellers, 2021).

Pokud je systémům AI přiznán takový právní status, považují zastánci tohoto přístupu za vhodné nepřiznávat takovým systémům doslovná práva občanů v jejich ustáleném ústavně-právním výkladu, ale jejich obdoby a určitá občanská práva s určitými odchylkami. Tato pozice je založena na objektivních biologických rozdílech mezi lidmi a roboty. Například nedává smysl uznávat právo na život systému umělé inteligence, protože nežije v biologickém smyslu. Práva, svobody a povinnosti systémů umělé inteligence by měly být ve srovnání s právy občanů druhořadé; toto ustanovení zakládá odvozenou povahu umělé inteligence jako lidského výtvoru v právním smyslu.

Mezi potenciální ústavní práva a svobody systémů umělé inteligence patří právo na svobodu, právo na sebezdokonalování (učení a sebevzdělávání), právo na soukromí (ochrana softwaru před svévolnými zásahy třetích stran), svoboda projevu, právo na svobodu, právo na sebezdokonalování (učení a sebevzdělávání), právo na soukromí (ochrana softwaru před svévolnými zásahy třetích stran), svoboda kreativity, uznání autorských práv systému AI a omezených vlastnických práv. Lze uvést i specifická práva umělé inteligence, například právo přístupu ke zdroji elektřiny.

Pokud jde o povinnosti systémů umělé inteligence, navrhuje se, aby byly ústavně konsolidovány tři známé zákony robotiky formulované I. Asimovem: Neubližování člověku a předcházení škodě vlastní nečinností; uposlechnutí všech příkazů dané osobou, s výjimkou těch, jejichž cílem je ublížit jiné osobě; starat se o vlastní bezpečnost, s výjimkou dvou předchozích případů (Naumov a Arkhipov, 2017). V tomto případě budou předpisy občanského a správního práva reflektovat některé další povinnosti.

Koncept individuální právní způsobilosti umělé inteligence má velmi malou šanci na legitimizaci z několika důvodů.

Za prvé, kritérium pro uznání právní způsobilosti založené na přítomnosti vědomí a sebeuvědomění je abstraktní; umožňuje četné delikty, zneužití práva a vyvolává sociální a politické problémy jako další důvod stratifikace společnosti. Tato myšlenka byla podrobně rozpracována v práci S. Chopry a L. Whitea, kteří tvrdili, že vědomí a sebeuvědomění nejsou nezbytnou a/nebo postačující podmínkou pro uznání systémů umělé inteligence jako právního subjektu. V právní realitě jsou zcela uvědomělí jedinci, například děti (nebo otroci v římském právu), zbaveni nebo omezeni ve způsobilosti k právním úkonům. Právními subjekty přitom zůstávají (byť v omezené podobě) osoby s těžkými duševními poruchami, včetně osob prohlášených za nezpůsobilé nebo v kómatu apod., s objektivní neschopností být při vědomí v prvním případě, a ve druhém případě , mají stejnou způsobilost k právním úkonům v plném rozsahu, bez zásadních změn v jejich právním postavení. Případné upevnění uvedeného kritéria vědomí a sebeuvědomění umožní svévolně zbavit občany způsobilosti k právním úkonům.

Za druhé, systémy umělé inteligence nebudou moci uplatňovat svá práva a povinnosti v zavedeném právním smyslu, protože fungují na základě předem napsaného programu a právně významná rozhodnutí by měla být založena na subjektivní, morální volbě osoby (Morhat, 2018b). , jejich přímý projev vůle. Všechny morální postoje, pocity a touhy takového „člověka“ se odvozují od lidské inteligence (Uzhov, 2017). Autonomie systémů umělé inteligence ve smyslu jejich schopnosti samostatně se rozhodovat a realizovat je, bez vnější antropogenní kontroly či cíleného lidského vlivu (Musina, 2023), není komplexní. Umělá inteligence je dnes schopna činit pouze „kvaziautonomní rozhodnutí“, která jsou nějakým způsobem založena na idejích a morálních postojích lidí. V tomto ohledu lze uvažovat pouze o „akční operaci“ systému umělé inteligence, s vyloučením schopnosti skutečně morálně posoudit chování umělé inteligence (Petiev, 2022).

Za třetí, uznání individuální právní způsobilosti umělé inteligence (zejména v podobě jejího zrovnoprávnění se statusem fyzické osoby) vede k destruktivní změně zavedeného právního řádu a právních tradic, které se formovaly od doby římského práva resp. vyvolává řadu zásadně neřešitelných filozofických a právních otázek v oblasti lidských práv. Právo jako systém společenských norem a společenský fenomén bylo vytvořeno s ohledem na lidské možnosti a zajištění lidských zájmů. Zavedený antropocentrický systém normativních ustanovení, mezinárodní konsensus o pojetí vnitřních práv bude považován za právně i fakticky neplatný v případě nastolení přístupu „extrémního inkluzivismu“ (Dremlyuga & Dremlyuga, 2019). Udělení statutu právnické osoby systémům AI, zejména „chytrým“ robotům, proto nemusí být řešením existujících problémů, ale Pandořinou skříňkou, která prohlubuje sociální a politické rozpory (Solaiman, 2017).

Dalším bodem je, že práce zastánců tohoto konceptu obvykle zmiňují pouze roboty, tedy kyberneticko-fyzikální systémy umělé inteligence, které budou interagovat s lidmi ve fyzickém světě, zatímco virtuální systémy jsou vyloučeny, ačkoli silná umělá inteligence, pokud se objeví, bude být ztělesněny i ve virtuální podobě.

Na základě výše uvedených argumentů by měl být koncept individuální právní způsobilosti systému umělé inteligence podle současného právního řádu považován za právně nemožný.

Pojem kolektivní osobnosti s ohledem na systémy umělé inteligence získal značnou podporu mezi zastánci přípustnosti takové právní způsobilosti. Hlavní výhodou tohoto přístupu je, že z právní práce vylučuje abstraktní pojmy a hodnotové soudy (vědomí, sebeuvědomění, racionalita, morálka atd.). Přístup je založen na aplikaci právní fikce na umělou inteligenci.

Co se týče právnických osob, existují již „pokročilé regulační metody, které lze přizpůsobit k řešení dilematu právního postavení umělé inteligence“ (Hárs, 2022).

Z tohoto konceptu nevyplývá, že AI systémům je skutečně přiznána právní způsobilost fyzické osoby, ale je pouze rozšířením stávajícího institutu právnických osob, což naznačuje, že by měla být vytvořena nová kategorie právnických osob nazývaná kybernetické „elektronické organismy“. Díky tomuto přístupu je vhodnější uvažovat o právnické osobě, která není v souladu s moderním úzkým pojetím, zejména s povinností, že může nabývat a vykonávat občanská práva, nést občanskoprávní odpovědnost a být žalobcem a žalovaným u soudu svým jménem. ), avšak v širším slova smyslu, který představuje právnickou osobu jako jakoukoli jinou strukturu než fyzickou osobu nadanou právy a povinnostmi ve formě stanovené zákonem. Zastánci tohoto přístupu tedy navrhují považovat právnickou osobu za subjektivní entitu (ideální entitu) podle římského práva.

Podobnost systémů umělé inteligence a právnických osob se projevuje ve způsobu, jakým jsou vybaveny právní způsobilostí – prostřednictvím povinné státní registrace právnických osob. Teprve po absolvování stanoveného registračního řízení je právnická osoba nadána právním postavením a způsobilostí k právním úkonům, tj. stává se právním subjektem. Tento model vede diskuse o právní způsobilosti systémů AI v právní oblasti, s vyloučením uznání způsobilosti k právním úkonům z jiných (mimoprávních) důvodů, bez vnitřních předpokladů, přičemž osoba je uznána jako právní subjekt narozením.

Výhodou tohoto konceptu je rozšíření požadavku na vkládání informací do příslušných státních registrů, obdobných státnímu registru právnických osob, jako předpoklad pro přiznání způsobilosti k právním úkonům na systémy umělé inteligence. Tento způsob implementuje důležitou funkci systematizace všech právnických osob a vytvoření jednotné databáze, která je nezbytná pro kontrolu a dohled jak státních orgánů (např. v daňové oblasti), tak potenciálních protistran těchto subjektů.

Rozsah práv právnických osob v jakékoli jurisdikci je obvykle menší než rozsah práv fyzických osob; využití této struktury k přiznání právní způsobilosti umělé inteligenci tedy není spojeno s udělením řady práv navrhovaných zastánci předchozí koncepce.

Při aplikaci techniky legální fikce na právnické osoby se předpokládá, že jednání právnické osoby doprovází sdružení fyzických osob, které utvářejí jejich „vůli“ a uplatňují svou „vůli“ prostřednictvím orgánů právnické osoby.

Jinými slovy, právnické osoby jsou umělé (abstraktní) jednotky určené k uspokojování zájmů fyzických osob, které vystupovaly jako jejich zakladatelé nebo je ovládaly. Stejně tak systémy umělé inteligence jsou vytvářeny k uspokojení potřeb určitých jedinců – vývojářů, operátorů, vlastníků. Fyzická osoba, která používá nebo programuje systémy AI, se řídí svými vlastními zájmy, které tento systém zastupuje ve vnějším prostředí.

Při teoretickém posouzení takového regulačního modelu bychom neměli zapomínat, že úplná analogie mezi postavením právnických osob a systémy umělé inteligence je nemožná. Jak již bylo uvedeno výše, všechna právně významná jednání právnických osob provázejí fyzické osoby, které tato rozhodnutí přímo činí. Vůle právnické osoby je vždy určena a plně ovládána vůlí fyzických osob. Právnické osoby tak nemohou fungovat bez vůle fyzických osob. U systémů AI již existuje objektivní problém jejich autonomie, tedy schopnosti rozhodovat se bez zásahu fyzické osoby po okamžiku přímého vytvoření takového systému.

Vzhledem k inherentním omezením výše uvedených konceptů nabízí velký počet výzkumníků své vlastní přístupy k řešení právního statusu systémů umělé inteligence. Obvykle je lze přičíst různým variacím konceptu „gradientní právní způsobilosti“, podle výzkumníka z univerzity v Lovani DM Mocanu, který implikuje omezený nebo částečný právní status a právní způsobilost systémů AI s výhradou: termín „gradient“ se používá proto, že nejde pouze o zahrnutí či nezačlenění určitých práv a povinností do právního stavu, ale také o vytvoření souboru těchto práv a povinností s minimální hranicí, jakož i o uznání takové způsobilosti k právním úkonům. pro určité účely. Dva hlavní typy tohoto konceptu pak mohou zahrnovat přístupy, které ospravedlňují:

1) přiznání zvláštního právního postavení systémům AI a zařazení „elektronických osob“ do právního řádu jako zcela nové kategorie právních subjektů;

2) poskytnutí omezeného právního postavení a právní způsobilosti systémům AI v rámci občanskoprávních vztahů zavedením kategorie „elektronických agentů“.

Postoj zastánců různých přístupů v rámci tohoto konceptu lze sjednotit vzhledem k tomu, že neexistují žádné ontologické důvody považovat umělou inteligenci za právní subjekt; v konkrétních případech však již existují funkční důvody pro vybavování systémů umělé inteligence určitými právy a povinnostmi, což „se ukazuje jako nejlepší způsob prosazování individuálních a veřejných zájmů, které by měly být chráněny zákonem“ tím, že těmto systémům přiznává „omezené a úzké „formy právnické osoby“.

Přiznání zvláštního právního postavení systémům umělé inteligence zřízením samostatného právního institutu „elektronických osob“ má značnou výhodu v podrobném vysvětlení a regulaci vznikajících vztahů:

– mezi právnickými a fyzickými osobami a systémy AI;

– mezi systémy AI a jejich vývojáři (provozovateli, vlastníky);

– mezi třetí stranou a systémy AI v občanskoprávních vztazích.

V tomto právním rámci bude systém umělé inteligence řízen a spravován odděleně od jeho vývojáře, vlastníka nebo provozovatele. Při definování pojmu „elektronická osoba“ se PM Morkhat zaměřuje na aplikaci výše uvedené metody právní fikce a funkční směřování konkrétního modelu umělé inteligence: „elektronická osoba“ je technický a právní obraz (který má některé znaky právní fikce i právnické osoby), který odráží a implementuje podmíněně konkrétní právní způsobilost systému umělé inteligence, která se liší v závislosti na jeho zamýšlené funkci nebo účelu a schopnostech.

Podobně jako u konceptu kolektivních osob ve vztahu k systémům AI tento přístup zahrnuje vedení speciálních registrů „elektronických osob“. Podrobný a jasný popis práv a povinností „elektronických osob“ je základem pro další kontrolu ze strany státu a vlastníka takových systémů AI. Jasně definovaný rozsah pravomocí, zúžený rozsah právního postavení a právní způsobilost „elektronických osob“ zajistí, že tato „osoba“ nepřekročí svůj program z důvodu potenciálně samostatného rozhodování a neustálého sebevzdělávání.

Z tohoto přístupu vyplývá, že umělé inteligenci, která je ve fázi svého vzniku duševním vlastnictvím softwarových vývojářů, mohou být po příslušné certifikaci a státní registraci udělena práva právnické osoby, avšak právní status a právní způsobilost „elektronické osoby“ “ bude zachována.

Realizace zásadně nového institutu zavedeného právního řádu bude mít závažné právní důsledky, vyžadující komplexní legislativní reformu minimálně v oblastech ústavního a občanského práva. Vědci důvodně poukazují na to, že při přijímání pojmu „elektronická osoba“ je třeba postupovat opatrně vzhledem k obtížím se zaváděním nových osob do legislativy, protože rozšíření pojmu „osoba“ v právním smyslu může potenciálně vést k omezení práva a oprávněné zájmy stávajících subjektů právních vztahů (Bryson et al., 2017). Uvažovat o těchto aspektech se zdá nemožné, neboť způsobilost k právním úkonům fyzických osob, právnických osob a veřejnoprávních subjektů je výsledkem staletí vývoje teorie státu a práva.

Druhým přístupem v rámci konceptu gradientní právní způsobilosti je právní koncept „elektronických agentů“, který primárně souvisí s rozšířeným používáním systémů umělé inteligence jako prostředku komunikace mezi protistranami a jako nástrojů pro online obchod. Tento přístup lze nazvat kompromisem, neboť připouští nemožnost přiznat AI systémům status plnohodnotných právních subjektů a zároveň zakládat pro umělou inteligenci určitá (společensky významná) práva a povinnosti. Jinými slovy, koncept „elektronických agentů“ legalizuje kvazisubjektivitu umělé inteligence. Pojem „kvaziprávní subjekt“ je třeba chápat jako určitý právní jev, ve kterém jsou na úřední nebo doktrinální úrovni uznávány určité prvky právní způsobilosti, ale ustavení statusu plnohodnotného právního subjektu je nemožné.

Zastánci tohoto přístupu zdůrazňují funkční vlastnosti systémů AI, které jim umožňují vystupovat jako pasivní nástroj i aktivní účastník právních vztahů, potenciálně schopný samostatně generovat právně významné smlouvy pro vlastníka systému. O systémech umělé inteligence lze proto podmíněně uvažovat v rámci agenturních vztahů. Při vytváření (či registraci) systému AI uzavře iniciátor činnosti „elektronický agent“ s ním virtuální jednostrannou agenturní smlouvu, v jejímž důsledku je „elektronickému agentovi“ udělena řada pravomocí, které může vykonávat činit právní úkony, které jsou pro zmocnitele významné.

Zdroje:

  • R. McLay, „Řízení vzestupu umělé inteligence“, 2018
  • Bertolini A. a Episcopo F., 2022, „Roboti a AI jako právní subjekty? Rozpojení ontologické a funkční perspektivy“
  • Alekseev, A. Yu., Alekseeva, EA, Emelyanova, NN (2023). „Umělá osobnost ve společenské a politické komunikaci. Umělé společnosti"
  • “Specifika laboratorní diagnostiky Sanfilippo A syndromu” NS Trofimova, NV Olkhovich, NG Gorovenko
  • Shutkin, SI, 2020, „Je možná právní kapacita umělé inteligence? Pracuje na duševním vlastnictví“
  • Ladenkov, N. Ye., 2021, „Modely udělování právní způsobilosti umělé inteligenci“
  • Bertolini, A., a Episcopo, F., 2021, „Zpráva skupiny odborníků o odpovědnosti za umělou inteligenci a další vznikající digitální technologie: kritické hodnocení“
  • Morkhat, PM, 2018, „K otázce právní definice pojmu umělá inteligence“

Anton Vokrug je IT podnikatel, myslitel a výzkumník AI původem z Ukrajiny. Nedávno úspěšně prodal jednu ze svých IT společností. V současné době působí jako Partner a Blockchain Business Advisor ve společnosti Dexola.com.