stub Sztuczna inteligencja i tożsamość prawna - Unite.AI
Kontakt z nami

Liderzy myśli

Sztuczna inteligencja i tożsamość prawna

mm

Opublikowany

 on

W artykule skupiono się na problematyce nadawania sztucznej inteligencji (AI) statusu podmiotu prawnego, zwłaszcza w oparciu o prawo cywilne. Tożsamość prawna jest tu definiowana jako pojęcie integralne z pojęciem zdolności prawnej; nie oznacza to jednak przyjęcia, że ​​podmiotowość moralna jest tym samym, co osobowość moralna. Tożsamość prawna jest złożonym atrybutem, który można rozpoznać dla niektórych podmiotów lub przypisać innym.

Uważam, że ten atrybut jest stopniowany, dyskretny, nieciągły, wieloaspektowy i zmienny. Oznacza to, że może zawierać mniej lub więcej elementów różnego typu (np. obowiązki, prawa, kompetencje itp.), które w większości przypadków ustawodawca może dodać lub usunąć; prawa człowieka, których według powszechnej opinii nie można pozbawić, stanowią wyjątek.

Współcześnie ludzkość stoi w obliczu okresu transformacji społecznej, związanej z zastąpieniem jednego trybu technologicznego innym; „inteligentne” maszyny i oprogramowanie uczą się dość szybko; Systemy sztucznej inteligencji w coraz większym stopniu są w stanie zastępować ludzi w wielu czynnościach. Jednym z zagadnień pojawiających się coraz częściej w związku z doskonaleniem technologii sztucznej inteligencji jest uznanie systemów sztucznej inteligencji za podmioty prawne, gdyż osiągnęły one poziom podejmowania w pełni autonomicznych decyzji i potencjalnie manifestują „subiektywną wolę”. Kwestię tę hipotetycznie podniesiono w XX wieku. W XXI wieku debata naukowa stale ewoluuje, osiągając drugą skrajność z każdym wprowadzeniem do praktyki nowych modeli sztucznej inteligencji, jak pojawienie się na ulicach samochodów autonomicznych czy prezentacja robotów z nowym zestawem Funkcje.

Problem prawny określenia statusu sztucznej inteligencji ma charakter ogólnoteoretyczny, co wynika z obiektywnej niemożności przewidzenia wszystkich możliwych skutków opracowania nowych modeli sztucznej inteligencji. Jednakże systemy sztucznej inteligencji (systemy AI) są już faktycznymi uczestnikami niektórych relacji społecznych, co wymaga ustalenia „benchmarków”, czyli rozwiązania zasadniczych kwestii w tym obszarze na potrzeby konsolidacji legislacyjnej, a co za tym idzie zmniejszenia niepewności w przewidywanie rozwoju powiązań z udziałem systemów sztucznej inteligencji w przyszłości.

Przywołana w tytule artykułu kwestia rzekomej tożsamości sztucznej inteligencji jako przedmiotu badań z pewnością nie obejmuje wszystkich systemów sztucznej inteligencji, w tym wielu „elektronicznych asystentów”, którzy nie podają się za osoby prawne. Ich zestaw funkcji jest ograniczony i reprezentują wąską (słabą) sztuczną inteligencję. Będziemy raczej mówić o „inteligentnych maszynach” (cyberfizycznych inteligentnych systemach) i generatywnych modelach wirtualnych inteligentnych systemów, które coraz bardziej zbliżają się do ogólnej (potężnej) sztucznej inteligencji porównywalnej z ludzką inteligencją, a w przyszłości nawet ją przewyższającej.

Do roku 2023 kwestia stworzenia silnej sztucznej inteligencji zostanie pilnie podniesiona przez multimodalne sieci neuronowe, takie jak ChatGPT, DALL-ei inne, których możliwości intelektualne są doskonalone poprzez zwiększanie liczby parametrów (modalności percepcji, w tym niedostępnych dla człowieka), a także poprzez wykorzystanie do treningu dużych ilości danych, których człowiek nie jest w stanie fizycznie przetworzyć. Na przykład multimodalne modele generatywne sieci neuronowych mogą generować takie obrazy, teksty literackie i naukowe, że nie zawsze można rozróżnić, czy są one tworzone przez człowieka, czy przez system sztucznej inteligencji.

Eksperci IT podkreślają dwa skoki jakościowe: skok szybkości (częstotliwość pojawiania się zupełnie nowych modeli), mierzoną obecnie w miesiącach, a nie latach, oraz skok zmienności (niemożność dokładnego przewidzenia, co może się wydarzyć w dziedzinie sztuczna inteligencja nawet do końca roku). Model ChatGPT-3 (trzecia generacja algorytmu przetwarzania języka naturalnego od OpenAI) został wprowadzony w 2020 roku i mógł przetwarzać tekst, natomiast model nowej generacji, ChatGPT-4, wprowadzony przez producenta w marcu 2023 roku, może „pracować” nie tylko tekstami, ale także obrazami, a model nowej generacji uczy się i będzie mógł jeszcze więcej.

Jeszcze kilka lat temu przewidywano, że przewidywany moment technologicznej osobliwości, kiedy rozwój maszyn stanie się praktycznie niekontrolowany i nieodwracalny, radykalnie zmieniając cywilizację ludzką nastąpi co najmniej za kilka dekad, obecnie jednak coraz więcej badaczy wierzy, że może to nastąpić o wiele szybciej. Oznacza to pojawienie się tzw. silnej sztucznej inteligencji, która wykaże się zdolnościami porównywalnymi z ludzką inteligencją i będzie w stanie rozwiązać podobny lub nawet szerszy zakres zadań. W przeciwieństwie do słabej sztucznej inteligencji, silna sztuczna inteligencja będzie miała świadomość, jednak jednym z podstawowych warunków pojawienia się świadomości w inteligentnych systemach jest zdolność do wykonywania zachowań multimodalnych, integrując dane z różnych modalności sensorycznych (tekst, obraz, wideo, dźwięk itp.). ), „łączenia” informacji o różnych modalnościach z rzeczywistością i tworzenia kompletnych, holistycznych „metafor świata” właściwych człowiekowi.

W marcu 2023 roku ponad tysiąc badaczy, ekspertów IT i przedsiębiorców działających w obszarze sztucznej inteligencji podpisało umowę list otwarty opublikowany na stronie internetowej Instytutu Przyszłości Życia, amerykański ośrodek badawczy specjalizujący się w badaniu zagrożeń egzystencjalnych dla ludzkości. W piśmie wzywa się do zawieszenia szkolenia nowych generatywnych modeli multimodalnych sieci neuronowych, ponieważ brak ujednoliconych protokołów bezpieczeństwa i próżnia prawna znacznie zwiększają ryzyko, ponieważ tempo rozwoju sztucznej inteligencji dramatycznie wzrosło w wyniku „rewolucji ChatGPT”. Zauważono także, że modele sztucznej inteligencji rozwinęły niewyjaśnione możliwości, niezamierzone przez ich twórców, a udział takich możliwości prawdopodobnie będzie stopniowo wzrastał. Ponadto taka rewolucja technologiczna radykalnie przyspiesza tworzenie inteligentnych gadżetów, które staną się powszechne, a nowe pokolenia, nowoczesne dzieci, które dorastały w ciągłej komunikacji z asystentami sztucznej inteligencji, będą bardzo różnić się od poprzednich pokoleń.

Czy można zahamować rozwój sztucznej inteligencji, aby ludzkość mogła dostosować się do nowych warunków? Teoretycznie tak jest, jeśli wszystkie państwa ułatwią to poprzez ustawodawstwo krajowe. Czy to zrobią? Z opublikowanych strategii krajowych wynika, że ​​nie; wręcz przeciwnie, każde państwo dąży do wygrania konkurencji (utrzymania pozycji lidera lub zmniejszenia dystansu).

Możliwości sztucznej inteligencji przyciągają przedsiębiorców, dlatego firmy intensywnie inwestują w nowe rozwiązania, a sukces każdego nowego modelu napędza ten proces. Roczne inwestycje rosną, biorąc pod uwagę zarówno prywatne, jak i państwowe inwestycje w rozwój; globalny rynek rozwiązań AI szacowany jest na setki miliardów dolarów. Według prognoz, w szczególności tych zawartych w uchwale Parlamentu Europejskiego „O sztucznej inteligencji w epoce cyfrowej” z dnia 3 maja 2022 r., wkład sztucznej inteligencji w światową gospodarkę do 11 r. przekroczy 2030 bilionów euro.

Biznes zorientowany na praktykę prowadzi do wdrażania technologii sztucznej inteligencji we wszystkich sektorach gospodarki. Sztuczna inteligencja znajduje zastosowanie zarówno w przemyśle wydobywczym, jak i przetwórczym (hutnictwo, przemysł paliwowo-chemiczny, inżynieria, obróbka metali itp.). Stosuje się go do przewidywania wydajności opracowywanych produktów, automatyzacji linii montażowych, ograniczania liczby odrzutów, usprawniania logistyki i zapobiegania przestojom.

Zastosowanie sztucznej inteligencji w transporcie obejmuje zarówno pojazdy autonomiczne, jak i optymalizację tras poprzez przewidywanie potoków ruchu, a także zapewnienie bezpieczeństwa poprzez zapobieganie niebezpiecznym sytuacjom. Dopuszczenie samochodów autonomicznych na drogi publiczne jest przedmiotem intensywnej debaty w parlamentach na całym świecie.

W bankowości systemy sztucznej inteligencji niemal całkowicie zastąpiły człowieka w ocenie zdolności kredytowej kredytobiorców; coraz częściej wykorzystywane są do opracowywania nowych produktów bankowych i zwiększania bezpieczeństwa transakcji bankowych.

Technologie sztucznej inteligencji przejmują nie tylko biznes, ale także sferę społeczną: opiekę zdrowotną, edukację i zatrudnienie. Zastosowanie sztucznej inteligencji w medycynie umożliwia lepszą diagnostykę, opracowywanie nowych leków i operacje wspomagane robotyką; w edukacji pozwala na spersonalizowane lekcje, automatyczną ocenę uczniów i wiedzy nauczycieli.

Obecnie zatrudnienie ulega coraz większym zmianom ze względu na wykładniczy wzrost zatrudnienia na platformach. Według Międzynarodowej Organizacji Pracy na całym świecie stale rośnie odsetek osób pracujących za pośrednictwem cyfrowych platform zatrudnienia wspomaganych sztuczną inteligencją. Zatrudnienie za pośrednictwem platform internetowych nie jest jedynym elementem transformacji rynku pracy; Istotny wpływ ma także rosnący poziom robotyzacji produkcji. Według Międzynarodowej Federacji Robotyki liczba robotów przemysłowych na całym świecie stale rośnie, przy czym najszybsze tempo robotyzacji obserwuje się w Azji, przede wszystkim w Chinach i Japonii.

Rzeczywiście możliwości sztucznej inteligencji w zakresie analizowania danych wykorzystywanych do zarządzania produkcją, analiz diagnostycznych i prognozowania cieszą się ogromnym zainteresowaniem rządów. Sztuczna inteligencja jest wdrażana w administracji publicznej. Obecnie intensyfikują się wysiłki zmierzające do stworzenia cyfrowych platform usług publicznych i automatyzacji wielu procesów związanych z podejmowaniem decyzji przez agencje rządowe.

W dyskursie publicznym coraz częściej pojawiają się pojęcia „sztuczna osobowość” i „sztuczna społeczność”; pokazuje to, że rozwój i wdrażanie inteligentnych systemów przesunęło się z dziedziny czysto technicznej do badania różnych sposobów ich integracji z działalnością humanitarną i społeczno-kulturową.

W świetle powyższego można stwierdzić, że sztuczna inteligencja jest coraz głębiej wpisana w życie człowieka. W nadchodzących latach obecność systemów sztucznej inteligencji w naszym życiu stanie się bardziej widoczna; wzrośnie zarówno w środowisku pracy, jak i przestrzeni publicznej, w usługach i w domu. Sztuczna inteligencja będzie w coraz większym stopniu zapewniała wydajniejsze wyniki poprzez inteligentną automatyzację różnych procesów, tworząc tym samym nowe możliwości i stwarzając nowe zagrożenia dla jednostek, społeczności i państw.

Wraz ze wzrostem poziomu intelektualnego systemy sztucznej inteligencji nieuchronnie staną się integralną częścią społeczeństwa; ludzie będą musieli z nimi współistnieć. Taka symbioza będzie polegać na współpracy człowieka i „inteligentnych” maszyn, co zdaniem noblisty ekonomisty J. Stiglitza doprowadzi do transformacji cywilizacyjnej (Stiglitz, 2017). Nawet dzisiaj, zdaniem niektórych prawników, „w celu zwiększenia dobrostanu człowieka prawo nie powinno rozróżniać działań człowieka od działań sztucznej inteligencji, gdy człowiek i sztuczna inteligencja wykonują te same zadania” (Abbott, 2020). Należy także wziąć pod uwagę, że rozwój robotów humanoidalnych, które nabierają fizjologii coraz bardziej zbliżonej do ludzkiej, będzie prowadził m.in. do pełnienia przez nie ról płciowych jako partnerów w społeczeństwie (Karnouskos, 2022).

Państwa muszą dostosować swoje ustawodawstwo do zmieniających się stosunków społecznych: na całym świecie szybko rośnie liczba przepisów mających na celu regulację stosunków z udziałem systemów sztucznej inteligencji. Jak wynika z raportu AI Index Report 2023 Uniwersytetu Stanforda, choć w 2016 r. przyjęto tylko jedną ustawę, w 12 r. było ich 2018, w 18 r. 2021, a w 37 r. 2022. Skłoniło to Organizację Narodów Zjednoczonych do określenia stanowiska w sprawie etyki wykorzystania sztucznej inteligencji na poziomie globalnym. We wrześniu 2022 roku ukazał się dokument zawierający zasady etycznego wykorzystania sztucznej inteligencji, oparty na przyjętych rok wcześniej przez Konferencję Generalną UNESCO Zaleceniach dotyczących etyki sztucznej inteligencji. Jednak tempo rozwoju i wdrażania technologii sztucznej inteligencji znacznie wyprzedza tempo odpowiednich zmian legislacyjnych.

Podstawowe pojęcia dotyczące zdolności prawnej sztucznej inteligencji

Rozważając koncepcje potencjalnego nadania systemom intelektualnym zdolności prawnej, należy przyznać, że realizacja któregokolwiek z tych podejść będzie wymagała zasadniczej przebudowy dotychczasowej ogólnej teorii prawa i nowelizacji szeregu przepisów w niektórych gałęziach prawa. Należy podkreślić, że zwolennicy odmiennych poglądów często posługują się terminem „osoba elektroniczna”, tym samym użycie tego określenia nie pozwala bez lektury samego dzieła określić, jakiej koncepcji zwolennikiem jest autor dzieła.

Najbardziej radykalnym i oczywiście najmniej popularnym podejściem w kręgach naukowych jest koncepcja indywidualnej zdolności prawnej sztucznej inteligencji. Zwolennicy tego podejścia wysuwają ideę „pełnej inkluzywności” (ekstremalnego inkluzywizmu), która zakłada nadanie systemom AI statusu prawnego na poziomie człowieka, a także uznanie własnych interesów (Mulgan, 2019), ze względu na ich znaczenie społeczne lub społeczne treść (wartościowość społeczna). To drugie wynika z faktu, że „fizyczne wcielenie robota sprawia, że ​​ludzie traktują poruszający się obiekt tak, jakby był żywy. Jest to tym bardziej widoczne, gdy robot ma cechy antropomorficzne, gdyż podobieństwo do ludzkiego ciała sprawia, że ​​ludzie zaczynają emanować emocjami, uczuciami przyjemności, bólu i troski, a także chęcią nawiązania relacji” (Avila Negri, 2021). Projekcja ludzkich emocji na przedmioty nieożywione nie jest niczym nowym, sięgającym historii ludzkości, jednak zastosowana do robotów niesie ze sobą liczne implikacje (Balkin, 2015).

O przesłankach prawnego potwierdzenia tego stanowiska najczęściej wymienia się:

– systemy AI osiągają poziom porównywalny z funkcjami poznawczymi człowieka;

– zwiększenie stopnia podobieństwa robotów do ludzi;

– ludzkość, ochrona inteligentnych systemów przed potencjalnym „cierpieniem”.

Jak pokazuje lista obowiązkowych wymagań, wszystkie mają wysoki stopień teoretyzowania i subiektywnej oceny. W szczególności trend w kierunku tworzenia robotów antropomorficznych (androidów) napędzany jest codziennymi potrzebami psychologicznymi i społecznymi ludzi, którzy dobrze czują się w „towarzystwie” podobnych im podmiotów. Niektóre nowoczesne roboty mają inne właściwości ograniczające ze względu na pełnione funkcje; należą do nich roboty kurierskie „wielokrotnego użytku”, dla których priorytetem jest solidna konstrukcja i efektywne rozłożenie ciężaru. W tym przypadku wchodzi w grę ostatnia z tych przesłanek, gdyż w umyśle człowieka tworzy się więź emocjonalna z robotem, podobna do więzi emocjonalnej łączącej zwierzę domowe z jego właścicielem (Grin, 2018).

Idea „pełnego uwzględnienia” statusu prawnego systemów sztucznej inteligencji i człowieka znajduje odzwierciedlenie w pracach niektórych prawników. Ponieważ przepisy Konstytucji i ustawodawstwa sektorowego nie zawierają prawnej definicji osobowości, pojęcie „osobowości” w sensie konstytucyjno-prawnym teoretycznie pozwala na ekspansywną interpretację. W tym przypadku do jednostek zaliczają się wszyscy posiadacze inteligencji, których zdolności poznawcze uznaje się za dostatecznie rozwinięte. Według AV Nechkina logika tego podejścia polega na tym, że zasadniczą różnicą między ludźmi a innymi żywymi istotami jest ich wyjątkowa, wysoko rozwinięta inteligencja (Nechkin, 2020). Uznanie praw systemów sztucznej inteligencji wydaje się być kolejnym krokiem w ewolucji systemu prawnego, który stopniowo rozszerza uznanie prawne na osoby wcześniej dyskryminowane, a dziś zapewnia dostęp także do osób niebędących ludźmi (Hellers, 2021).

W przypadku przyznania systemom AI takiego statusu prawnego, zwolennicy tego podejścia uznają za właściwe przyznanie takim systemom nie dosłownych praw obywateli w ich utrwalonej interpretacji konstytucyjnej i prawnej, ale ich odpowiedników i określonych praw obywatelskich z pewnymi odstępstwami. Stanowisko to opiera się na obiektywnych różnicach biologicznych między ludźmi i robotami. Nie ma na przykład sensu uznawanie prawa do życia systemu AI, ponieważ nie żyje on w sensie biologicznym. Prawa, wolności i obowiązki systemów sztucznej inteligencji powinny mieć charakter drugorzędny w porównaniu z prawami obywateli; przepis ten ustanawia pochodny charakter sztucznej inteligencji jako wytworu człowieka w sensie prawnym.

Potencjalne konstytucyjne prawa i wolności systemów sztucznej inteligencji obejmują prawo do wolności, prawo do samodoskonalenia (uczenia się i samokształcenia), prawo do prywatności (ochrona oprogramowania przed arbitralną ingerencją osób trzecich), wolność słowa, wolność twórczości, uznanie praw autorskich do systemu AI i ograniczonych praw majątkowych. Można także wymienić szczegółowe prawa sztucznej inteligencji, takie jak prawo dostępu do źródła energii elektrycznej.

Jeśli chodzi o zadania systemów sztucznej inteligencji, sugeruje się konstytucyjne ujednolicenie trzech dobrze znanych praw robotyki sformułowanych przez I. Asimova: Nie wyrządzać człowiekowi krzywdy i zapobiegać krzywdzie przez własną bierność; przestrzeganie wszelkich poleceń wydawanych przez człowieka, z wyjątkiem tych, których celem jest wyrządzenie krzywdy innej osobie; dbanie o własne bezpieczeństwo, z wyjątkiem dwóch poprzednich przypadków (Naumov i Arkhipov, 2017). W takim przypadku przepisy prawa cywilnego i administracyjnego będą odzwierciedlały inne obowiązki.

Koncepcja indywidualnej zdolności prawnej sztucznej inteligencji ma bardzo małe szanse na legitymizację z kilku powodów.

Po pierwsze, kryterium uznania zdolności prawnej na podstawie obecności świadomości i samoświadomości jest abstrakcyjne; pozwala na liczne przestępstwa, nadużycia prawa oraz prowokuje problemy społeczne i polityczne jako dodatkową przyczynę rozwarstwienia społeczeństwa. Idea ta została szczegółowo rozwinięta w pracach S. Chopry i L. White’a, którzy argumentowali, że świadomość i samoświadomość nie są warunkiem koniecznym i/lub wystarczającym uznania systemów AI za podmiot prawny. W rzeczywistości prawnej całkowicie świadome jednostki, na przykład dzieci (lub niewolnicy w prawie rzymskim), są pozbawione lub ograniczone zdolności do czynności prawnych. Jednocześnie osoby z ciężkimi zaburzeniami psychicznymi, w tym uznane za ubezwłasnowolnione, znajdujące się w śpiączce itp., z obiektywną niezdolnością do bycia przytomnym, w pierwszym przypadku pozostają podmiotami prawnymi (choć w ograniczonej formie), a w drugim , mają tę samą pełną zdolność do czynności prawnych, bez większych zmian w swoim statusie prawnym. Potencjalne utrwalenie wspomnianego kryterium świadomości i samoświadomości umożliwi arbitralne pozbawienie obywateli zdolności do czynności prawnych.

Po drugie, systemy sztucznej inteligencji nie będą mogły realizować swoich praw i obowiązków w ustalonym sensie prawnym, gdyż działają w oparciu o wcześniej napisany program, a istotne prawnie decyzje powinny opierać się na subiektywnym, moralnym wyborze człowieka (Morhat, 2018b). , ich bezpośredni wyraz woli. Wszelkie postawy moralne, uczucia i pragnienia takiej „osoby” wywodzą się z ludzkiej inteligencji (Użow, 2017). Autonomia systemów sztucznej inteligencji w sensie ich zdolności do samodzielnego podejmowania decyzji i ich wdrażania, bez zewnętrznej kontroli antropogenicznej i ukierunkowanego wpływu człowieka (Musina, 2023), nie jest pełna. W dzisiejszych czasach sztuczna inteligencja jest w stanie podejmować jedynie „quasi-autonomiczne decyzje”, które w jakiś sposób opierają się na ideach i postawach moralnych ludzi. W tym względzie można brać pod uwagę jedynie „działanie-działanie” systemu AI, z wyłączeniem możliwości dokonania prawdziwej oceny moralnej zachowania sztucznej inteligencji (Petiev, 2022).

Po trzecie, uznanie indywidualnej zdolności prawnej sztucznej inteligencji (zwłaszcza w postaci zrównania jej ze statusem osoby fizycznej) prowadzi do destrukcyjnej zmiany w ustalonym porządku prawnym i tradycjach prawnych, które ukształtowały się od czasów prawa rzymskiego i podnosi szereg zasadniczo nierozwiązywalnych kwestii filozoficznych i prawnych w obszarze praw człowieka. Prawo jako system norm społecznych i zjawisko społeczne zostało stworzone z uwzględnieniem możliwości człowieka i w trosce o jego interesy. Utrwalony antropocentryczny system przepisów normatywnych, międzynarodowy konsensus w sprawie koncepcji praw wewnętrznych, w przypadku ustanowienia podejścia „skrajnego inkluzywizmu” zostaną uznane za nieważne pod względem prawnym i faktycznym (Dremlyuga i Dremlyuga, 2019). Dlatego nadanie statusu podmiotu prawnego systemom AI, w szczególności „inteligentnym” robotom, może nie być rozwiązaniem istniejących problemów, ale puszką Pandory pogłębiającą sprzeczności społeczne i polityczne (Solaiman, 2017).

Inną kwestią jest to, że w pracach zwolenników tej koncepcji najczęściej wspomina się wyłącznie o robotach, czyli cyberfizycznych systemach sztucznej inteligencji, które będą wchodzić w interakcje z ludźmi w świecie fizycznym, natomiast wyklucza się systemy wirtualne, choć silna sztuczna inteligencja, jeśli się pojawi, będzie być urzeczywistnione również w formie wirtualnej.

Na podstawie powyższych argumentów koncepcję indywidualnej zdolności prawnej systemu sztucznej inteligencji należy uznać za prawnie niemożliwą w obecnym porządku prawnym.

Koncepcja osobowości zbiorowej w odniesieniu do systemów sztucznej inteligencji zyskała znaczne poparcie wśród zwolenników dopuszczalności takiej zdolności prawnej. Główną zaletą tego podejścia jest to, że wyklucza ono abstrakcyjne pojęcia i sądy wartościujące (świadomość, samoświadomość, racjonalność, moralność itp.) z pracy prawniczej. Podejście to opiera się na zastosowaniu fikcji prawnej do sztucznej inteligencji.

Jeśli chodzi o podmioty prawne, istnieją już „zaawansowane metody regulacyjne, które można dostosować w celu rozwiązania dylematu statusu prawnego sztucznej inteligencji” (Hárs, 2022).

Koncepcja ta nie oznacza, że ​​systemom AI faktycznie nadawana jest zdolność prawna osoby fizycznej, lecz stanowi jedynie rozwinięcie istniejącej instytucji podmiotów prawnych, co sugeruje utworzenie nowej kategorii podmiotów prawnych zwanych cybernetycznymi „organizmami elektronicznymi”. Takie podejście sprawia, że ​​bardziej właściwe jest uznanie podmiotu prawnego za niezgodny ze współczesnym wąskim pojęciem, w szczególności z obowiązkiem nabywania i wykonywania praw obywatelskich, ponoszenia odpowiedzialności cywilnej oraz bycia powodem i pozwanym w sądzie we własnym imieniu ), ale w szerszym sensie, który reprezentuje osobę prawną jako jakąkolwiek strukturę inną niż osoba fizyczna, posiadająca prawa i obowiązki w formie przewidzianej przez prawo. Zwolennicy tego podejścia proponują zatem uznanie podmiotu prawnego za podmiot podmiotowy (podmiot idealny) w prawie rzymskim.

Podobieństwo systemów sztucznej inteligencji do podmiotów prawnych przejawia się w sposobie nadawania im zdolności prawnej – poprzez obowiązkową rejestrację państwową podmiotów prawnych. Dopiero po przejściu ustalonej procedury rejestracyjnej osoba prawna uzyskuje status prawny i zdolność prawną, czyli staje się podmiotem prawnym. W modelu tym prowadzone są dyskusje na temat zdolności prawnej systemów AI na płaszczyźnie prawnej, z wyłączeniem uznania zdolności prawnej na innej podstawie (pozaprawnej), bez przesłanek wewnętrznych, przy jednoczesnym uznaniu osoby za podmiot prawny z urodzenia.

Zaletą tej koncepcji jest rozszerzenie na systemy sztucznej inteligencji wymogu wpisania informacji do właściwych rejestrów państwowych, na wzór państwowego rejestru osób prawnych, jako warunku nadania im zdolności prawnej. Metoda ta realizuje ważną funkcję usystematyzowania wszystkich podmiotów prawnych i stworzenia jednej bazy danych, która jest niezbędna zarówno władzom państwa do kontroli i nadzoru (np. w zakresie podatków), jak i potencjalnym kontrahentom takich podmiotów.

Zakres praw osób prawnych w dowolnej jurysdykcji jest zwykle mniejszy niż osób fizycznych; zatem wykorzystanie tej struktury do nadania sztucznej inteligencji zdolności prawnej nie wiąże się z przyznaniem jej szeregu uprawnień proponowanych przez zwolenników poprzedniej koncepcji.

Stosując technikę fikcji prawnej w odniesieniu do osób prawnych, zakłada się, że działaniom osoby prawnej towarzyszy stowarzyszenie osób fizycznych, które tworzą swoją „wolę” i wykonują swoją „wolę” za pośrednictwem organów osoby prawnej.

Inaczej mówiąc, podmioty prawne to sztuczne (abstrakcyjne) jednostki mające na celu zaspokojenie interesów osób fizycznych, które były ich założycielami lub je kontrolowały. Podobnie systemy sztucznej inteligencji tworzone są na potrzeby konkretnych osób – deweloperów, operatorów, właścicieli. Osoba fizyczna korzystająca lub programująca systemy AI kieruje się własnymi interesami, które system ten reprezentuje w środowisku zewnętrznym.

Oceniając w teorii taki model regulacyjny, nie należy zapominać, że pełna analogia pomiędzy stanowiskami podmiotów prawnych i systemów AI jest niemożliwa. Jak wspomniano powyżej, wszelkim prawnie istotnym działaniom osób prawnych towarzyszą osoby fizyczne, które bezpośrednio podejmują te decyzje. Wola osoby prawnej jest zawsze określana i w pełni kontrolowana przez wolę osób fizycznych. Zatem osoby prawne nie mogą działać bez woli osób fizycznych. W przypadku systemów AI istnieje już obiektywny problem ich autonomii, czyli możliwości podejmowania decyzji bez ingerencji osoby fizycznej po momencie bezpośredniego stworzenia takiego systemu.

Biorąc pod uwagę nieodłączne ograniczenia omówionych powyżej koncepcji, wielu badaczy oferuje własne podejścia do kwestii statusu prawnego systemów sztucznej inteligencji. Konwencjonalnie można je przypisać różnym odmianom koncepcji „gradientowej zdolności prawnej”, zdaniem badacza z Uniwersytetu w Leuven DM Mocanu, który sugeruje ograniczony lub częściowy status prawny i zdolność prawną systemów AI z zastrzeżeniem: używa się określenia „gradient”, gdyż nie chodzi tu tylko o włączenie lub niewłączenie do stanu prawnego określonych praw i obowiązków, ale także o ukształtowanie zespołu takich praw i obowiązków z minimalnym progiem, a także o uznanie jedynie takiej zdolności prawnej w określonych celach. Następnie dwa główne typy tej koncepcji mogą obejmować podejścia uzasadniające:

1) nadanie systemom AI szczególnego statusu prawnego i włączenie do porządku prawnego „osób elektronicznych” jako zupełnie nowej kategorii podmiotów prawnych;

2) nadanie systemom AI ograniczonego statusu prawnego i zdolności prawnej w ramach cywilnoprawnych stosunków prawnych poprzez wprowadzenie kategorii „agentów elektronicznych”.

Stanowiska zwolenników różnych podejść w ramach tej koncepcji można zjednoczyć, zważywszy, że nie ma podstaw ontologicznych, aby uznać sztuczną inteligencję za podmiot prawny; jednakże w konkretnych przypadkach istnieją już funkcjonalne przesłanki, aby nadać systemom sztucznej inteligencji określone prawa i obowiązki, co „okazuje się najlepszym sposobem promowania interesów indywidualnych i publicznych, które powinny być prawnie chronione” poprzez przyznanie tym systemom „ograniczonych i wąskich „formy podmiotu prawnego”.

Nadanie specjalnego statusu prawnego systemom sztucznej inteligencji poprzez powołanie odrębnej instytucji prawnej „osób elektronicznych” ma istotną przewagę w szczegółowym wyjaśnianiu i regulowaniu powstających relacji:

– pomiędzy osobami prawnymi i osobami fizycznymi a systemami AI;

– pomiędzy systemami AI a ich twórcami (operatorami, właścicielami);

– pomiędzy osobą trzecią a systemami AI w stosunkach cywilnoprawnych.

W tych ramach prawnych system sztucznej inteligencji będzie kontrolowany i zarządzany niezależnie od jego twórcy, właściciela lub operatora. Definiując pojęcie „osoby elektronicznej”, premier Morkhat skupia się na zastosowaniu wspomnianej metody fikcji prawnej i kierunku funkcjonalnym konkretnego modelu sztucznej inteligencji: „osoba elektroniczna” to obraz techniczno-prawny (który ma pewne cechy fikcji prawnej, a także osoby prawnej), która odzwierciedla i realizuje warunkowo specyficzną zdolność prawną systemu sztucznej inteligencji, która różni się w zależności od jego zamierzonej funkcji lub celu i możliwości.

Podobnie jak koncepcja osób zbiorowych w odniesieniu do systemów AI, podejście to zakłada prowadzenie specjalnych rejestrów „osób elektronicznych”. Szczegółowy i jasny opis praw i obowiązków „osób elektronicznych” jest podstawą dalszej kontroli ze strony państwa i właściciela takich systemów AI. Jasno określony zakres uprawnień, zawężony zakres statusu prawnego i zdolność prawna „osób elektronicznych” sprawią, że „osoba ta” nie wyjdzie poza swój program ze względu na potencjalnie samodzielne podejmowanie decyzji i ciągłe samokształcenie.

Podejście to zakłada, że ​​sztuczna inteligencja, która na etapie jej tworzenia stanowi własność intelektualną twórców oprogramowania, może po odpowiedniej certyfikacji i rejestracji państwowej uzyskać prawa osoby prawnej, jednak status prawny i zdolność prawna „osoby elektronicznej ” zostanie zachowane.

Wdrożenie zasadniczo nowej instytucji ustalonego porządku prawnego będzie miało poważne konsekwencje prawne, wymagające kompleksowej reformy legislacyjnej przynajmniej w obszarze prawa konstytucyjnego i cywilnego. Badacze słusznie zwracają uwagę, że przy przyjmowaniu pojęcia „osoby elektronicznej” należy zachować ostrożność, biorąc pod uwagę trudności związane z wprowadzeniem do ustawodawstwa nowych osób, gdyż rozszerzenie pojęcia „osoby” w sensie prawnym może potencjalnie skutkować ograniczeniami prawa i uzasadnione interesy istniejących podmiotów stosunków prawnych (Bryson i in., 2017). Uwzględnienie tych aspektów wydaje się niemożliwe, gdyż zdolność prawna osób fizycznych, prawnych i podmiotów prawa publicznego jest wynikiem wielowiekowej ewolucji teorii państwa i prawa.

Drugie podejście w ramach koncepcji gradientowej zdolności prawnej to koncepcja prawna „agentów elektronicznych”, związana przede wszystkim z powszechnym wykorzystaniem systemów AI jako środka komunikacji pomiędzy kontrahentami oraz jako narzędzi handlu internetowego. Podejście to można nazwać kompromisem, gdyż uznaje niemożność nadania systemom AI statusu pełnoprawnych podmiotów prawnych przy jednoczesnym ustanowieniu pewnych (istotnych społecznie) praw i obowiązków dla sztucznej inteligencji. Innymi słowy, koncepcja „agentów elektronicznych” legalizuje quasi-podmiotowość sztucznej inteligencji. Przez podmiot quasi-prawny należy rozumieć pewne zjawisko prawne, w którym na poziomie urzędowym lub doktrynalnym uznawane są pewne elementy zdolności prawnej, lecz nie jest możliwe ustalenie statusu pełnoprawnego podmiotu prawnego.

Zwolennicy tego podejścia podkreślają cechy funkcjonalne systemów AI, które pozwalają im pełnić zarówno funkcję pasywnego narzędzia, jak i aktywnego uczestnika stosunków prawnych, potencjalnie zdolnego do samodzielnego generowania znaczących prawnie kontraktów dla właściciela systemu. Dlatego systemy AI można warunkowo rozpatrywać w ramach relacji agencyjnych. Tworząc (lub rejestrując) system AI, inicjator działalności „elektronicznego agenta” zawiera z nim wirtualną jednostronną umowę agencyjną, w wyniku której „elektroniczny agent” otrzymuje szereg uprawnień, z których może skorzystać dokonywania czynności prawnych istotnych dla zleceniodawcy.

Źródła:

  • R. McLay, „Zarządzanie rozwojem sztucznej inteligencji”, 2018
  • Bertolini A. i Episcopo F., 2022, „Roboty i sztuczna inteligencja jako podmioty prawne? Rozplątanie perspektywy ontologicznej i funkcjonalnej”
  • Alekseev, A. Yu., Alekseeva, EA, Emelyanova, NN (2023). „Sztuczna osobowość w komunikacji społecznej i politycznej. Sztuczne społeczeństwa”
  • „Specyfika diagnostyki laboratoryjnej zespołu Sanfilippo A” NS Trofimova, NV Olkhovich, NG Gorovenko
  • Shutkin, SI, 2020, „Czy sztuczna inteligencja ma zdolność prawną? Pracuje nad własnością intelektualną”
  • Ladenkov, N. Ye., 2021, „Modele nadawania zdolności prawnej sztucznej inteligencji”
  • Bertolini, A. i Episcopo, F., 2021, „Raport grupy ekspertów w sprawie odpowiedzialności za sztuczną inteligencję i inne pojawiające się technologie cyfrowe: krytyczna ocena”
  • Morkhat, PM, 2018, „W kwestii prawnej definicji pojęcia sztuczna inteligencja”

Anton Vokrug jest przedsiębiorcą, myślicielem i badaczem sztucznej inteligencji pochodzącym z Ukrainy. Ostatnio z sukcesem sprzedał jedną ze swoich spółek IT. Obecnie pełni funkcję Partnera i Doradcy Biznesowego Blockchain w firmie Dexola.com.