stomp Kunstmatige intelligentie en juridische identiteit - Unite.AI
Verbind je met ons

Gedachte leiders

Kunstmatige intelligentie en juridische identiteit

mm

gepubliceerd

 on

Dit artikel richt zich op de kwestie van het verlenen van de status van juridisch subject aan kunstmatige intelligentie (AI), vooral op basis van het burgerlijk recht. Juridische identiteit wordt hier gedefinieerd als een concept dat integraal deel uitmaakt van de term handelingsbekwaamheid; Dit impliceert echter niet dat we accepteren dat morele subjectiviteit hetzelfde is als morele persoonlijkheid. Juridische identiteit is een complex kenmerk dat voor bepaalde onderwerpen kan worden herkend of aan andere kan worden toegewezen.

Ik geloof dat dit kenmerk gegradueerd, discreet, discontinu, veelzijdig en veranderlijk is. Dit betekent dat het min of meer elementen van verschillende typen kan bevatten (bijvoorbeeld plichten, rechten, bevoegdheden, enz.), die in de meeste gevallen door de wetgever kunnen worden toegevoegd of verwijderd; de mensenrechten, die volgens de algemene opinie niet beroofd kunnen worden, vormen een uitzondering.

Tegenwoordig wordt de mensheid geconfronteerd met een periode van sociale transformatie die verband houdt met de vervanging van de ene technologische modus door de andere; ‘slimme’ machines en software leren vrij snel; kunstmatige-intelligentiesystemen zijn steeds beter in staat mensen bij veel activiteiten te vervangen. Een van de problemen die zich steeds vaker voordoet als gevolg van de verbetering van kunstmatige-intelligentietechnologieën is de erkenning van kunstmatige-intelligente systemen als juridische subjecten, aangezien ze het niveau hebben bereikt waarop ze volledig autonome beslissingen kunnen nemen en mogelijk een ‘subjectieve wil’ kunnen manifesteren. Deze kwestie werd hypothetisch in de 20e eeuw aan de orde gesteld. In de 21e eeuw evolueert het wetenschappelijke debat gestaag en bereikt het andere uiterste bij elke introductie van nieuwe modellen van kunstmatige intelligentie in de praktijk, zoals de opkomst van zelfrijdende auto’s op straat of de presentatie van robots met een nieuw stel nieuwe systemen. functies.

De juridische kwestie van het bepalen van de status van kunstmatige intelligentie is van algemene theoretische aard en wordt veroorzaakt door de objectieve onmogelijkheid om alle mogelijke uitkomsten van de ontwikkeling van nieuwe modellen van kunstmatige intelligentie te voorspellen. Kunstmatige-intelligentiesystemen (AI-systemen) zijn echter al daadwerkelijke deelnemers aan bepaalde sociale relaties, wat het vaststellen van “benchmarks” vereist, dat wil zeggen het oplossen van fundamentele kwesties op dit gebied met het oog op consolidatie van de wetgeving, en dus het verminderen van de onzekerheid in de wetgeving. het voorspellen van de ontwikkeling van relaties met kunstmatige-intelligentiesystemen in de toekomst.

De kwestie van de vermeende identiteit van kunstmatige intelligentie als onderzoeksobject, genoemd in de titel van het artikel, bestrijkt zeker niet alle kunstmatige-intelligentiesystemen, inclusief veel ‘elektronische assistenten’ die niet beweren rechtspersonen te zijn. Hun reeks functies is beperkt en ze vertegenwoordigen beperkte (zwakke) kunstmatige intelligentie. We zullen eerder spreken van ‘slimme machines’ (cyber-fysieke intelligente systemen) en generatieve modellen van virtuele intelligente systemen, die in toenemende mate de algemene (krachtige) kunstmatige intelligentie benaderen die vergelijkbaar is met de menselijke intelligentie en deze in de toekomst zelfs overtreffen.

Tegen 2023 is de kwestie van het creëren van sterke kunstmatige intelligentie dringend aan de orde gesteld door multimodale neurale netwerken zoals ChatGPT, DALL-e, en andere, waarvan de intellectuele capaciteiten worden verbeterd door het vergroten van het aantal parameters (waarnemingsmodaliteiten, inclusief die welke niet toegankelijk zijn voor mensen), en door het gebruik van grote hoeveelheden gegevens voor training die mensen fysiek niet kunnen verwerken. Multimodale generatieve modellen van neurale netwerken kunnen bijvoorbeeld zulke beelden en literaire en wetenschappelijke teksten produceren dat het niet altijd mogelijk is om te onderscheiden of ze door een mens of door een kunstmatig intelligentiesysteem zijn gemaakt.

IT-experts benadrukken twee kwalitatieve sprongen: een snelheidssprong (de frequentie van de opkomst van gloednieuwe modellen), die nu wordt gemeten in maanden in plaats van jaren, en een volatiliteitssprong (het onvermogen om nauwkeurig te voorspellen wat er zou kunnen gebeuren op het gebied van technologie). kunstmatige intelligentie, zelfs tegen het einde van het jaar). Het ChatGPT-3-model (de derde generatie van het natuurlijke taalverwerkingsalgoritme van OpenAI) werd in 2020 geïntroduceerd en kon tekst verwerken, terwijl het volgende generatiemodel, ChatGPT-4, gelanceerd door de fabrikant in maart 2023, niet kan ‘werken’. alleen met teksten maar ook met afbeeldingen, en het model van de volgende generatie leert en zal tot nog meer in staat zijn.

Een paar jaar geleden werd aangenomen dat het verwachte moment van technologische singulariteit, waarop de ontwikkeling van machines vrijwel oncontroleerbaar en onomkeerbaar wordt, waardoor de menselijke beschaving dramatisch verandert, zich op zijn minst binnen een paar decennia zou voordoen, maar tegenwoordig geloven steeds meer onderzoekers dat dit kan gebeuren. veel sneller. Dit impliceert de opkomst van zogenaamde sterke kunstmatige intelligentie, die capaciteiten zal demonstreren die vergelijkbaar zijn met menselijke intelligentie en in staat zal zijn een soortgelijk of zelfs breder scala aan taken op te lossen. In tegenstelling tot zwakke kunstmatige intelligentie zal sterke AI bewustzijn hebben, maar een van de essentiële voorwaarden voor het ontstaan ​​van bewustzijn in intelligente systemen is het vermogen om multimodaal gedrag uit te voeren, waarbij gegevens uit verschillende sensorische modaliteiten (tekst, beeld, video, geluid, enz.) worden geïntegreerd. ), het ‘verbinden’ van informatie van verschillende modaliteiten met de werkelijkheid, en het creëren van complete holistische ‘wereldmetaforen’ die inherent zijn aan de mens.

In maart 2023 ondertekenden ruim duizend onderzoekers, IT-experts en ondernemers op het gebied van kunstmatige intelligentie een open brief gepubliceerd op de website van het Future of Life Institute, een Amerikaans onderzoekscentrum gespecialiseerd in het onderzoek naar existentiële risico's voor de mensheid. De brief roept op tot het opschorten van de training van nieuwe generatieve multimodale neurale netwerkmodellen, omdat het gebrek aan uniforme beveiligingsprotocollen en het juridische vacuüm de risico’s aanzienlijk vergroten, aangezien de snelheid van de ontwikkeling van AI dramatisch is toegenomen als gevolg van de ‘ChatGPT-revolutie’. Er werd ook opgemerkt dat modellen voor kunstmatige intelligentie onverklaarbare capaciteiten hebben ontwikkeld die niet door de ontwikkelaars bedoeld waren, en dat het aandeel van dergelijke capaciteiten waarschijnlijk geleidelijk zal toenemen. Bovendien stimuleert een dergelijke technologische revolutie op dramatische wijze de creatie van intelligente gadgets die wijdverspreid zullen worden, en nieuwe generaties, moderne kinderen die zijn opgegroeid in voortdurende communicatie met kunstmatige intelligentie-assistenten, zullen heel anders zijn dan voorgaande generaties.

Is het mogelijk om de ontwikkeling van kunstmatige intelligentie te belemmeren, zodat de mensheid zich kan aanpassen aan nieuwe omstandigheden? In theorie is dat zo, als alle staten dit via nationale wetgeving faciliteren. Zullen ze dat doen? Op basis van de gepubliceerde nationale strategieën zullen zij dat niet doen; integendeel, elke staat streeft ernaar de competitie te winnen (om het leiderschap te behouden of de kloof te verkleinen).

De mogelijkheden van kunstmatige intelligentie trekken ondernemers aan, dus investeren bedrijven zwaar in nieuwe ontwikkelingen, waarbij het succes van elk nieuw model het proces aanstuurt. De jaarlijkse investeringen nemen toe, gezien zowel particuliere als staatsinvesteringen in ontwikkeling; de mondiale markt voor AI-oplossingen wordt geschat op honderden miljarden dollars. Volgens voorspellingen, met name die vervat in de resolutie van het Europees Parlement “Over kunstmatige intelligentie in het digitale tijdperk” van 3 mei 2022, zal de bijdrage van kunstmatige intelligentie aan de wereldeconomie in 11 meer dan 2030 biljoen euro bedragen.

Praktijkgericht ondernemen leidt tot de implementatie van kunstmatige intelligentietechnologieën in alle sectoren van de economie. Kunstmatige intelligentie wordt gebruikt in zowel de winningsindustrie als de verwerkende industrie (metallurgie, brandstof- en chemische industrie, techniek, metaalbewerking, enz.). Het wordt toegepast om de efficiëntie van ontwikkelde producten te voorspellen, assemblagelijnen te automatiseren, uitval te verminderen, de logistiek te verbeteren en stilstand te voorkomen.

Het gebruik van kunstmatige intelligentie in de transportsector omvat zowel autonome voertuigen als routeoptimalisatie door verkeersstromen te voorspellen, maar ook het waarborgen van de veiligheid door het voorkomen van gevaarlijke situaties. De toelating van zelfrijdende auto’s tot de openbare weg is een onderwerp van intensief debat in parlementen over de hele wereld.

In het bankwezen hebben kunstmatige intelligentiesystemen de mens bijna volledig vervangen bij het beoordelen van de kredietwaardigheid van kredietnemers; ze worden steeds vaker gebruikt om nieuwe bankproducten te ontwikkelen en de veiligheid van banktransacties te verbeteren.

Technologieën voor kunstmatige intelligentie veroveren niet alleen het bedrijfsleven, maar ook de sociale sfeer: gezondheidszorg, onderwijs en werkgelegenheid. De toepassing van kunstmatige intelligentie in de geneeskunde maakt betere diagnostiek, de ontwikkeling van nieuwe medicijnen en door robots ondersteunde operaties mogelijk; in het onderwijs maakt het gepersonaliseerde lessen en geautomatiseerde beoordeling van de expertise van studenten en docenten mogelijk.

Tegenwoordig verandert de werkgelegenheid steeds meer als gevolg van de exponentiële groei van de platformwerkgelegenheid. Volgens de Internationale Arbeidsorganisatie neemt het aandeel mensen dat werkt via digitale werkgelegenheidsplatforms, aangevuld met kunstmatige intelligentie, wereldwijd gestaag toe. Platformwerkgelegenheid is niet het enige onderdeel van de arbeidstransformatie; Ook de toenemende mate van productierobotisering heeft een aanzienlijke impact. Volgens de International Federation of Robotics blijft het aantal industriële robots wereldwijd toenemen, waarbij het snelste tempo van robotisering wordt waargenomen in Azië, vooral in China en Japan.

De mogelijkheden van kunstmatige intelligentie om gegevens te analyseren die worden gebruikt voor productiebeheer, diagnostische analyses en prognoses zijn van groot belang voor overheden. Kunstmatige intelligentie wordt geïmplementeerd in het openbaar bestuur. Tegenwoordig worden de inspanningen om digitale platforms voor openbare diensten te creëren en veel processen die verband houden met de besluitvorming door overheidsinstanties te automatiseren, geïntensiveerd.

De concepten ‘kunstmatige persoonlijkheid’ en ‘kunstmatige socialiteit’ worden vaker genoemd in het publieke discours; dit toont aan dat de ontwikkeling en implementatie van intelligente systemen zijn verschoven van een puur technisch terrein naar het onderzoek naar verschillende manieren om de integratie ervan in humanitaire en sociaal-culturele activiteiten te bewerkstelligen.

In het licht van het bovenstaande kan worden gesteld dat kunstmatige intelligentie steeds dieper verankerd raakt in het leven van mensen. De aanwezigheid van kunstmatige intelligentiesystemen in ons leven zal de komende jaren duidelijker worden; het zal zowel in de werkomgeving als in de openbare ruimte, in de dienstverlening en thuis toenemen. Kunstmatige intelligentie zal steeds efficiëntere resultaten opleveren door intelligente automatisering van verschillende processen, waardoor nieuwe kansen worden gecreëerd en nieuwe bedreigingen voor individuen, gemeenschappen en staten ontstaan.

Naarmate het intellectuele niveau groeit, zullen AI-systemen onvermijdelijk een integraal onderdeel van de samenleving worden; mensen zullen met hen moeten samenleven. Een dergelijke symbiose zal samenwerking tussen mensen en ‘slimme’ machines met zich meebrengen, wat volgens de Nobelprijswinnende econoom J. Stiglitz zal leiden tot de transformatie van de beschaving (Stiglitz, 2017). Zelfs vandaag de dag zou de wet, volgens sommige advocaten, “om het menselijk welzijn te vergroten geen onderscheid moeten maken tussen de activiteiten van mensen en die van kunstmatige intelligentie, wanneer mensen en kunstmatige intelligentie dezelfde taken uitvoeren” (Abbott, 2020). Er moet ook rekening mee worden gehouden dat de ontwikkeling van humanoïde robots, die een fysiologie krijgen die steeds meer op die van mensen lijkt, er onder meer toe zal leiden dat zij genderrollen vervullen als partners in de samenleving (Karnouskos, 2022).

Staten moeten hun wetgeving aanpassen aan veranderende sociale verhoudingen: het aantal wetten dat gericht is op het reguleren van relaties waarbij kunstmatige intelligentiesystemen betrokken zijn, groeit over de hele wereld snel. Volgens het AI Index Report 2023 van Stanford University werd er in 2016 slechts één wet aangenomen, maar in 12 waren het er twaalf, in 2018 18 en in 2021 37. Dit was voor de Verenigde Naties aanleiding om een ​​standpunt te bepalen over de ethiek van gebruik van kunstmatige intelligentie op mondiaal niveau. In september 2022 werd een document gepubliceerd dat de principes van ethisch gebruik van kunstmatige intelligentie bevatte en gebaseerd was op de aanbevelingen over de ethiek van kunstmatige intelligentie die een jaar eerder door de Algemene Conferentie van UNESCO waren aangenomen. Het tempo van de ontwikkeling en implementatie van kunstmatige-intelligentietechnologieën ligt echter ver voor op het tempo van de relevante veranderingen in de wetgeving.

Basisconcepten van juridische capaciteit van kunstmatige intelligentie

Gezien de concepten van het mogelijk verlenen van juridische capaciteit aan intellectuele systemen, moet worden erkend dat de implementatie van elk van deze benaderingen een fundamentele reconstructie zal vereisen van de bestaande algemene rechtstheorie en wijzigingen in een aantal bepalingen in bepaalde takken van het recht. Benadrukt moet worden dat voorstanders van verschillende opvattingen vaak de term 'elektronische persoon' gebruiken. Het gebruik van deze term maakt het dus niet mogelijk om te bepalen van welk concept de auteur van het werk voorstander is zonder het werk zelf te lezen.

De meest radicale en uiteraard minst populaire benadering in wetenschappelijke kringen is het concept van de individuele juridische capaciteit van kunstmatige intelligentie. Voorstanders van deze aanpak brengen het idee van ‘volledige inclusiviteit’ (extreem inclusivisme) naar voren, wat inhoudt dat AI-systemen een juridische status moeten krijgen die vergelijkbaar is met die van mensen, en dat hun eigen belangen moeten worden erkend (Mulgan, 2019), gezien hun sociale betekenis of sociale belangen. inhoud (sociale valentie). Dit laatste wordt veroorzaakt door het feit dat “de fysieke belichaming van de robot ertoe leidt dat mensen dit bewegende object behandelen alsof het leeft. Dit wordt nog duidelijker wanneer de robot antropomorfe kenmerken heeft, omdat de gelijkenis met het menselijk lichaam ervoor zorgt dat mensen emoties, gevoelens van plezier, pijn en zorg gaan projecteren, evenals het verlangen om relaties aan te gaan” (Avila Negri, 2021). De projectie van menselijke emoties op levenloze objecten is niet nieuw en dateert uit de menselijke geschiedenis, maar als het wordt toegepast op robots, brengt het talloze implicaties met zich mee (Balkin, 2015).

De voorwaarden voor juridische bevestiging van dit standpunt worden doorgaans als volgt vermeld:

– AI-systemen bereiken een niveau dat vergelijkbaar is met menselijke cognitieve functies;

– het vergroten van de mate van gelijkenis tussen robots en mensen;

– menselijkheid, bescherming van intelligente systemen tegen potentieel “lijden”.

Zoals uit de lijst met verplichte vereisten blijkt, hebben ze allemaal een hoge mate van theorievorming en subjectieve beoordeling. In het bijzonder wordt de trend naar het creëren van antropomorfe robots (androïden) gedreven door de dagelijkse psychologische en sociale behoeften van mensen die zich op hun gemak voelen in het ‘gezelschap’ van mensen die op hen lijken. Sommige moderne robots hebben andere beperkende eigenschappen vanwege de functies die ze uitvoeren; Daartoe behoren onder meer ‘herbruikbare’ koeriersrobots, die prioriteit geven aan een robuuste constructie en efficiënte gewichtsverdeling. In dit geval speelt de laatste van deze voorwaarden een rol, vanwege de vorming van emotionele banden met robots in de menselijke geest, vergelijkbaar met de emotionele banden tussen een huisdier en zijn eigenaar (Grin, 2018).

Het idee van ‘volledige integratie’ van de juridische status van AI-systemen en mensen wordt weerspiegeld in de werken van sommige rechtsgeleerden. Omdat de bepalingen van de Grondwet en de sectorale wetgeving geen wettelijke definitie van een persoonlijkheid bevatten, maakt het concept van ‘persoonlijkheid’ in constitutionele en juridische zin theoretisch een ruime interpretatie mogelijk. In dit geval zouden onder individuen ook alle houders van intelligentie worden verstaan ​​waarvan de cognitieve vaardigheden als voldoende ontwikkeld worden erkend. Volgens AV Nechkin is de logica van deze benadering dat het essentiële verschil tussen mensen en andere levende wezens hun unieke, hoogontwikkelde intelligentie is (Nechkin, 2020). Erkenning van de rechten van kunstmatige-intelligentiesystemen lijkt de volgende stap te zijn in de evolutie van het rechtssysteem, dat geleidelijk de wettelijke erkenning uitbreidt naar voorheen gediscrimineerde mensen, en vandaag de dag ook toegang biedt aan niet-mensen (Hellers, 2021).

Als AI-systemen een dergelijke juridische status krijgen, achten de voorstanders van deze aanpak het passend om dergelijke systemen niet de letterlijke rechten van burgers te verlenen in hun gevestigde constitutionele en juridische interpretatie, maar hun analogen en bepaalde burgerrechten met enkele afwijkingen. Dit standpunt is gebaseerd op objectieve biologische verschillen tussen mensen en robots. Het heeft bijvoorbeeld geen zin om het recht op leven voor een AI-systeem te erkennen, omdat het niet in biologische zin leeft. De rechten, vrijheden en verplichtingen van kunstmatige-intelligentiesystemen moeten ondergeschikt zijn aan de rechten van burgers; deze bepaling vestigt het afgeleide karakter van kunstmatige intelligentie als een menselijke creatie in juridische zin.

Potentiële grondwettelijke rechten en vrijheden van kunstmatige intelligente systemen omvatten het recht om vrij te zijn, het recht op zelfverbetering (leren en zelfleren), het recht op privacy (bescherming van software tegen willekeurige inmenging door derden), vrijheid van meningsuiting, vrijheid van creativiteit, erkenning van het auteursrecht op AI-systemen en beperkte eigendomsrechten. Ook kunnen specifieke rechten op het gebied van kunstmatige intelligentie worden vermeld, zoals het recht op toegang tot een elektriciteitsbron.

Wat de taken van kunstmatige-intelligentiesystemen betreft, wordt gesuggereerd dat de drie bekende wetten van de robotica, geformuleerd door I. Asimov, grondwettelijk moeten worden geconsolideerd: geen schade toebrengen aan een persoon en schade voorkomen door zijn eigen passiviteit; het gehoorzamen van alle bevelen die door een persoon worden gegeven, behalve de bevelen die gericht zijn op het schaden van een andere persoon; het zorgen voor hun eigen veiligheid, behalve in de twee voorgaande gevallen (Naumov en Arkhipov, 2017). In dit geval zullen de regels van het burgerlijk en administratief recht een aantal andere plichten weerspiegelen.

Het concept van de individuele juridische capaciteit van kunstmatige intelligentie heeft om verschillende redenen zeer weinig kans om gelegitimeerd te worden.

Ten eerste is het criterium voor het erkennen van handelingsbekwaamheid gebaseerd op de aanwezigheid van bewustzijn en zelfbewustzijn abstract; het maakt talloze overtredingen en rechtsmisbruik mogelijk en veroorzaakt sociale en politieke problemen als extra reden voor de gelaagdheid van de samenleving. Dit idee werd gedetailleerd uitgewerkt in het werk van S. Chopra en L. White, die betoogden dat bewustzijn en zelfbewustzijn geen noodzakelijke en/of voldoende voorwaarde zijn om AI-systemen als juridisch onderwerp te erkennen. In de juridische realiteit zijn volledig bewuste individuen, bijvoorbeeld kinderen (of slaven in de Romeinse wet), beroofd of beperkt in hun juridische capaciteit. Tegelijkertijd blijven personen met ernstige psychische stoornissen, inclusief degenen die arbeidsongeschikt zijn verklaard of in coma liggen, enz., met een objectief onvermogen om bij bewustzijn te zijn in het eerste geval legale subjecten (zij het in een beperkte vorm), en in het tweede geval , hebben zij dezelfde volledige rechtsbevoegdheid, zonder grote veranderingen in hun juridische status. De potentiële consolidatie van het genoemde criterium van bewustzijn en zelfbewustzijn zal het mogelijk maken burgers willekeurig hun rechtsbevoegdheid te ontnemen.

Ten tweede zullen kunstmatige-intelligentiesystemen hun rechten en plichten niet in de gevestigde juridische zin kunnen uitoefenen, omdat ze werken op basis van een eerder geschreven programma, en juridisch belangrijke beslissingen gebaseerd moeten zijn op de subjectieve, morele keuze van een persoon (Morhat, 2018b). , hun directe wilsuiting. Alle morele attitudes, gevoelens en verlangens van zo’n ‘persoon’ worden afgeleid van menselijke intelligentie (Uzhov, 2017). De autonomie van kunstmatige-intelligentiesystemen in de zin van hun vermogen om zelfstandig beslissingen te nemen en uit te voeren, zonder externe antropogene controle of gerichte menselijke invloed (Musina, 2023), is niet alomvattend. Tegenwoordig is kunstmatige intelligentie alleen nog in staat ‘quasi-autonome beslissingen’ te nemen die op de een of andere manier gebaseerd zijn op de ideeën en morele attitudes van mensen. In dit opzicht kan alleen de “actie-operatie” van een AI-systeem in aanmerking worden genomen, met uitsluiting van het vermogen om een ​​echte morele beoordeling te maken van het gedrag van kunstmatige intelligentie (Petiev, 2022).

Ten derde leidt de erkenning van de individuele juridische capaciteit van kunstmatige intelligentie (vooral in de vorm van het gelijkstellen ervan aan de status van een natuurlijke persoon) tot een destructieve verandering in de gevestigde rechtsorde en juridische tradities die zijn gevormd sinds het Romeinse recht en de roept een aantal fundamenteel onoplosbare filosofische en juridische kwesties op het gebied van de mensenrechten op. Het recht als systeem van sociale normen en een sociaal fenomeen is gecreëerd met inachtneming van de menselijke capaciteiten en om de menselijke belangen te waarborgen. Het gevestigde antropocentrische systeem van normatieve bepalingen en de internationale consensus over het concept van interne rechten zullen als juridisch en feitelijk ongeldig worden beschouwd in geval van het invoeren van een benadering van “extreem inclusivisme” (Dremlyuga & Dremlyuga, 2019). Daarom is het toekennen van de status van een juridische entiteit aan AI-systemen, in het bijzonder ‘slimme’ robots, misschien geen oplossing voor bestaande problemen, maar een doos van Pandora die sociale en politieke tegenstellingen verergert (Solaiman, 2017).

Een ander punt is dat de werken van de voorstanders van dit concept gewoonlijk alleen maar melding maken van robots, dat wil zeggen cyber-fysieke kunstmatige-intelligentiesystemen die zullen interageren met mensen in de fysieke wereld, terwijl virtuele systemen worden uitgesloten, hoewel sterke kunstmatige intelligentie, als die opduikt, wel zal kunnen functioneren. ook in virtuele vorm worden belichaamd.

Op basis van bovenstaande argumenten moet het concept van individuele rechtsbevoegdheid van een kunstmatige-intelligentiesysteem onder de huidige rechtsorde als juridisch onmogelijk worden beschouwd.

Het concept van collectieve persoonlijkheid met betrekking tot kunstmatige intelligente systemen heeft aanzienlijke steun gekregen onder voorstanders van de toelaatbaarheid van een dergelijke rechtsbevoegdheid. Het belangrijkste voordeel van deze aanpak is dat abstracte concepten en waardeoordelen (bewustzijn, zelfbewustzijn, rationaliteit, moraliteit, enz.) worden uitgesloten van juridisch werk. De aanpak is gebaseerd op de toepassing van juridische fictie op kunstmatige intelligentie.

Wat juridische entiteiten betreft, bestaan ​​er al “geavanceerde regelgevingsmethoden die kunnen worden aangepast om het dilemma van de juridische status van kunstmatige intelligentie op te lossen” (Hárs, 2022).

Dit concept impliceert niet dat AI-systemen feitelijk de rechtsbevoegdheid van een natuurlijke persoon krijgen, maar is slechts een uitbreiding van het bestaande instituut van juridische entiteiten, wat suggereert dat er een nieuwe categorie van juridische entiteiten, cybernetische ‘elektronische organismen’ genaamd, gecreëerd moet worden. Deze benadering maakt het passender om een ​​juridische entiteit te beschouwen die niet in overeenstemming is met het moderne enge concept, in het bijzonder de verplichting dat zij burgerrechten mag verwerven en uitoefenen, civielrechtelijke aansprakelijkheden kan dragen en namens zichzelf eiser en gedaagde in de rechtbank mag zijn. ), maar in bredere zin, die een rechtspersoon vertegenwoordigt als elke andere structuur dan een natuurlijke persoon die rechten en plichten heeft in de vorm waarin de wet voorziet. Voorstanders van deze benadering stellen dus voor om een ​​juridische entiteit te beschouwen als een subjectieve entiteit (ideale entiteit) naar Romeins recht.

De gelijkenis tussen kunstmatige-intelligentiesystemen en rechtspersonen komt tot uiting in de manier waarop ze rechtsbevoegdheid krijgen – via verplichte staatsregistratie van rechtspersonen. Pas nadat de vastgestelde registratieprocedure is doorlopen, krijgt een rechtspersoon een rechtsstatus en rechtsbevoegdheid, dwz hij wordt een juridisch subject. Dit model houdt discussies over de handelingsbekwaamheid van AI-systemen op juridisch gebied in stand, waarbij de erkenning van handelingsbekwaamheid op andere (buitenwettelijke) gronden, zonder interne vereisten, wordt uitgesloten, terwijl een persoon door geboorte als rechtssubject wordt erkend.

Het voordeel van dit concept is de uitbreiding naar kunstmatige intelligente systemen van de vereiste om informatie in te voeren in de relevante staatsregisters, vergelijkbaar met het staatsregister van rechtspersonen, als voorwaarde voor het verlenen van rechtsbevoegdheid. Deze methode implementeert een belangrijke functie van het systematiseren van alle juridische entiteiten en het creëren van één enkele database, die nodig is voor zowel de staatsautoriteiten voor controle en toezicht (bijvoorbeeld op het gebied van belastingen) als voor potentiële tegenpartijen van dergelijke entiteiten.

De reikwijdte van de rechten van rechtspersonen in welk rechtsgebied dan ook is doorgaans kleiner dan die van natuurlijke personen; daarom wordt het gebruik van deze structuur om juridische capaciteit aan kunstmatige intelligentie te verlenen niet geassocieerd met het verlenen ervan aan een aantal rechten die zijn voorgesteld door de voorstanders van het vorige concept.

Bij het toepassen van de techniek van juridische fictie op rechtspersonen wordt ervan uitgegaan dat de handelingen van een rechtspersoon begeleid worden door een vereniging van natuurlijke personen die hun “testament” vormen en hun “wil” uitoefenen via de bestuursorganen van de rechtspersoon.

Met andere woorden, rechtspersonen zijn kunstmatige (abstracte) eenheden die zijn ontworpen om de belangen te behartigen van natuurlijke personen die als oprichters optraden of hen controleerden. Op dezelfde manier worden kunstmatig intelligente systemen gecreëerd om aan de behoeften van bepaalde individuen te voldoen: ontwikkelaars, operators, eigenaren. Een natuurlijk persoon die AI-systemen gebruikt of programmeert, laat zich leiden door zijn of haar eigen belangen, die dit systeem vertegenwoordigt in de externe omgeving.

Als we een dergelijk reguleringsmodel in theorie beoordelen, mogen we niet vergeten dat een volledige analogie tussen de posities van rechtspersonen en AI-systemen onmogelijk is. Zoals hierboven vermeld worden alle juridisch belangrijke handelingen van rechtspersonen begeleid door natuurlijke personen die deze beslissingen rechtstreeks nemen. De wil van een rechtspersoon wordt altijd bepaald en volledig beheerst door de wil van natuurlijke personen. Rechtspersonen kunnen dus niet opereren zonder de wil van natuurlijke personen. Wat betreft AI-systemen bestaat er al een objectief probleem van hun autonomie, namelijk het vermogen om beslissingen te nemen zonder tussenkomst van een natuurlijke persoon na het moment van de directe creatie van een dergelijk systeem.

Gezien de inherente beperkingen van de hierboven besproken concepten, biedt een groot aantal onderzoekers hun eigen benaderingen aan om de juridische status van kunstmatige intelligente systemen aan te pakken. Conventioneel kunnen ze worden toegeschreven aan verschillende varianten van het concept van ‘gradiënt-rechtsbekwaamheid’, aldus de onderzoeker DM Mocanu van de Universiteit van Leuven, die een beperkte of gedeeltelijke juridische status en juridische capaciteit van AI-systemen impliceert, met een voorbehoud: de De term “gradiënt” wordt gebruikt omdat het niet alleen gaat om het al dan niet opnemen van bepaalde rechten en verplichtingen in de juridische status, maar ook om het vormen van een reeks van dergelijke rechten en verplichtingen met een minimumdrempel, en om het alleen erkennen van dergelijke juridische capaciteiten voor bepaalde doeleinden. Vervolgens kunnen de twee hoofdtypen van dit concept benaderingen omvatten die het volgende rechtvaardigen:

1) AI-systemen een bijzondere juridische status geven en ‘elektronische personen’ in de rechtsorde opnemen als een geheel nieuwe categorie van rechtssubjecten;

2) AI-systemen een beperkte juridische status en juridische mogelijkheden geven binnen het raamwerk van burgerlijke rechtsbetrekkingen door de introductie van de categorie ‘elektronische agenten’.

De standpunten van voorstanders van verschillende benaderingen binnen dit concept kunnen verenigd worden, gegeven het feit dat er geen ontologische gronden zijn om kunstmatige intelligentie als een juridisch onderwerp te beschouwen; In specifieke gevallen zijn er echter al functionele redenen om kunstmatige-intelligentiesystemen bepaalde rechten en verplichtingen te geven, wat “de beste manier blijkt om de individuele en publieke belangen te bevorderen die door de wet moeten worden beschermd” door deze systemen “beperkte en beperkte mogelijkheden” te geven. “vormen van rechtspersoon”.

Het toekennen van een speciale juridische status aan kunstmatige-intelligentiesystemen door het oprichten van een aparte juridische instelling van ‘elektronische personen’ heeft een aanzienlijk voordeel bij de gedetailleerde uitleg en regulering van de relaties die ontstaan:

– tussen rechtspersonen en natuurlijke personen en AI-systemen;

– tussen AI-systemen en hun ontwikkelaars (exploitanten, eigenaren);

– tussen een derde partij en AI-systemen in civielrechtelijke betrekkingen.

In dit wettelijke kader zal het kunstmatige-intelligentiesysteem afzonderlijk van de ontwikkelaar, eigenaar of exploitant worden gecontroleerd en beheerd. Bij het definiëren van het concept van de ‘elektronische persoon’ concentreert premier Morkhat zich op de toepassing van de bovengenoemde methode van juridische fictie en de functionele richting van een bepaald model van kunstmatige intelligentie: ‘elektronische persoon’ is een technisch en juridisch beeld (dat heeft enkele kenmerken van zowel juridische fictie als van een juridische entiteit) die een voorwaardelijk specifieke juridische capaciteit van een kunstmatige-intelligentiesysteem weerspiegelt en implementeert, die verschilt afhankelijk van de beoogde functie of het doel en de mogelijkheden ervan.

Net als bij het concept van collectieve personen in relatie tot AI-systemen, omvat deze aanpak het bijhouden van speciale registers van “elektronische personen”. Een gedetailleerde en duidelijke beschrijving van de rechten en plichten van ‘elektronische personen’ vormt de basis voor verdere controle door de staat en de eigenaar van dergelijke AI-systemen. Een duidelijk gedefinieerd scala aan bevoegdheden, een beperkte reikwijdte van de juridische status en de juridische mogelijkheden van ‘elektronische personen’ zullen ervoor zorgen dat deze ‘persoon’ niet buiten zijn programma treedt vanwege potentieel onafhankelijke besluitvorming en voortdurend zelfleren.

Deze benadering houdt in dat kunstmatige intelligentie, die in de fase van haar creatie het intellectuele eigendom is van softwareontwikkelaars, de rechten van een juridische entiteit kan krijgen na passende certificering en staatsregistratie, maar dat de juridische status en juridische mogelijkheden van een “elektronische persoon ’ zal behouden blijven.

De implementatie van een fundamenteel nieuwe instelling van de gevestigde rechtsorde zal ernstige juridische gevolgen hebben, waardoor een alomvattende hervorming van de wetgeving nodig is, op zijn minst op het gebied van het grondwettelijk en burgerlijk recht. Onderzoekers wijzen er redelijkerwijs op dat voorzichtigheid geboden is bij het adopteren van het concept van een “elektronische persoon”, gezien de moeilijkheden bij het introduceren van nieuwe personen in de wetgeving, aangezien de uitbreiding van het concept van “persoon” in juridische zin mogelijk kan leiden tot beperkingen op het gebied van de wetgeving. de rechten en legitieme belangen van bestaande subjecten van juridische relaties (Bryson et al., 2017). Het lijkt onmogelijk om deze aspecten in beschouwing te nemen, aangezien de rechtsbekwaamheid van natuurlijke personen, rechtspersonen en publiekrechtelijke entiteiten het resultaat is van eeuwenlange evolutie van de staats- en rechtstheorie.

De tweede benadering binnen het concept van gradiënt-wettelijke capaciteit is het juridische concept van ‘elektronische agenten’, dat voornamelijk verband houdt met het wijdverbreide gebruik van AI-systemen als communicatiemiddel tussen tegenpartijen en als instrument voor onlinehandel. Deze aanpak kan een compromis worden genoemd, omdat het de onmogelijkheid erkent om de status van volwaardige rechtssubjecten aan AI-systemen te verlenen en tegelijkertijd bepaalde (maatschappelijk belangrijke) rechten en plichten voor kunstmatige intelligentie vast te stellen. Met andere woorden: het concept van ‘elektronische agenten’ legaliseert de quasi-subjectiviteit van kunstmatige intelligentie. De term ‘quasi-juridisch subject’ moet worden opgevat als een bepaald juridisch fenomeen waarin bepaalde elementen van rechtsbevoegdheid worden erkend op officieel of leerstellig niveau, maar het vaststellen van de status van een volwaardig juridisch subject is onmogelijk.

Voorstanders van deze aanpak benadrukken de functionele kenmerken van AI-systemen die hen in staat stellen te fungeren als zowel een passief instrument als een actieve deelnemer aan juridische relaties, die potentieel in staat zijn om zelfstandig juridisch belangrijke contracten voor de systeemeigenaar te genereren. Daarom kunnen AI-systemen voorwaardelijk worden beschouwd binnen het kader van de relaties tussen agentschappen. Bij het creëren (of registreren) van een AI-systeem gaat de initiatiefnemer van de ‘elektronische agent’-activiteit met hem een ​​vrijwel eenzijdige agentuurovereenkomst aan, waardoor de ‘elektronische agent’ een aantal bevoegdheden krijgt toegekend, die hij kan uitoefenen. het verrichten van rechtshandelingen die voor de opdrachtgever van betekenis zijn.

Bronnen:

  • R. McLay, ‘De opkomst van kunstmatige intelligentie beheren’, 2018
  • Bertolini A. en Episcopo F., 2022, “Robots en AI als juridische onderwerpen? Het ontologische en functionele perspectief ontwarren”
  • Alekseev, A. Yu., Alekseeva, EA, Emelyanova, NN (2023). “Kunstmatige persoonlijkheid in sociale en politieke communicatie. Kunstmatige samenlevingen”
  • “Specifiekheden van laboratoriumdiagnostiek van het Sanfilippo A-syndroom” NS Trofimova, NV Olkhovich, NG Gorovenko
  • Shutkin, SI, 2020, “Is de juridische capaciteit van kunstmatige intelligentie mogelijk? Werkt aan intellectueel eigendom”
  • Ladenkov, N. Ye., 2021, “Modellen voor het verlenen van juridische capaciteit aan kunstmatige intelligentie”
  • Bertolini, A., en Episcopo, F., 2021, “Het rapport van de deskundigengroep over aansprakelijkheid voor kunstmatige intelligentie en andere opkomende digitale technologieën: een kritische beoordeling”
  • Morkhat, PM, 2018, “Over de kwestie van de juridische definitie van de term kunstmatige intelligentie”

Anton Vokrug is een IT-ondernemer, denker en AI-onderzoeker, oorspronkelijk uit Oekraïne. Onlangs heeft hij met succes een van zijn IT-bedrijven verkocht. Momenteel is hij Partner en Blockchain Business Advisor bij Dexola.com.