στέλεχος Τεχνητή Νοημοσύνη και Νομική Ταυτότητα - Unite.AI
Συνδεθείτε μαζί μας

Ηγέτες της σκέψης

Τεχνητή Νοημοσύνη και Νομική Ταυτότητα

mm

Δημοσιευμένα

 on

Αυτό το άρθρο εστιάζει στο ζήτημα της χορήγησης της ιδιότητας του νομικού υποκειμένου στην τεχνητή νοημοσύνη (AI), ειδικά βάσει του αστικού δικαίου. Η νομική ταυτότητα ορίζεται εδώ ως έννοια αναπόσπαστη του όρου της δικαιοπρακτικής ικανότητας. Ωστόσο, αυτό δεν συνεπάγεται την αποδοχή ότι η ηθική υποκειμενικότητα είναι ίδια με την ηθική προσωπικότητα. Η νομική ταυτότητα είναι ένα σύνθετο χαρακτηριστικό που μπορεί να αναγνωριστεί για ορισμένα θέματα ή να ανατεθεί σε άλλα.

Πιστεύω ότι αυτό το χαρακτηριστικό είναι βαθμολογημένο, διακριτό, ασυνεχές, πολύπλευρο και μεταβλητό. Αυτό σημαίνει ότι μπορεί να περιέχει περισσότερο ή λιγότερο στοιχεία διαφορετικών τύπων (π.χ. καθήκοντα, δικαιώματα, αρμοδιότητες κ.λπ.), τα οποία στις περισσότερες περιπτώσεις μπορούν να προστεθούν ή να αφαιρεθούν από τον νομοθέτη. Τα ανθρώπινα δικαιώματα, τα οποία, κατά την κοινή γνώμη, δεν μπορούν να στερηθούν, αποτελούν την εξαίρεση.

Σήμερα, η ανθρωπότητα αντιμετωπίζει μια περίοδο κοινωνικού μετασχηματισμού που σχετίζεται με την αντικατάσταση ενός τεχνολογικού τρόπου με έναν άλλο. Οι «έξυπνες» μηχανές και το λογισμικό μαθαίνουν αρκετά γρήγορα. Τα συστήματα τεχνητής νοημοσύνης είναι ολοένα και πιο ικανά να αντικαταστήσουν τους ανθρώπους σε πολλές δραστηριότητες. Ένα από τα ζητήματα που ανακύπτουν ολοένα και συχνότερα λόγω της βελτίωσης των τεχνολογιών τεχνητής νοημοσύνης είναι η αναγνώριση των συστημάτων τεχνητής νοημοσύνης ως νομικά υποκείμενα, καθώς έχουν φτάσει στο επίπεδο να λαμβάνουν πλήρως αυτόνομες αποφάσεις και να εκδηλώνουν ενδεχομένως «υποκειμενική βούληση». Το θέμα αυτό τέθηκε υποθετικά τον 20ό αιώνα. Στον 21ο αιώνα, η επιστημονική συζήτηση εξελίσσεται σταθερά, φτάνοντας στο άλλο άκρο με κάθε εισαγωγή νέων μοντέλων τεχνητής νοημοσύνης στην πράξη, όπως η εμφάνιση αυτοοδηγούμενων αυτοκινήτων στους δρόμους ή η παρουσίαση ρομπότ με ένα νέο σύνολο λειτουργίες.

Το νομικό ζήτημα του καθορισμού του καθεστώτος της τεχνητής νοημοσύνης είναι γενικής θεωρητικής φύσης, το οποίο προκαλείται από την αντικειμενική αδυναμία πρόβλεψης όλων των πιθανών αποτελεσμάτων της ανάπτυξης νέων μοντέλων τεχνητής νοημοσύνης. Ωστόσο, τα συστήματα τεχνητής νοημοσύνης (συστήματα τεχνητής νοημοσύνης) είναι ήδη πραγματικοί συμμετέχοντες σε ορισμένες κοινωνικές σχέσεις, γεγονός που απαιτεί τη θέσπιση «σημείων αναφοράς», δηλαδή την επίλυση θεμελιωδών ζητημάτων σε αυτόν τον τομέα με σκοπό τη νομοθετική ενοποίηση και, επομένως, τη μείωση της αβεβαιότητας στην πρόβλεψη της ανάπτυξης σχέσεων που αφορούν συστήματα τεχνητής νοημοσύνης στο μέλλον.

Το θέμα της υποτιθέμενης ταυτότητας της τεχνητής νοημοσύνης ως αντικείμενο έρευνας, που αναφέρεται στον τίτλο του άρθρου, σίγουρα δεν καλύπτει όλα τα συστήματα τεχνητής νοημοσύνης, συμπεριλαμβανομένων πολλών «ηλεκτρονικών βοηθών» που δεν ισχυρίζονται ότι είναι νομικά πρόσωπα. Το σύνολο των λειτουργιών τους είναι περιορισμένο και αντιπροσωπεύουν στενή (αδύναμη) τεχνητή νοημοσύνη. Θα αναφερθούμε μάλλον σε «έξυπνες μηχανές» (κυβερνο-φυσικά ευφυή συστήματα) και παραγωγικά μοντέλα εικονικών ευφυών συστημάτων, τα οποία πλησιάζουν όλο και περισσότερο τη γενική (ισχυρή) τεχνητή νοημοσύνη συγκρίσιμη με την ανθρώπινη νοημοσύνη και, στο μέλλον, την υπερβαίνουν ακόμη και.

Μέχρι το 2023, το ζήτημα της δημιουργίας ισχυρής τεχνητής νοημοσύνης έχει τεθεί επειγόντως από πολυτροπικά νευρωνικά δίκτυα όπως ChatGPT, DALL-eκαι άλλα, των οποίων οι πνευματικές δυνατότητες βελτιώνονται με την αύξηση του αριθμού των παραμέτρων (τρόπων αντίληψης, συμπεριλαμβανομένων εκείνων που δεν είναι προσβάσιμες στον άνθρωπο), καθώς και με τη χρήση μεγάλων ποσοτήτων δεδομένων για εκπαίδευση που οι άνθρωποι δεν μπορούν να επεξεργαστούν φυσικά. Για παράδειγμα, τα πολυτροπικά παραγωγικά μοντέλα νευρωνικών δικτύων μπορούν να παράγουν τέτοιες εικόνες, λογοτεχνικά και επιστημονικά κείμενα που δεν είναι πάντα δυνατό να διακρίνει κανείς αν έχουν δημιουργηθεί από έναν άνθρωπο ή ένα σύστημα τεχνητής νοημοσύνης.

Οι ειδικοί πληροφορικής επισημαίνουν δύο ποιοτικά άλματα: ένα άλμα ταχύτητας (η συχνότητα εμφάνισης ολοκαίνουργιων μοντέλων), το οποίο πλέον μετράται σε μήνες και όχι σε χρόνια, και ένα άλμα μεταβλητότητας (την αδυναμία ακριβούς πρόβλεψης του τι μπορεί να συμβεί στον τομέα τεχνητή νοημοσύνη ακόμη και μέχρι το τέλος του έτους). Το μοντέλο ChatGPT-3 (η τρίτη γενιά του αλγόριθμου επεξεργασίας φυσικής γλώσσας από το OpenAI) εισήχθη το 2020 και μπορούσε να επεξεργαστεί κείμενο, ενώ το μοντέλο επόμενης γενιάς, ChatGPT-4, που κυκλοφόρησε από τον κατασκευαστή τον Μάρτιο του 2023, δεν μπορεί να «δουλέψει» μόνο με κείμενα αλλά και με εικόνες, και το μοντέλο της επόμενης γενιάς μαθαίνει και θα είναι ικανό για ακόμα περισσότερα.

Πριν από μερικά χρόνια, η αναμενόμενη στιγμή της τεχνολογικής ιδιαιτερότητας, όταν η ανάπτυξη των μηχανών γίνεται ουσιαστικά ανεξέλεγκτη και μη αναστρέψιμη, αλλάζοντας δραματικά τον ανθρώπινο πολιτισμό, θεωρήθηκε ότι θα συμβεί τουλάχιστον σε μερικές δεκαετίες, αλλά σήμερα όλο και περισσότεροι ερευνητές πιστεύουν ότι μπορεί να συμβεί πολύ πιο γρήγορα. Αυτό συνεπάγεται την εμφάνιση της λεγόμενης ισχυρής τεχνητής νοημοσύνης, η οποία θα επιδεικνύει ικανότητες συγκρίσιμες με την ανθρώπινη νοημοσύνη και θα μπορεί να επιλύει ένα παρόμοιο ή και ευρύτερο φάσμα εργασιών. Σε αντίθεση με την αδύναμη τεχνητή νοημοσύνη, η ισχυρή τεχνητή νοημοσύνη θα έχει συνείδηση, ωστόσο μία από τις βασικές προϋποθέσεις για την ανάδυση της συνείδησης σε ευφυή συστήματα είναι η ικανότητα να εκτελεί πολυτροπική συμπεριφορά, ενσωματώνοντας δεδομένα από διαφορετικές αισθητηριακές μεθόδους (κείμενο, εικόνα, βίντεο, ήχος κ.λπ. ), «συνδέοντας» πληροφορίες διαφορετικών τρόπων με την πραγματικότητα και δημιουργώντας πλήρεις ολιστικές «παγκόσμιες μεταφορές» εγγενείς στους ανθρώπους.

Τον Μάρτιο του 2023, περισσότεροι από χίλιοι ερευνητές, ειδικοί πληροφορικής και επιχειρηματίες στον τομέα της τεχνητής νοημοσύνης υπέγραψαν ανοιχτή επιστολή που δημοσιεύτηκε στον ιστότοπο του Ινστιτούτου Future of Life, ένα αμερικανικό ερευνητικό κέντρο που ειδικεύεται στη διερεύνηση υπαρξιακών κινδύνων για την ανθρωπότητα. Η επιστολή ζητά την αναστολή της εκπαίδευσης νέων μοντέλων παραγωγής πολυτροπικών νευρωνικών δικτύων, καθώς η έλλειψη ενοποιημένων πρωτοκόλλων ασφαλείας και το νομικό κενό ενισχύουν σημαντικά τους κινδύνους καθώς η ταχύτητα ανάπτυξης της τεχνητής νοημοσύνης έχει αυξηθεί δραματικά λόγω της «επανάστασης ChatGPT». Σημειώθηκε επίσης ότι τα μοντέλα τεχνητής νοημοσύνης έχουν αναπτύξει ανεξήγητες δυνατότητες που δεν προορίζονται από τους προγραμματιστές τους και το μερίδιο τέτοιων δυνατοτήτων είναι πιθανό να αυξηθεί σταδιακά. Επιπλέον, μια τέτοια τεχνολογική επανάσταση ενισχύει δραματικά τη δημιουργία έξυπνων gadget που θα διαδοθούν ευρέως και οι νέες γενιές, τα σύγχρονα παιδιά που έχουν μεγαλώσει σε συνεχή επικοινωνία με βοηθούς τεχνητής νοημοσύνης, θα διαφέρουν πολύ από τις προηγούμενες γενιές.

Είναι δυνατόν να παρεμποδιστεί η ανάπτυξη της τεχνητής νοημοσύνης ώστε η ανθρωπότητα να προσαρμοστεί στις νέες συνθήκες; Θεωρητικά, είναι, εάν όλα τα κράτη το διευκολύνουν μέσω της εθνικής νομοθεσίας. Θα το κάνουν; Με βάση τις δημοσιευμένες εθνικές στρατηγικές, δεν θα το κάνουν. Αντίθετα, κάθε κράτος στοχεύει να κερδίσει τον ανταγωνισμό (να διατηρήσει την ηγεσία ή να μειώσει το χάσμα).

Οι δυνατότητες της τεχνητής νοημοσύνης προσελκύουν τους επιχειρηματίες, επομένως οι επιχειρήσεις επενδύουν σε μεγάλο βαθμό σε νέες εξελίξεις, με την επιτυχία κάθε νέου μοντέλου να οδηγεί τη διαδικασία. Οι ετήσιες επενδύσεις αυξάνονται, λαμβάνοντας υπόψη τόσο τις ιδιωτικές όσο και τις κρατικές επενδύσεις στην ανάπτυξη. η παγκόσμια αγορά λύσεων τεχνητής νοημοσύνης υπολογίζεται σε εκατοντάδες δισεκατομμύρια δολάρια. Σύμφωνα με προβλέψεις, ιδίως αυτές που περιέχονται στο ψήφισμα του Ευρωπαϊκού Κοινοβουλίου «Για την Τεχνητή Νοημοσύνη στην Ψηφιακή Εποχή» της 3ης Μαΐου 2022, η συμβολή της τεχνητής νοημοσύνης στην παγκόσμια οικονομία θα ξεπεράσει τα 11 τρισεκατομμύρια ευρώ έως το 2030.

Οι πρακτικές επιχειρήσεις οδηγούν στην εφαρμογή τεχνολογιών τεχνητής νοημοσύνης σε όλους τους τομείς της οικονομίας. Η τεχνητή νοημοσύνη χρησιμοποιείται τόσο στην εξορυκτική όσο και στη μεταποιητική βιομηχανία (μεταλλουργία, βιομηχανία καυσίμων και χημικών, μηχανική, μεταλλουργία κ.λπ.). Εφαρμόζεται για την πρόβλεψη της αποτελεσματικότητας των ανεπτυγμένων προϊόντων, την αυτοματοποίηση των γραμμών συναρμολόγησης, τη μείωση των απορρίψεων, τη βελτίωση των logistics και την πρόληψη του χρόνου διακοπής λειτουργίας.

Η χρήση της τεχνητής νοημοσύνης στις μεταφορές περιλαμβάνει τόσο αυτόνομα οχήματα όσο και βελτιστοποίηση διαδρομής με την πρόβλεψη των κυκλοφοριακών ροών, καθώς και την εξασφάλιση της ασφάλειας μέσω της πρόληψης επικίνδυνων καταστάσεων. Η αποδοχή αυτοοδηγούμενων αυτοκινήτων στους δημόσιους δρόμους είναι ένα θέμα έντονης συζήτησης στα κοινοβούλια σε όλο τον κόσμο.

Στον τραπεζικό τομέα, τα συστήματα τεχνητής νοημοσύνης έχουν σχεδόν πλήρως αντικαταστήσει τους ανθρώπους στην αξιολόγηση της πιστοληπτικής ικανότητας των δανειοληπτών. χρησιμοποιούνται όλο και περισσότερο για την ανάπτυξη νέων τραπεζικών προϊόντων και την ενίσχυση της ασφάλειας των τραπεζικών συναλλαγών.

Οι τεχνολογίες τεχνητής νοημοσύνης καταλαμβάνουν όχι μόνο τις επιχειρήσεις αλλά και την κοινωνική σφαίρα: υγειονομική περίθαλψη, εκπαίδευση και απασχόληση. Η εφαρμογή της τεχνητής νοημοσύνης στην ιατρική επιτρέπει καλύτερη διάγνωση, ανάπτυξη νέων φαρμάκων και χειρουργικές επεμβάσεις με τη βοήθεια ρομποτικής. στην εκπαίδευση, επιτρέπει εξατομικευμένα μαθήματα, αυτοματοποιημένη αξιολόγηση των μαθητών και την τεχνογνωσία των εκπαιδευτικών.

Σήμερα, η απασχόληση αλλάζει ολοένα και περισσότερο λόγω της εκθετικής αύξησης της απασχόλησης στις πλατφόρμες. Σύμφωνα με τη Διεθνή Οργάνωση Εργασίας, το μερίδιο των ατόμων που εργάζονται μέσω ψηφιακών πλατφορμών απασχόλησης που επαυξάνονται με τεχνητή νοημοσύνη αυξάνεται σταθερά παγκοσμίως. Η απασχόληση σε πλατφόρμα δεν είναι η μόνη συνιστώσα του εργασιακού μετασχηματισμού. Το αυξανόμενο επίπεδο της ρομποτικής παραγωγής έχει επίσης σημαντικό αντίκτυπο. Σύμφωνα με τη Διεθνή Ομοσπονδία Ρομποτικής, ο αριθμός των βιομηχανικών ρομπότ συνεχίζει να αυξάνεται παγκοσμίως, με τον ταχύτερο ρυθμό ρομποτικής που παρατηρείται στην Ασία, κυρίως στην Κίνα και την Ιαπωνία.

Πράγματι, οι δυνατότητες της τεχνητής νοημοσύνης να αναλύει δεδομένα που χρησιμοποιούνται για τη διαχείριση παραγωγής, τις διαγνωστικές αναλύσεις και τις προβλέψεις παρουσιάζουν μεγάλο ενδιαφέρον για τις κυβερνήσεις. Η τεχνητή νοημοσύνη εφαρμόζεται στη δημόσια διοίκηση. Στις μέρες μας, εντείνονται οι προσπάθειες για τη δημιουργία ψηφιακών πλατφορμών για δημόσιες υπηρεσίες και την αυτοματοποίηση πολλών διαδικασιών που σχετίζονται με τη λήψη αποφάσεων από κρατικούς φορείς.

Οι έννοιες της «τεχνητής προσωπικότητας» και της «τεχνητής κοινωνικότητας» αναφέρονται συχνότερα στον δημόσιο λόγο. Αυτό καταδεικνύει ότι η ανάπτυξη και η εφαρμογή ευφυών συστημάτων έχουν μετατοπιστεί από έναν καθαρά τεχνικό τομέα στην έρευνα διαφόρων μέσων ένταξής του σε ανθρωπιστικές και κοινωνικο-πολιτιστικές δραστηριότητες.

Λαμβάνοντας υπόψη τα παραπάνω, μπορούμε να πούμε ότι η τεχνητή νοημοσύνη ενσωματώνεται ολοένα και πιο βαθιά στη ζωή των ανθρώπων. Η παρουσία συστημάτων τεχνητής νοημοσύνης στη ζωή μας θα γίνει πιο εμφανής τα επόμενα χρόνια. θα αυξηθεί τόσο στο εργασιακό περιβάλλον όσο και στο δημόσιο χώρο, στις υπηρεσίες και στο σπίτι. Η τεχνητή νοημοσύνη θα παρέχει όλο και πιο αποτελεσματικά αποτελέσματα μέσω της έξυπνης αυτοματοποίησης διαφόρων διαδικασιών, δημιουργώντας έτσι νέες ευκαιρίες και θέτοντας νέες απειλές για άτομα, κοινότητες και κράτη.

Καθώς το πνευματικό επίπεδο αυξάνεται, τα συστήματα τεχνητής νοημοσύνης θα γίνουν αναπόφευκτα αναπόσπαστο μέρος της κοινωνίας. οι άνθρωποι θα πρέπει να συνυπάρξουν μαζί τους. Μια τέτοια συμβίωση θα περιλαμβάνει συνεργασία μεταξύ ανθρώπων και «έξυπνων» μηχανών, η οποία, σύμφωνα με τον βραβευμένο με Νόμπελ οικονομολόγο J. Stiglitz, θα οδηγήσει στη μεταμόρφωση του πολιτισμού (Stiglitz, 2017). Ακόμη και σήμερα, σύμφωνα με ορισμένους νομικούς, «προκειμένου να ενισχυθεί η ανθρώπινη ευημερία, ο νόμος δεν πρέπει να κάνει διάκριση μεταξύ των δραστηριοτήτων των ανθρώπων και εκείνων της τεχνητής νοημοσύνης όταν οι άνθρωποι και η τεχνητή νοημοσύνη εκτελούν τα ίδια καθήκοντα» (Abbott, 2020). Θα πρέπει επίσης να ληφθεί υπόψη ότι η ανάπτυξη ανθρωποειδών ρομπότ, τα οποία αποκτούν φυσιολογία ολοένα και πιο παρόμοια με αυτή των ανθρώπων, θα οδηγήσει, μεταξύ άλλων, στην εκτέλεση των ρόλων των φύλων ως εταίρων στην κοινωνία (Καρνούσκος, 2022).

Τα κράτη πρέπει να προσαρμόσουν τη νομοθεσία τους στις μεταβαλλόμενες κοινωνικές σχέσεις: ο αριθμός των νόμων που στοχεύουν στη ρύθμιση των σχέσεων που αφορούν συστήματα τεχνητής νοημοσύνης αυξάνεται ραγδαία σε όλο τον κόσμο. Σύμφωνα με την Έκθεση AI Index 2023 του Πανεπιστημίου του Στάνφορντ, ενώ μόνο ένας νόμος εγκρίθηκε το 2016, υπήρχαν 12 από αυτούς το 2018, 18 – το 2021 και 37 – το 2022. Αυτό ώθησε τα Ηνωμένα Έθνη να καθορίσουν μια θέση σχετικά με τη δεοντολογία χρησιμοποιώντας τεχνητή νοημοσύνη σε παγκόσμιο επίπεδο. Τον Σεπτέμβριο του 2022, δημοσιεύτηκε ένα έγγραφο που περιείχε τις αρχές της ηθικής χρήσης της τεχνητής νοημοσύνης και βασίστηκε στις Συστάσεις για την Ηθική της Τεχνητής Νοημοσύνης που εγκρίθηκαν ένα χρόνο νωρίτερα από τη Γενική Διάσκεψη της UNESCO. Ωστόσο, ο ρυθμός ανάπτυξης και εφαρμογής τεχνολογιών τεχνητής νοημοσύνης είναι πολύ πιο μπροστά από τον ρυθμό των σχετικών αλλαγών στη νομοθεσία.

Βασικές Έννοιες Νομικής Ικανότητας Τεχνητής Νοημοσύνης

Λαμβάνοντας υπόψη τις έννοιες της δυνητικής χορήγησης δικαιοπρακτικής ικανότητας σε πνευματικά συστήματα, θα πρέπει να αναγνωριστεί ότι η εφαρμογή οποιασδήποτε από αυτές τις προσεγγίσεις θα απαιτήσει μια θεμελιώδη ανασυγκρότηση της υπάρχουσας γενικής θεωρίας του δικαίου και τροποποιήσεις σε μια σειρά διατάξεων σε ορισμένους κλάδους δικαίου. Θα πρέπει να τονιστεί ότι οι υποστηρικτές διαφορετικών απόψεων χρησιμοποιούν συχνά τον όρο «ηλεκτρονικό πρόσωπο», επομένως, η χρήση αυτού του όρου δεν επιτρέπει να προσδιοριστεί ποια έννοια είναι υποστηρικτής ο συγγραφέας του έργου χωρίς να διαβάσει το ίδιο το έργο.

Η πιο ριζοσπαστική και, προφανώς, η λιγότερο δημοφιλής προσέγγιση στους επιστημονικούς κύκλους είναι η έννοια της ατομικής νομικής ικανότητας της τεχνητής νοημοσύνης. Οι υποστηρικτές αυτής της προσέγγισης πρότειναν την ιδέα της «πλήρους συμμετοχικότητας» (ακραίος συμμετοχισμός), η οποία συνεπάγεται την παραχώρηση στα συστήματα τεχνητής νοημοσύνης μιας νομικής υπόστασης παρόμοιας με αυτή των ανθρώπων καθώς και την αναγνώριση των δικών τους συμφερόντων (Mulgan, 2019), δεδομένης της κοινωνικής σημασίας ή κοινωνικής τους σημασίας περιεχόμενο (κοινωνικό σθένος). Το τελευταίο προκαλείται από το γεγονός ότι «η φυσική ενσάρκωση του ρομπότ τείνει να κάνει τους ανθρώπους να αντιμετωπίζουν αυτό το κινούμενο αντικείμενο σαν να ήταν ζωντανό. Αυτό είναι ακόμη πιο εμφανές όταν το ρομπότ έχει ανθρωπόμορφα χαρακτηριστικά, καθώς η ομοιότητα με το ανθρώπινο σώμα κάνει τους ανθρώπους να αρχίσουν να προβάλλουν συναισθήματα, συναισθήματα ευχαρίστησης, πόνου και φροντίδας, καθώς και την επιθυμία να δημιουργήσουν σχέσεις» (Avila Negri, 2021). Η προβολή των ανθρώπινων συναισθημάτων σε άψυχα αντικείμενα δεν είναι νέα, που χρονολογείται από την ανθρώπινη ιστορία, αλλά όταν εφαρμόζεται σε ρομπότ, συνεπάγεται πολυάριθμες επιπτώσεις (Balkin, 2015).

Οι προϋποθέσεις για τη νομική επιβεβαίωση αυτής της θέσης αναφέρονται συνήθως ως εξής:

– Τα συστήματα τεχνητής νοημοσύνης φτάνουν σε επίπεδο συγκρίσιμο με τις ανθρώπινες γνωστικές λειτουργίες.

– αύξηση του βαθμού ομοιότητας μεταξύ ρομπότ και ανθρώπων.

– ανθρωπιά, προστασία των ευφυών συστημάτων από πιθανά «βάσανα».

Όπως δείχνει η λίστα των υποχρεωτικών απαιτήσεων, όλες έχουν υψηλό βαθμό θεωρητικοποίησης και υποκειμενικής αξιολόγησης. Ειδικότερα, η τάση για τη δημιουργία ανθρωπόμορφων ρομπότ (androids) καθοδηγείται από τις καθημερινές ψυχολογικές και κοινωνικές ανάγκες των ανθρώπων που νιώθουν άνετα στην «παρέα» όμοιων θεμάτων με αυτούς. Ορισμένα σύγχρονα ρομπότ έχουν άλλες περιοριστικές ιδιότητες λόγω των λειτουργιών που εκτελούν. Αυτά περιλαμβάνουν «επαναχρησιμοποιήσιμα» ρομπότ courier, τα οποία δίνουν προτεραιότητα στη στιβαρή κατασκευή και την αποτελεσματική κατανομή βάρους. Σε αυτή την περίπτωση, το τελευταίο από αυτά τα προαπαιτούμενα μπαίνει στο παιχνίδι, λόγω του σχηματισμού συναισθηματικών δεσμών με ρομπότ στο ανθρώπινο μυαλό, παρόμοιων με τους συναισθηματικούς δεσμούς μεταξύ ενός κατοικίδιου ζώου και του ιδιοκτήτη του (Grin, 2018).

Η ιδέα της «πλήρους συμπερίληψης» του νομικού καθεστώτος των συστημάτων τεχνητής νοημοσύνης και των ανθρώπων αντικατοπτρίζεται στα έργα ορισμένων νομικών μελετητών. Δεδομένου ότι οι διατάξεις του Συντάγματος και η τομεακή νομοθεσία δεν περιέχουν νομικό ορισμό της προσωπικότητας, η έννοια της «προσωπικότητας» με τη συνταγματική και νομική έννοια επιτρέπει θεωρητικά μια διευρυμένη ερμηνεία. Σε αυτή την περίπτωση, τα άτομα θα περιλαμβάνουν οποιονδήποτε κάτοχο νοημοσύνης των οποίων οι γνωστικές ικανότητες αναγνωρίζονται ως επαρκώς ανεπτυγμένες. Σύμφωνα με τον AV Nechkin, η λογική αυτής της προσέγγισης είναι ότι η ουσιαστική διαφορά μεταξύ των ανθρώπων και άλλων έμβιων όντων είναι η μοναδική ιδιαίτερα ανεπτυγμένη νοημοσύνη τους (Nechkin, 2020). Η αναγνώριση των δικαιωμάτων των συστημάτων τεχνητής νοημοσύνης φαίνεται να είναι το επόμενο βήμα στην εξέλιξη του νομικού συστήματος, το οποίο επεκτείνει σταδιακά τη νομική αναγνώριση σε άτομα που προηγουμένως υφίστανται διακρίσεις και σήμερα παρέχει επίσης πρόσβαση σε μη ανθρώπους (Hellers, 2021).

Εάν τα συστήματα τεχνητής νοημοσύνης λαμβάνουν ένα τέτοιο νομικό καθεστώς, οι υποστηρικτές αυτής της προσέγγισης θεωρούν σκόπιμο να παραχωρηθούν σε αυτά τα συστήματα όχι κυριολεκτικά δικαιώματα πολιτών στην καθιερωμένη συνταγματική και νομική ερμηνεία τους, αλλά ανάλογα τους και ορισμένα πολιτικά δικαιώματα με ορισμένες αποκλίσεις. Αυτή η θέση βασίζεται σε αντικειμενικές βιολογικές διαφορές μεταξύ ανθρώπων και ρομπότ. Για παράδειγμα, δεν έχει νόημα να αναγνωρίζεται το δικαίωμα στη ζωή για ένα σύστημα τεχνητής νοημοσύνης, αφού δεν ζει με τη βιολογική έννοια. Τα δικαιώματα, οι ελευθερίες και οι υποχρεώσεις των συστημάτων τεχνητής νοημοσύνης θα πρέπει να είναι δευτερεύοντα σε σύγκριση με τα δικαιώματα των πολιτών. Η διάταξη αυτή καθιερώνει τον παράγωγο χαρακτήρα της τεχνητής νοημοσύνης ως ανθρώπινου δημιουργήματος με τη νομική έννοια.

Τα πιθανά συνταγματικά δικαιώματα και ελευθερίες των συστημάτων τεχνητής νοημοσύνης περιλαμβάνουν το δικαίωμα στην ελευθερία, το δικαίωμα στην αυτοβελτίωση (μάθηση και αυτομάθηση), το δικαίωμα στην ιδιωτική ζωή (προστασία του λογισμικού από αυθαίρετη παρέμβαση τρίτων), την ελευθερία του λόγου, ελευθερία δημιουργικότητας, αναγνώριση πνευματικών δικαιωμάτων συστήματος AI και περιορισμένα δικαιώματα ιδιοκτησίας. Μπορούν επίσης να απαριθμηθούν συγκεκριμένα δικαιώματα τεχνητής νοημοσύνης, όπως το δικαίωμα πρόσβασης σε πηγή ηλεκτρικής ενέργειας.

Όσον αφορά τα καθήκοντα των συστημάτων τεχνητής νοημοσύνης, προτείνεται να ενοποιηθούν συνταγματικά οι τρεις γνωστοί νόμοι της ρομποτικής που διατύπωσε ο I. Asimov: Να μη βλάπτουν ένα άτομο και να αποτρέπουν τη βλάβη με τη δική τους αδράνεια. υπακοή σε όλες τις εντολές που δίνονται από ένα άτομο, εκτός από εκείνες που στοχεύουν να βλάψουν άλλο άτομο· φροντίζοντας για τη δική τους ασφάλεια, εκτός από τις δύο προηγούμενες περιπτώσεις (Naumov και Arkhipov, 2017). Στην περίπτωση αυτή, οι κανόνες του αστικού και διοικητικού δικαίου θα αντικατοπτρίζουν κάποια άλλα καθήκοντα.

Η έννοια της ατομικής δικαιοπρακτικής ικανότητας της τεχνητής νοημοσύνης έχει πολύ λίγες πιθανότητες να νομιμοποιηθεί για διάφορους λόγους.

Πρώτον, το κριτήριο για την αναγνώριση της δικαιοπρακτικής ικανότητας που βασίζεται στην παρουσία συνείδησης και αυτογνωσίας είναι αφηρημένο. Επιτρέπει πολυάριθμα αδικήματα, κατάχρηση του νόμου και προκαλεί κοινωνικά και πολιτικά προβλήματα ως πρόσθετη αιτία διαστρωμάτωσης της κοινωνίας. Αυτή η ιδέα αναπτύχθηκε λεπτομερώς στο έργο των S. Chopra και L. White, οι οποίοι υποστήριξαν ότι η συνείδηση ​​και η αυτογνωσία δεν είναι απαραίτητη ή/και επαρκής προϋπόθεση για την αναγνώριση των συστημάτων AI ως νομικού υποκειμένου. Στη νομική πραγματικότητα, τα πλήρως συνειδητοποιημένα άτομα, για παράδειγμα, τα παιδιά (ή οι δούλοι στο ρωμαϊκό δίκαιο), στερούνται ή περιορίζονται σε δικαιοπρακτική ικανότητα. Ταυτόχρονα, άτομα με σοβαρές ψυχικές διαταραχές, συμπεριλαμβανομένων εκείνων που κηρύσσονται ανίκανοι ή σε κώμα κ.λπ., με αντικειμενική αδυναμία συνείδησης στην πρώτη περίπτωση παραμένουν νομικά υποκείμενα (έστω και σε περιορισμένη μορφή) και στη δεύτερη περίπτωση , έχουν την ίδια πλήρη δικαιοπρακτική ικανότητα, χωρίς σημαντικές αλλαγές στο νομικό τους καθεστώς. Η δυνητική εδραίωση του αναφερόμενου κριτηρίου συνείδησης και αυτογνωσίας θα καταστήσει δυνατή την αυθαίρετη στέρηση της δικαιοπρακτικής ικανότητας από τους πολίτες.

Δεύτερον, τα συστήματα τεχνητής νοημοσύνης δεν θα μπορούν να ασκήσουν τα δικαιώματα και τις υποχρεώσεις τους με την καθιερωμένη νομική έννοια, καθώς λειτουργούν με βάση ένα προηγουμένως γραπτό πρόγραμμα και οι νομικά σημαντικές αποφάσεις θα πρέπει να βασίζονται στην υποκειμενική, ηθική επιλογή ενός ατόμου (Morhat, 2018b) , την άμεση έκφραση της βούλησής τους. Όλες οι ηθικές στάσεις, τα συναισθήματα και οι επιθυμίες ενός τέτοιου «ατόμου» προέρχονται από την ανθρώπινη νοημοσύνη (Uzhov, 2017). Η αυτονομία των συστημάτων τεχνητής νοημοσύνης με την έννοια της ικανότητάς τους να λαμβάνουν αποφάσεις και να τις εφαρμόζουν ανεξάρτητα, χωρίς εξωτερικό ανθρωπογενή έλεγχο ή στοχευμένη ανθρώπινη επιρροή (Musina, 2023), δεν είναι ολοκληρωμένη. Στις μέρες μας, η τεχνητή νοημοσύνη είναι ικανή μόνο να λαμβάνει «οιονεί αυτόνομες αποφάσεις» που κατά κάποιο τρόπο βασίζονται στις ιδέες και τις ηθικές στάσεις των ανθρώπων. Από αυτή την άποψη, μόνο η «δράση-λειτουργία» ενός συστήματος τεχνητής νοημοσύνης μπορεί να ληφθεί υπόψη, αποκλείοντας τη δυνατότητα πραγματοποίησης μιας πραγματικής ηθικής αξιολόγησης της συμπεριφοράς της τεχνητής νοημοσύνης (Petiev, 2022).

Τρίτον, η αναγνώριση της ατομικής δικαιοπρακτικής ικανότητας της τεχνητής νοημοσύνης (ιδιαίτερα με τη μορφή εξίσωσής της με την ιδιότητα του φυσικού προσώπου) οδηγεί σε μια καταστροφική αλλαγή στην πάγια έννομη τάξη και τις νομικές παραδόσεις που έχουν διαμορφωθεί από το ρωμαϊκό δίκαιο και εγείρει μια σειρά θεμελιωδώς άλυτα φιλοσοφικά και νομικά ζητήματα στον τομέα των ανθρωπίνων δικαιωμάτων. Το δίκαιο ως σύστημα κοινωνικών κανόνων και κοινωνικό φαινόμενο δημιουργήθηκε με τη δέουσα προσοχή στις ανθρώπινες δυνατότητες και για τη διασφάλιση των ανθρώπινων συμφερόντων. Το καθιερωμένο ανθρωποκεντρικό σύστημα κανονιστικών διατάξεων, η διεθνής συναίνεση για την έννοια των εσωτερικών δικαιωμάτων θα θεωρηθούν νομικά και πραγματολογικά άκυρα σε περίπτωση καθιέρωσης μιας προσέγγισης «ακραίου συμμετοχισμού» (Dremlyuga & Dremlyuga, 2019). Ως εκ τούτου, η παραχώρηση του καθεστώτος νομικής οντότητας σε συστήματα τεχνητής νοημοσύνης, ιδιαίτερα στα «έξυπνα» ρομπότ, μπορεί να μην είναι λύση σε υπάρχοντα προβλήματα, αλλά ένα κουτί της Πανδώρας που επιδεινώνει τις κοινωνικές και πολιτικές αντιθέσεις (Solaiman, 2017).

Ένα άλλο σημείο είναι ότι τα έργα των υποστηρικτών αυτής της έννοιας συνήθως αναφέρουν μόνο ρομπότ, δηλαδή κυβερνοφυσικά συστήματα τεχνητής νοημοσύνης που θα αλληλεπιδρούν με ανθρώπους στον φυσικό κόσμο, ενώ τα εικονικά συστήματα εξαιρούνται, αν και η ισχυρή τεχνητή νοημοσύνη, εάν προκύψει, θα να ενσωματωθεί και σε εικονική μορφή.

Με βάση τα παραπάνω επιχειρήματα, η έννοια της ατομικής δικαιοπρακτικής ικανότητας ενός συστήματος τεχνητής νοημοσύνης θα πρέπει να θεωρείται νομικά αδύνατη υπό την ισχύουσα έννομη τάξη.

Η έννοια της συλλογικής προσωπικότητας όσον αφορά τα συστήματα τεχνητής νοημοσύνης έχει κερδίσει σημαντική υποστήριξη μεταξύ των υποστηρικτών του παραδεκτού μιας τέτοιας δικαιοπρακτικής ικανότητας. Το κύριο πλεονέκτημα αυτής της προσέγγισης είναι ότι αποκλείει αφηρημένες έννοιες και αξιολογικές κρίσεις (συνείδηση, αυτογνωσία, ορθολογισμός, ηθική κ.λπ.) από τη νομική εργασία. Η προσέγγιση βασίζεται στην εφαρμογή της νομικής φαντασίας στην τεχνητή νοημοσύνη.

Όσον αφορά τα νομικά πρόσωπα, υπάρχουν ήδη «προηγμένες ρυθμιστικές μέθοδοι που μπορούν να προσαρμοστούν για να λύσουν το δίλημμα του νομικού καθεστώτος της τεχνητής νοημοσύνης» (Hárs, 2022).

Αυτή η έννοια δεν υπονοεί ότι τα συστήματα τεχνητής νοημοσύνης έχουν στην πραγματικότητα τη δικαιοπρακτική ικανότητα ενός φυσικού προσώπου, αλλά αποτελεί απλώς επέκταση του υφιστάμενου θεσμού των νομικών οντοτήτων, γεγονός που υποδηλώνει ότι πρέπει να δημιουργηθεί μια νέα κατηγορία νομικών οντοτήτων που ονομάζονται κυβερνητικοί «ηλεκτρονικοί οργανισμοί». Αυτή η προσέγγιση καθιστά πιο σκόπιμο να θεωρηθεί ότι μια νομική οντότητα δεν είναι σύμφωνη με τη σύγχρονη στενή έννοια, ιδίως την υποχρέωση να αποκτά και να ασκεί αστικά δικαιώματα, να φέρει αστική ευθύνη και να είναι ενάγων και εναγόμενος στο δικαστήριο για λογαριασμό της. ), αλλά με ευρύτερη έννοια, το οποίο αντιπροσωπεύει νομικό πρόσωπο ως οποιαδήποτε δομή εκτός από φυσικό πρόσωπο που έχει δικαιώματα και υποχρεώσεις με τη μορφή που προβλέπει ο νόμος. Έτσι, οι υποστηρικτές αυτής της προσέγγισης προτείνουν να θεωρηθεί μια νομική οντότητα ως υποκείμενο οντότητα (ιδανική οντότητα) σύμφωνα με το ρωμαϊκό δίκαιο.

Η ομοιότητα μεταξύ των συστημάτων τεχνητής νοημοσύνης και των νομικών προσώπων εκδηλώνεται στον τρόπο με τον οποίο διαθέτουν νομική ικανότητα – μέσω της υποχρεωτικής κρατικής εγγραφής νομικών προσώπων. Μόνο μετά την ολοκλήρωση της καθιερωμένης διαδικασίας εγγραφής, ένα νομικό πρόσωπο αποκτά νομικό καθεστώς και δικαιοπρακτική ικανότητα, δηλαδή καθίσταται νομικό υποκείμενο. Αυτό το μοντέλο διατηρεί συζητήσεις σχετικά με τη νομική ικανότητα των συστημάτων τεχνητής νοημοσύνης στο νομικό πεδίο, αποκλείοντας την αναγνώριση δικαιοπρακτικής ικανότητας για άλλους (εξωνόμιμους) λόγους, χωρίς εσωτερικές προϋποθέσεις, ενώ ένα άτομο αναγνωρίζεται ως νομικό υποκείμενο εκ γενετής.

Το πλεονέκτημα αυτής της έννοιας είναι η επέκταση σε συστήματα τεχνητής νοημοσύνης της απαίτησης εισαγωγής πληροφοριών στα σχετικά κρατικά μητρώα, παρόμοια με το κρατικό μητρώο νομικών προσώπων, ως προϋπόθεση για τη χορήγηση δικαιοπρακτικής ικανότητας. Αυτή η μέθοδος υλοποιεί μια σημαντική λειτουργία της συστηματοποίησης όλων των νομικών οντοτήτων και της δημιουργίας μιας ενιαίας βάσης δεδομένων, η οποία είναι απαραίτητη για τον έλεγχο και την εποπτεία τόσο των κρατικών αρχών (για παράδειγμα, στον τομέα της φορολογίας) όσο και των πιθανών αντισυμβαλλομένων τέτοιων οντοτήτων.

Το εύρος των δικαιωμάτων των νομικών προσώπων σε οποιαδήποτε δικαιοδοσία είναι συνήθως μικρότερο από αυτό των φυσικών προσώπων. Ως εκ τούτου, η χρήση αυτής της δομής για τη χορήγηση δικαιοπρακτικής ικανότητας στην τεχνητή νοημοσύνη δεν σχετίζεται με την εκχώρηση ορισμένων δικαιωμάτων που προτείνονται από τους υποστηρικτές της προηγούμενης ιδέας.

Κατά την εφαρμογή της τεχνικής της νομικής φαντασίας σε νομικά πρόσωπα, θεωρείται ότι οι ενέργειες μιας νομικής οντότητας συνοδεύονται από ένωση φυσικών προσώπων που σχηματίζουν τη «βούλησή» τους και ασκούν τη «βούλησή» τους μέσω των οργάνων διοίκησης της νομικής οντότητας.

Με άλλα λόγια, τα νομικά πρόσωπα είναι τεχνητές (αφηρημένες) μονάδες που έχουν σχεδιαστεί για να ικανοποιούν τα συμφέροντα των φυσικών προσώπων που έδρασαν ως ιδρυτές τους ή τα έλεγχαν. Ομοίως, τα συστήματα τεχνητής νοημοσύνης δημιουργούνται για να καλύψουν τις ανάγκες ορισμένων ατόμων – προγραμματιστές, χειριστές, ιδιοκτήτες. Ένα φυσικό πρόσωπο που χρησιμοποιεί ή προγραμματίζει συστήματα τεχνητής νοημοσύνης καθοδηγείται από τα δικά του συμφέροντα, τα οποία αυτό το σύστημα εκπροσωπεί στο εξωτερικό περιβάλλον.

Αξιολογώντας θεωρητικά ένα τέτοιο ρυθμιστικό μοντέλο, δεν πρέπει να ξεχνάμε ότι είναι αδύνατη η πλήρης αναλογία μεταξύ των θέσεων των νομικών οντοτήτων και των συστημάτων τεχνητής νοημοσύνης. Όπως προαναφέρθηκε, όλες οι νομικά σημαντικές ενέργειες των νομικών προσώπων συνοδεύονται από φυσικά πρόσωπα που λαμβάνουν άμεσα αυτές τις αποφάσεις. Η βούληση ενός νομικού προσώπου καθορίζεται πάντα και ελέγχεται πλήρως από τη βούληση φυσικών προσώπων. Έτσι, τα νομικά πρόσωπα δεν μπορούν να λειτουργούν χωρίς τη βούληση φυσικών προσώπων. Όσον αφορά τα συστήματα AI, υπάρχει ήδη ένα αντικειμενικό πρόβλημα αυτονομίας τους, δηλαδή η δυνατότητα λήψης αποφάσεων χωρίς την παρέμβαση φυσικού προσώπου μετά τη στιγμή της άμεσης δημιουργίας ενός τέτοιου συστήματος.

Δεδομένων των εγγενών περιορισμών των εννοιών που εξετάστηκαν παραπάνω, ένας μεγάλος αριθμός ερευνητών προσφέρει τις δικές του προσεγγίσεις για την αντιμετώπιση του νομικού καθεστώτος των συστημάτων τεχνητής νοημοσύνης. Συμβατικά, μπορούν να αποδοθούν σε διαφορετικές παραλλαγές της έννοιας της «βαθμιδωτής δικαιοπρακτικής ικανότητας», σύμφωνα με τον ερευνητή από το Πανεπιστήμιο του Leuven DM Mocanu, ο οποίος συνεπάγεται περιορισμένο ή μερικό νομικό καθεστώς και νομική ικανότητα των συστημάτων τεχνητής νοημοσύνης με μια επιφύλαξη: Ο όρος "gradient" χρησιμοποιείται επειδή δεν αφορά μόνο τη συμπερίληψη ή τη μη συμπερίληψη ορισμένων δικαιωμάτων και υποχρεώσεων στο νομικό καθεστώς, αλλά και για τη διαμόρφωση ενός συνόλου τέτοιων δικαιωμάτων και υποχρεώσεων με ένα ελάχιστο όριο, καθώς και για την αναγνώριση αυτής της ικανότητας δικαίου για ορισμένους σκοπούς. Στη συνέχεια, οι δύο κύριοι τύποι αυτής της έννοιας μπορεί να περιλαμβάνουν προσεγγίσεις που δικαιολογούν:

1) παραχώρηση στα συστήματα τεχνητής νοημοσύνης ενός ειδικού νομικού καθεστώτος και συμπερίληψη «ηλεκτρονικών προσώπων» στην έννομη τάξη ως μια εντελώς νέα κατηγορία νομικών υποκειμένων·

2) χορήγηση στα συστήματα τεχνητής νοημοσύνης περιορισμένου νομικού καθεστώτος και νομικής ικανότητας στο πλαίσιο των αστικών έννομων σχέσεων μέσω της εισαγωγής της κατηγορίας των «ηλεκτρονικών πρακτόρων».

Η θέση των υποστηρικτών διαφορετικών προσεγγίσεων σε αυτήν την έννοια μπορεί να ενοποιηθεί, δεδομένου ότι δεν υπάρχουν οντολογικοί λόγοι να θεωρηθεί η τεχνητή νοημοσύνη ως νομικό αντικείμενο. Ωστόσο, σε συγκεκριμένες περιπτώσεις, υπάρχουν ήδη λειτουργικοί λόγοι για την παροχή ορισμένων δικαιωμάτων και υποχρεώσεων στα συστήματα τεχνητής νοημοσύνης, τα οποία «αποδεικνύουν τον καλύτερο τρόπο προώθησης των ατομικών και δημοσίων συμφερόντων που πρέπει να προστατεύονται από το νόμο» παραχωρώντας αυτά τα συστήματα «περιορισμένα και στενά «μορφές νομικής οντότητας».

Η χορήγηση ειδικού νομικού καθεστώτος σε συστήματα τεχνητής νοημοσύνης με τη σύσταση ξεχωριστού νομικού ιδρύματος «ηλεκτρονικών προσώπων» έχει σημαντικό πλεονέκτημα στη λεπτομερή επεξήγηση και ρύθμιση των σχέσεων που προκύπτουν:

– μεταξύ νομικών οντοτήτων και φυσικών προσώπων και συστημάτων τεχνητής νοημοσύνης·

– μεταξύ συστημάτων τεχνητής νοημοσύνης και των προγραμματιστών τους (χειριστές, ιδιοκτήτες)·

– μεταξύ τρίτου μέρους και συστημάτων τεχνητής νοημοσύνης στις αστικές έννομες σχέσεις.

Σε αυτό το νομικό πλαίσιο, το σύστημα τεχνητής νοημοσύνης θα ελέγχεται και θα διαχειρίζεται χωριστά από τον προγραμματιστή, τον ιδιοκτήτη ή τον χειριστή του. Όταν ορίζει την έννοια του «ηλεκτρονικού προσώπου», ο PM Morkhat εστιάζει στην εφαρμογή της προαναφερθείσας μεθόδου νομικής φαντασίας και στη λειτουργική κατεύθυνση ενός συγκεκριμένου μοντέλου τεχνητής νοημοσύνης: «ηλεκτρονικό πρόσωπο» είναι μια τεχνική και νομική εικόνα (η οποία έχει ορισμένα χαρακτηριστικά νομικής φαντασίας καθώς και νομικής οντότητας) που αντανακλά και υλοποιεί μια υπό όρους συγκεκριμένη νομική ικανότητα ενός συστήματος τεχνητής νοημοσύνης, η οποία διαφέρει ανάλογα με την επιδιωκόμενη λειτουργία ή τον σκοπό και τις δυνατότητές του.

Ομοίως με την έννοια των συλλογικών προσώπων σε σχέση με τα συστήματα τεχνητής νοημοσύνης, αυτή η προσέγγιση περιλαμβάνει την τήρηση ειδικών μητρώων «ηλεκτρονικών προσώπων». Μια λεπτομερής και σαφής περιγραφή των δικαιωμάτων και των υποχρεώσεων των «ηλεκτρονικών προσώπων» αποτελεί τη βάση για περαιτέρω έλεγχο από το κράτος και τον ιδιοκτήτη τέτοιων συστημάτων τεχνητής νοημοσύνης. Ένα σαφώς καθορισμένο εύρος εξουσιών, ένα περιορισμένο εύρος νομικού καθεστώτος και η νομική ικανότητα των «ηλεκτρονικών προσώπων» θα διασφαλίσουν ότι αυτό το «πρόσωπο» δεν υπερβαίνει το πρόγραμμά του λόγω δυνητικά ανεξάρτητης λήψης αποφάσεων και συνεχούς αυτομάθησης.

Αυτή η προσέγγιση συνεπάγεται ότι η τεχνητή νοημοσύνη, η οποία στο στάδιο της δημιουργίας της αποτελεί πνευματική ιδιοκτησία των προγραμματιστών λογισμικού, μπορεί να λάβει τα δικαιώματα μιας νομικής οντότητας μετά από κατάλληλη πιστοποίηση και κρατική εγγραφή, αλλά το νομικό καθεστώς και η νομική ικανότητα ενός «ηλεκτρονικού προσώπου ” θα διατηρηθεί.

Η εφαρμογή ενός ριζικά νέου θεσμού της κατεστημένης έννομης τάξης θα έχει σοβαρές έννομες συνέπειες, που απαιτούν συνολική νομοθετική μεταρρύθμιση τουλάχιστον στους τομείς του συνταγματικού και αστικού δικαίου. Οι ερευνητές επισημαίνουν εύλογα ότι πρέπει να δίδεται προσοχή κατά την υιοθέτηση της έννοιας του «ηλεκτρονικού προσώπου», δεδομένων των δυσκολιών εισαγωγής νέων προσώπων στη νομοθεσία, καθώς η επέκταση της έννοιας «πρόσωπο» με τη νομική έννοια μπορεί να οδηγήσει σε περιορισμούς τα δικαιώματα και τα έννομα συμφέροντα υφιστάμενων υποκειμένων έννομων σχέσεων (Bryson et al., 2017). Φαίνεται αδύνατο να εξεταστούν αυτές οι πτυχές αφού η δικαιοπρακτική ικανότητα των φυσικών προσώπων, νομικών προσώπων και οντοτήτων δημοσίου δικαίου είναι αποτέλεσμα αιώνων εξέλιξης της θεωρίας του κράτους και του δικαίου.

Η δεύτερη προσέγγιση στην έννοια της βαθμιαίας νομικής ικανότητας είναι η νομική έννοια των «ηλεκτρονικών πρακτόρων», που σχετίζεται κυρίως με την ευρεία χρήση συστημάτων τεχνητής νοημοσύνης ως μέσο επικοινωνίας μεταξύ των αντισυμβαλλομένων και ως εργαλεία για το ηλεκτρονικό εμπόριο. Αυτή η προσέγγιση μπορεί να ονομαστεί συμβιβαστική, καθώς παραδέχεται την αδυναμία παραχώρησης του καθεστώτος πλήρους νομικών υποκειμένων σε συστήματα τεχνητής νοημοσύνης, καθιερώνοντας παράλληλα ορισμένα (κοινωνικά σημαντικά) δικαιώματα και υποχρεώσεις για την τεχνητή νοημοσύνη. Με άλλα λόγια, η έννοια των «ηλεκτρονικών πρακτόρων» νομιμοποιεί την οιονεί υποκειμενικότητα της τεχνητής νοημοσύνης. Ο όρος «οιονεί νομικό υποκείμενο» θα πρέπει να νοηθεί ως ένα ορισμένο νομικό φαινόμενο στο οποίο ορισμένα στοιχεία δικαιοπρακτικής ικανότητας αναγνωρίζονται σε επίσημο ή δογματικό επίπεδο, αλλά η καθιέρωση του καθεστώτος πλήρους νομικού υποκειμένου είναι αδύνατη.

Οι υποστηρικτές αυτής της προσέγγισης τονίζουν τα λειτουργικά χαρακτηριστικά των συστημάτων τεχνητής νοημοσύνης που τους επιτρέπουν να λειτουργούν τόσο ως παθητικό εργαλείο όσο και ως ενεργός συμμετέχων στις νομικές σχέσεις, δυνητικά ικανό να δημιουργεί ανεξάρτητα νομικά σημαντικές συμβάσεις για τον ιδιοκτήτη του συστήματος. Επομένως, τα συστήματα τεχνητής νοημοσύνης μπορούν να εξεταστούν υπό όρους στο πλαίσιο των σχέσεων αντιπροσώπων. Κατά τη δημιουργία (ή την εγγραφή) ενός συστήματος τεχνητής νοημοσύνης, ο ιδρυτής της δραστηριότητας «ηλεκτρονικού αντιπροσώπου» συνάπτει μια εικονική μονομερή συμφωνία αντιπροσωπείας με αυτό, ως αποτέλεσμα της οποίας ο «ηλεκτρονικός πράκτορας» λαμβάνει ορισμένες εξουσίες, ασκώντας τις οποίες μπορεί εκτελεί νομικές ενέργειες που είναι σημαντικές για τον εντολέα.

Πηγές:

  • R. McLay, "Managing the rise of Artificial Intelligence", 2018
  • Bertolini A. and Episcopo F., 2022, «Robots and AI as Legal Subjects; Αποσύνδεση της οντολογικής και λειτουργικής προοπτικής»
  • Alekseev, A. Yu., Alekseeva, EA, Emelyanova, NN (2023). «Τεχνητή προσωπικότητα στην κοινωνική και πολιτική επικοινωνία. τεχνητές κοινωνίες»
  • «Ιδιαιτερότητες της εργαστηριακής διάγνωσης του συνδρόμου Sanfilippo A» NS Trofimova, NV Olkhovich, NG Gorovenko
  • Shutkin, SI, 2020, «Είναι δυνατή η νομική ικανότητα της τεχνητής νοημοσύνης; Έργα για την πνευματική ιδιοκτησία»
  • Ladenkov, N. Ye., 2021, «Μοντέλα χορήγησης νομικής ικανότητας στην τεχνητή νοημοσύνη»
  • Bertolini, A., and Episcopo, F., 2021, «The Expert Group's Report on Liability for Artificial Intelligence and Other Emerging Digital Technologies: a Critical Assessment»
  • Morkhat, PM, 2018, «Σχετικά με το ζήτημα του νομικού ορισμού του όρου τεχνητή νοημοσύνη»

Ο Anton Vokrug είναι επιχειρηματίας πληροφορικής, στοχαστής και ερευνητής τεχνητής νοημοσύνης με καταγωγή από την Ουκρανία. Πρόσφατα, πούλησε με επιτυχία μια από τις εταιρείες πληροφορικής του. Επί του παρόντος, υπηρετεί ως Partner και Business Advisor Blockchain στο Dexola.com.