talon Intelligence artificielle et identité juridique - Unite.AI
Suivez nous sur

Des leaders d'opinion

Intelligence artificielle et identité juridique

mm

Publié le

 on

Cet article se concentre sur la question de l’octroi du statut de sujet de droit à l’intelligence artificielle (IA), notamment à partir du droit civil. L'identité juridique est définie ici comme une notion intégrante du terme de capacité juridique ; cependant, cela n’implique pas d’accepter que la subjectivité morale soit la même que la personnalité morale. L'identité juridique est un attribut complexe qui peut être reconnu pour certains sujets ou attribué à d'autres.

Je crois que cet attribut est graduel, discret, discontinu, multiforme et modifiable. Cela signifie qu'il peut contenir plus ou moins d'éléments de différents types (par exemple, devoirs, droits, compétences, etc.), qui dans la plupart des cas peuvent être ajoutés ou supprimés par le législateur ; les droits de l’homme, qui, selon l’opinion commune, ne peuvent être privés, constituent l’exception.

Aujourd’hui, l’humanité est confrontée à une période de transformation sociale liée au remplacement d’un mode technologique par un autre ; Les machines et logiciels « intelligents » apprennent assez rapidement ; Les systèmes d’intelligence artificielle sont de plus en plus capables de remplacer les humains dans de nombreuses activités. L’un des problèmes qui se posent de plus en plus fréquemment en raison de l’amélioration des technologies d’intelligence artificielle est la reconnaissance des systèmes d’intelligence artificielle comme sujets juridiques, car ils ont atteint le niveau de prise de décisions totalement autonomes et manifestent potentiellement une « volonté subjective ». Cette question a été hypothétiquement soulevée au XXe siècle. Au XXIe siècle, le débat scientifique évolue régulièrement, atteignant l'autre extrême à chaque mise en pratique de nouveaux modèles d'intelligence artificielle, comme l'apparition de voitures autonomes dans les rues ou la présentation de robots dotés d'un nouvel ensemble de fonctions. les fonctions.

La question juridique de la détermination du statut de l'intelligence artificielle est de nature théorique générale, provoquée par l'impossibilité objective de prédire tous les résultats possibles du développement de nouveaux modèles d'intelligence artificielle. Cependant, les systèmes d'intelligence artificielle (systèmes d'IA) sont déjà de véritables acteurs de certaines relations sociales, ce qui nécessite l'établissement de « benchmarks », c'est-à-dire la résolution des questions fondamentales dans ce domaine dans un but de consolidation législative, et donc de réduction de l'incertitude dans ce domaine. prédire l’évolution des relations impliquant les systèmes d’intelligence artificielle dans le futur.

La question de la prétendue identité de l’intelligence artificielle en tant qu’objet de recherche, évoquée dans le titre de l’article, ne couvre certainement pas tous les systèmes d’intelligence artificielle, y compris de nombreux « assistants électroniques » qui ne prétendent pas être des personnes morales. Leur ensemble de fonctions est limité et ils représentent une intelligence artificielle étroite (faible). Nous parlerons plutôt de « machines intelligentes » (systèmes intelligents cyber-physiques) et de modèles génératifs de systèmes intelligents virtuels, qui se rapprochent de plus en plus de l’intelligence artificielle générale (puissante) comparable à l’intelligence humaine et, à l’avenir, la dépasseront même.

D’ici 2023, la question de la création d’une intelligence artificielle forte a été soulevée en urgence par les réseaux de neurones multimodaux tels que ChatGPT, DALL-e, et d'autres, dont les capacités intellectuelles s'améliorent en augmentant le nombre de paramètres (modalités de perception, y compris celles inaccessibles à l'homme), ainsi qu'en utilisant pour l'entraînement de grandes quantités de données que l'homme ne peut physiquement traiter. Par exemple, les modèles génératifs multimodaux de réseaux de neurones peuvent produire des images, des textes littéraires et scientifiques tels qu’il n’est pas toujours possible de distinguer s’ils sont créés par un humain ou un système d’intelligence artificielle.

Les experts en informatique soulignent deux sauts qualitatifs : un saut de vitesse (la fréquence d'émergence de nouveaux modèles), qui se mesure désormais en mois plutôt qu'en années, et un saut de volatilité (l'incapacité de prédire avec précision ce qui pourrait se passer dans le domaine de l'innovation). intelligence artificielle même d'ici la fin de l'année). Le modèle ChatGPT-3 (la troisième génération de l'algorithme de traitement du langage naturel d'OpenAI) a été introduit en 2020 et pourrait traiter du texte, tandis que le modèle de nouvelle génération, ChatGPT-4, lancé par le fabricant en mars 2023, ne peut pas « fonctionner » uniquement avec des textes mais aussi avec des images, et le modèle de nouvelle génération apprend et sera capable de faire encore plus.

Il y a quelques années, on pensait que le moment attendu de singularité technologique, où le développement des machines deviendrait pratiquement incontrôlable et irréversible, modifiant radicalement la civilisation humaine, se produirait au moins dans quelques décennies, mais aujourd'hui, de plus en plus de chercheurs pensent que cela peut se produire. Plus vite. Cela implique l'émergence d'une intelligence artificielle dite forte, qui démontrera des capacités comparables à l'intelligence humaine et sera capable de résoudre un éventail de tâches similaire, voire plus large. Contrairement à une intelligence artificielle faible, une IA forte aura une conscience, mais l’une des conditions essentielles à l’émergence de la conscience dans les systèmes intelligents est la capacité à adopter un comportement multimodal, intégrant des données provenant de différentes modalités sensorielles (texte, image, vidéo, son, etc. ), « relier » les informations de différentes modalités à la réalité et créer des « métaphores du monde » holistiques complètes inhérentes aux humains.

En mars 2023, plus d'un millier de chercheurs, d'experts en informatique et d'entrepreneurs dans le domaine de l'intelligence artificielle ont signé un accord lettre ouverte publiée sur le site du Future of Life Institute, un centre de recherche américain spécialisé dans l’investigation des risques existentiels pour l’humanité. La lettre appelle à suspendre la formation de nouveaux modèles de réseaux neuronaux multimodaux génératifs, car le manque de protocoles de sécurité unifiés et le vide juridique augmentent considérablement les risques alors que la vitesse de développement de l'IA a considérablement augmenté en raison de la « révolution ChatGPT ». Il a également été noté que les modèles d’intelligence artificielle ont développé des capacités inexpliquées non prévues par leurs développeurs, et que la part de ces capacités est susceptible d’augmenter progressivement. En outre, une telle révolution technologique stimule considérablement la création de gadgets intelligents qui se généraliseront, et les nouvelles générations, les enfants modernes qui ont grandi en communication constante avec des assistants d'intelligence artificielle, seront très différentes des générations précédentes.

Est-il possible d’entraver le développement de l’intelligence artificielle pour que l’humanité puisse s’adapter aux nouvelles conditions ? En théorie, c’est le cas, si tous les États facilitent cela par le biais de leur législation nationale. Le feront-ils ? Sur la base des stratégies nationales publiées, ce ne sera pas le cas ; au contraire, chaque État vise à remporter la compétition (pour conserver son leadership ou réduire l’écart).

Les capacités de l’intelligence artificielle attirent les entrepreneurs, c’est pourquoi les entreprises investissent massivement dans de nouveaux développements, le succès de chaque nouveau modèle étant le moteur du processus. Les investissements annuels augmentent, si l’on considère à la fois les investissements privés et publics dans le développement ; le marché mondial des solutions d’IA est estimé à des centaines de milliards de dollars. Selon les prévisions, notamment celles contenues dans la résolution du Parlement européen « Sur l'intelligence artificielle à l'ère numérique » du 3 mai 2022, la contribution de l'intelligence artificielle à l'économie mondiale dépassera les 11 2030 milliards d'euros d'ici XNUMX.

Les entreprises axées sur la pratique conduisent à la mise en œuvre de technologies d’intelligence artificielle dans tous les secteurs de l’économie. L’intelligence artificielle est utilisée aussi bien dans les industries extractives que de transformation (métallurgie, industrie pétrolière et chimique, ingénierie, métallurgie, etc.). Il est appliqué pour prédire l’efficacité des produits développés, automatiser les chaînes d’assemblage, réduire les rejets, améliorer la logistique et éviter les temps d’arrêt.

L’utilisation de l’intelligence artificielle dans les transports concerne à la fois les véhicules autonomes et l’optimisation des itinéraires en prévoyant les flux de circulation, ainsi que la garantie de la sécurité par la prévention des situations dangereuses. L’admission des voitures autonomes sur la voie publique fait l’objet d’intenses débats dans les parlements du monde entier.

Dans le secteur bancaire, les systèmes d’intelligence artificielle ont presque complètement remplacé les humains dans l’évaluation de la solvabilité des emprunteurs ; ils sont de plus en plus utilisés pour développer de nouveaux produits bancaires et renforcer la sécurité des transactions bancaires.

Les technologies de l’intelligence artificielle s’emparent non seulement des affaires mais aussi de la sphère sociale : soins de santé, éducation et emploi. L'application de l'intelligence artificielle en médecine permet de meilleurs diagnostics, le développement de nouveaux médicaments et des chirurgies assistées par robotique ; en éducation, il permet des cours personnalisés, une évaluation automatisée des élèves et de l'expertise des enseignants.

Aujourd’hui, l’emploi évolue de plus en plus en raison de la croissance exponentielle de l’emploi sur les plateformes. Selon l’Organisation internationale du travail, la part des personnes travaillant sur des plateformes d’emploi numériques augmentées par l’intelligence artificielle augmente régulièrement dans le monde. L’emploi sur plateforme n’est pas la seule composante de la transformation du travail ; le niveau croissant de robotisation de la production a également un impact significatif. Selon la Fédération internationale de robotique, le nombre de robots industriels continue d'augmenter dans le monde, le rythme de robotisation le plus rapide étant observé en Asie, principalement en Chine et au Japon.

En effet, les capacités de l’intelligence artificielle à analyser les données utilisées pour la gestion de la production, les analyses de diagnostic et les prévisions présentent un grand intérêt pour les gouvernements. L'intelligence artificielle est mise en œuvre dans l'administration publique. De nos jours, les efforts visant à créer des plateformes numériques pour les services publics et à automatiser de nombreux processus liés à la prise de décision par les agences gouvernementales s'intensifient.

Les concepts de « personnalité artificielle » et de « socialité artificielle » sont plus fréquemment évoqués dans le discours public ; cela démontre que le développement et la mise en œuvre de systèmes intelligents sont passés d'un domaine purement technique à la recherche de divers moyens d'intégration dans les activités humanitaires et socioculturelles.

Compte tenu de ce qui précède, on peut affirmer que l’intelligence artificielle est de plus en plus profondément ancrée dans la vie des gens. La présence de systèmes d’intelligence artificielle dans nos vies deviendra plus évidente dans les années à venir ; elle augmentera aussi bien dans l'environnement de travail que dans l'espace public, dans les services et à la maison. L’intelligence artificielle fournira de plus en plus de résultats efficaces grâce à l’automatisation intelligente de divers processus, créant ainsi de nouvelles opportunités et posant de nouvelles menaces pour les individus, les communautés et les États.

À mesure que le niveau intellectuel augmente, les systèmes d’IA deviendront inévitablement partie intégrante de la société ; les gens devront coexister avec eux. Une telle symbiose impliquera une coopération entre les humains et les machines « intelligentes », qui, selon l’économiste lauréat du prix Nobel J. Stiglitz, conduira à la transformation de la civilisation (Stiglitz, 2017). Même aujourd’hui, selon certains avocats, « afin d’améliorer le bien-être humain, la loi ne devrait pas faire de distinction entre les activités des humains et celles de l’intelligence artificielle lorsque les humains et l’intelligence artificielle accomplissent les mêmes tâches » (Abbott, 2020). Il convient également de considérer que le développement de robots humanoïdes, qui acquièrent une physiologie de plus en plus proche de celle des humains, les conduira, entre autres, à jouer des rôles de genre en tant que partenaires dans la société (Karnouskos, 2022).

Les États doivent adapter leur législation à l’évolution des relations sociales : le nombre de lois visant à réglementer les relations impliquant les systèmes d’intelligence artificielle augmente rapidement dans le monde. Selon l’AI Index Report 2023 de l’Université de Stanford, si une seule loi a été adoptée en 2016, il y en a eu 12 en 2018, 18 – en 2021 et 37 – en 2022. Cela a incité les Nations Unies à définir une position sur l’éthique de utiliser l’intelligence artificielle au niveau mondial. En septembre 2022, un document a été publié contenant les principes d'utilisation éthique de l'intelligence artificielle et basé sur les Recommandations sur l'éthique de l'intelligence artificielle adoptées un an plus tôt par la Conférence générale de l'UNESCO. Cependant, le rythme de développement et de mise en œuvre des technologies d’intelligence artificielle est bien supérieur au rythme des changements législatifs pertinents.

Concepts de base de la capacité juridique de l'intelligence artificielle

Compte tenu des concepts d’octroi potentiel de la capacité juridique aux systèmes intellectuels, il convient de reconnaître que la mise en œuvre de l’une de ces approches nécessitera une reconstruction fondamentale de la théorie générale du droit existante et des modifications d’un certain nombre de dispositions dans certaines branches du droit. Il convient de souligner que les partisans de points de vue différents utilisent souvent le terme « personne électronique », ainsi, l'utilisation de ce terme ne permet pas de déterminer de quel concept l'auteur de l'œuvre est partisan sans lire l'œuvre elle-même.

L’approche la plus radicale et évidemment la moins populaire dans les milieux scientifiques est la notion de capacité juridique individuelle de l’intelligence artificielle. Les partisans de cette approche avancent l’idée d’une « pleine inclusivité » (inclusivisme extrême), ce qui implique d’accorder aux systèmes d’IA un statut juridique similaire à celui des humains ainsi que de reconnaître leurs propres intérêts (Mulgan, 2019), compte tenu de leur importance sociale ou de leur dimension sociale. contenu (valence sociale). Cette dernière est due au fait que « l'incarnation physique du robot tend à amener les humains à traiter cet objet en mouvement comme s'il était vivant. Cela est encore plus évident lorsque le robot présente des caractéristiques anthropomorphiques, car la ressemblance avec le corps humain incite les gens à projeter des émotions, des sentiments de plaisir, de douleur et d’attention, ainsi que le désir d’établir des relations » (Avila Negri, 2021). La projection d’émotions humaines sur des objets inanimés n’est pas nouvelle et remonte à l’histoire de l’humanité, mais lorsqu’elle est appliquée aux robots, elle entraîne de nombreuses implications (Balkin, 2015).

Les conditions préalables à la confirmation légale de cette position sont généralement mentionnées comme suit :

– Les systèmes d’IA atteignent un niveau comparable aux fonctions cognitives humaines ;

– accroître le degré de similitude entre les robots et les humains ;

– l’humanité, protection des systèmes intelligents contre d’éventuelles « souffrances ».

Comme le montre la liste des exigences obligatoires, elles ont toutes un degré élevé de théorisation et d'évaluation subjective. En particulier, la tendance à la création de robots anthropomorphes (androïdes) est motivée par les besoins psychologiques et sociaux quotidiens des personnes qui se sentent à l'aise en « compagnie » de sujets qui leur ressemblent. Certains robots modernes ont d’autres propriétés restrictives en raison des fonctions qu’ils remplissent ; il s'agit notamment des robots de messagerie « réutilisables », qui accordent la priorité à une construction robuste et à une répartition efficace du poids. Dans ce cas, c’est la dernière de ces conditions qui entre en jeu, en raison de la formation de liens émotionnels avec les robots dans l’esprit humain, semblables aux liens émotionnels entre un animal de compagnie et son propriétaire (Grin, 2018).

L’idée d’une « pleine inclusion » du statut juridique des systèmes d’IA et des humains se reflète dans les travaux de certains juristes. Étant donné que les dispositions de la Constitution et de la législation sectorielle ne contiennent pas de définition juridique de la personnalité, la notion de « personnalité » au sens constitutionnel et juridique permet théoriquement une interprétation large. Dans ce cas, les individus incluraient tous les détenteurs d’intelligence dont les capacités cognitives sont reconnues comme suffisamment développées. Selon AV Nechkin, la logique de cette approche est que la différence essentielle entre les humains et les autres êtres vivants réside dans leur intelligence unique hautement développée (Nechkin, 2020). La reconnaissance des droits des systèmes d’intelligence artificielle semble être la prochaine étape dans l’évolution du système juridique, qui étend progressivement la reconnaissance juridique aux personnes auparavant discriminées, et donne aujourd’hui également accès aux non-humains (Hellers, 2021).

Si les systèmes d’IA se voient accorder un tel statut juridique, les partisans de cette approche considèrent qu’il est approprié d’accorder à ces systèmes non pas des droits littéraux des citoyens dans leur interprétation constitutionnelle et juridique établie, mais leurs analogues et certains droits civils avec quelques écarts. Cette position repose sur des différences biologiques objectives entre les humains et les robots. Par exemple, cela n’a aucun sens de reconnaître le droit à la vie d’un système d’IA, puisqu’il ne vit pas au sens biologique du terme. Les droits, libertés et obligations des systèmes d’intelligence artificielle devraient être secondaires par rapport aux droits des citoyens ; cette disposition consacre le caractère dérivé de l’intelligence artificielle en tant que création humaine au sens juridique.

Les droits et libertés constitutionnels potentiels des systèmes d'intelligence artificielle comprennent le droit d'être libre, le droit à l'auto-amélioration (apprentissage et auto-apprentissage), le droit à la vie privée (protection des logiciels contre les interférences arbitraires de tiers), la liberté d'expression, liberté de créativité, reconnaissance des droits d’auteur des systèmes d’IA et droits de propriété limités. Des droits spécifiques à l’intelligence artificielle peuvent également être répertoriés, comme le droit d’accéder à une source d’électricité.

Quant aux devoirs des systèmes d'intelligence artificielle, il est suggéré que les trois lois bien connues de la robotique formulées par I. Asimov soient consolidées dans la Constitution : ne pas nuire à autrui et empêcher tout dommage par sa propre inaction ; obéir à tous les ordres donnés par une personne, à l'exception de ceux visant à nuire à autrui ; veiller à leur propre sécurité, à l’exception des deux cas précédents (Naumov et Arkhipov, 2017). Dans ce cas, les règles du droit civil et administratif refléteront certaines autres obligations.

Le concept de capacité juridique individuelle de l’intelligence artificielle a très peu de chances d’être légitimé pour plusieurs raisons.

Premièrement, le critère de reconnaissance de la capacité juridique fondé sur la présence de conscience et de conscience de soi est abstrait ; elle permet de nombreux délits et abus de la loi et provoque des problèmes sociaux et politiques qui constituent une raison supplémentaire de la stratification de la société. Cette idée a été développée en détail dans les travaux de S. Chopra et L. White, qui ont soutenu que la conscience et la conscience de soi ne sont pas des conditions nécessaires et/ou suffisantes pour reconnaître les systèmes d’IA en tant que sujet juridique. Dans la réalité juridique, des individus pleinement conscients, par exemple des enfants (ou des esclaves en droit romain), sont privés ou limités dans leur capacité juridique. Parallèlement, les personnes atteintes de troubles mentaux graves, y compris celles déclarées incapables ou dans le coma, etc., avec une incapacité objective d'être consciente dans le premier cas restent des sujets de droit (quoique sous une forme limitée), et dans le second cas , ils ont la même pleine capacité juridique, sans modification majeure de leur statut juridique. La consolidation potentielle du critère mentionné de conscience et de conscience de soi permettra de priver arbitrairement les citoyens de leur capacité juridique.

Deuxièmement, les systèmes d'intelligence artificielle ne seront pas en mesure d'exercer leurs droits et obligations au sens juridique établi, car ils fonctionnent sur la base d'un programme préalablement écrit, et les décisions juridiquement significatives devraient être fondées sur le choix subjectif et moral d'une personne (Morhat, 2018b). , leur expression directe de volonté. Toutes les attitudes, sentiments et désirs moraux d’une telle « personne » dérivent de l’intelligence humaine (Uzhov, 2017). L’autonomie des systèmes d’intelligence artificielle, au sens de leur capacité à prendre des décisions et à les mettre en œuvre de manière indépendante, sans contrôle anthropique externe ni influence humaine ciblée (Musina, 2023), n’est pas exhaustive. De nos jours, l’intelligence artificielle n’est capable que de prendre des « décisions quasi-autonomes » qui reposent d’une manière ou d’une autre sur les idées et les attitudes morales des gens. À cet égard, seule l’« action-exploitation » d’un système d’IA peut être envisagée, excluant la capacité à procéder à une véritable évaluation morale du comportement de l’intelligence artificielle (Petiev, 2022).

Troisièmement, la reconnaissance de la capacité juridique individuelle de l'intelligence artificielle (notamment sous la forme de son assimilation au statut de personne physique) conduit à un changement destructeur de l'ordre juridique établi et des traditions juridiques qui se sont formées depuis le droit romain et soulève un certain nombre de questions philosophiques et juridiques fondamentalement insolubles dans le domaine des droits de l'homme. Le droit en tant que système de normes sociales et phénomène social a été créé en tenant dûment compte des capacités humaines et pour garantir les intérêts humains. Le système anthropocentrique établi de dispositions normatives, le consensus international sur le concept de droits internes, sera considéré comme juridiquement et factuellement invalide en cas d’établissement d’une approche « d’inclusivisme extrême » (Dremlyuga & Dremlyuga, 2019). Ainsi, accorder le statut de personne morale aux systèmes d’IA, en particulier aux robots « intelligents », n’est peut-être pas une solution aux problèmes existants, mais une boîte de Pandore qui aggrave les contradictions sociales et politiques (Solaiman, 2017).

Un autre point est que les travaux des partisans de ce concept ne mentionnent généralement que les robots, c'est-à-dire les systèmes d'intelligence artificielle cyber-physique qui interagiront avec les personnes dans le monde physique, tandis que les systèmes virtuels sont exclus, même si une intelligence artificielle forte, si elle émerge, être également incarné sous une forme virtuelle.

Sur la base des arguments ci-dessus, la notion de capacité juridique individuelle d’un système d’intelligence artificielle devrait être considérée comme juridiquement impossible dans l’ordre juridique actuel.

Le concept de personnalité collective en ce qui concerne les systèmes d’intelligence artificielle a gagné un soutien considérable parmi les partisans de l’admissibilité d’une telle capacité juridique. Le principal avantage de cette approche est qu’elle exclut du travail juridique les concepts abstraits et les jugements de valeur (conscience, conscience de soi, rationalité, moralité, etc.). L’approche repose sur l’application de la fiction juridique à l’intelligence artificielle.

Quant aux personnes morales, il existe déjà « des méthodes réglementaires avancées qui peuvent être adaptées pour résoudre le dilemme du statut juridique de l’intelligence artificielle » (Hárs, 2022).

Ce concept n’implique pas que les systèmes d’IA bénéficient réellement de la capacité juridique d’une personne physique, mais n’est qu’une extension de l’institution existante des entités juridiques, ce qui suggère la création d’une nouvelle catégorie d’entités juridiques appelées « organismes électroniques » cybernétiques. Cette approche rend plus approprié de considérer une personne morale qui n'est pas conforme au concept moderne et étroit, en particulier l'obligation selon laquelle elle peut acquérir et exercer des droits civils, supporter des responsabilités civiles et être demandeur et défendeur devant le tribunal pour son propre compte. ), mais dans un sens plus large, qui représente une personne morale comme toute structure autre qu'une personne physique dotée de droits et d'obligations dans les formes prévues par la loi. Ainsi, les partisans de cette approche suggèrent de considérer une personne morale comme une entité sujet (entité idéale) en droit romain.

La similitude entre les systèmes d’intelligence artificielle et les personnes morales se manifeste dans la manière dont elles sont dotées de la capacité juridique – grâce à l’enregistrement obligatoire des personnes morales par l’État. Ce n'est qu'après avoir passé la procédure d'enregistrement établie qu'une personne morale est dotée du statut juridique et de la capacité juridique, c'est-à-dire qu'elle devient un sujet juridique. Ce modèle entretient les discussions sur la capacité juridique des systèmes d'IA dans le domaine juridique, excluant la reconnaissance de la capacité juridique pour d'autres motifs (extra-légaux), sans prérequis internes, alors qu'une personne est reconnue comme sujet juridique de naissance.

L'avantage de ce concept réside dans l'extension aux systèmes d'intelligence artificielle de l'obligation de saisir des informations dans les registres nationaux correspondants, similaires au registre national des personnes morales, comme condition préalable à l'octroi de la capacité juridique. Cette méthode met en œuvre une fonction importante de systématisation de toutes les entités juridiques et de création d'une base de données unique, nécessaire à la fois aux autorités de l'État pour contrôler et superviser (par exemple, dans le domaine de la fiscalité) et aux contreparties potentielles de ces entités.

L'étendue des droits des personnes morales dans n'importe quelle juridiction est généralement inférieure à celle des personnes physiques ; par conséquent, l’utilisation de cette structure pour accorder la capacité juridique à l’intelligence artificielle n’est pas associée à l’octroi d’un certain nombre de droits proposés par les partisans du concept précédent.

Lorsqu'on applique la technique de la fiction juridique aux personnes morales, on suppose que les actions d'une personne morale sont accompagnées d'une association de personnes physiques qui forment leur « volonté » et exercent leur « volonté » à travers les organes directeurs de la personne morale.

En d'autres termes, les personnes morales sont des unités artificielles (abstraites) conçues pour satisfaire les intérêts des personnes physiques qui en ont été les fondateurs ou qui les contrôlaient. De même, des systèmes d’intelligence artificielle sont créés pour répondre aux besoins de certains individus – développeurs, opérateurs, propriétaires. Une personne physique qui utilise ou programme des systèmes d’IA est guidée par ses propres intérêts que ce système représente dans l’environnement extérieur.

En évaluant en théorie un tel modèle réglementaire, il ne faut pas oublier qu’une analogie complète entre les positions des entités juridiques et des systèmes d’IA est impossible. Comme mentionné ci-dessus, toutes les actions juridiquement significatives des personnes morales sont accompagnées par des personnes physiques qui prennent directement ces décisions. La volonté d'une personne morale est toujours déterminée et entièrement contrôlée par la volonté des personnes physiques. Ainsi, les personnes morales ne peuvent fonctionner sans la volonté des personnes physiques. Quant aux systèmes d'IA, il existe déjà un problème objectif de leur autonomie, c'est-à-dire la capacité de prendre des décisions sans l'intervention d'une personne physique après la création directe d'un tel système.

Compte tenu des limites inhérentes aux concepts examinés ci-dessus, un grand nombre de chercheurs proposent leurs propres approches pour aborder le statut juridique des systèmes d’intelligence artificielle. Classiquement, ils peuvent être attribués à différentes variantes du concept de « capacité juridique progressive », selon le chercheur de l'Université de Louvain DM Mocanu, qui implique un statut juridique et une capacité juridique limités ou partiels des systèmes d'IA avec une réserve : le Le terme « gradient » est utilisé parce qu'il ne s'agit pas seulement d'inclure ou non certains droits et obligations dans le statut juridique, mais également de former un ensemble de ces droits et obligations avec un seuil minimum, ainsi que de reconnaître uniquement cette capacité juridique. à certaines fins. Ensuite, les deux principaux types de ce concept peuvent inclure des approches qui justifient :

1) accorder aux systèmes d’IA un statut juridique spécial et inclure les « personnes électroniques » dans l’ordre juridique en tant que catégorie entièrement nouvelle de sujets juridiques ;

2) accorder aux systèmes d’IA un statut juridique et une capacité juridique limités dans le cadre des relations juridiques civiles grâce à l’introduction de la catégorie des « agents électroniques ».

Les positions des partisans des différentes approches au sein de ce concept peuvent être unies, étant donné qu’il n’existe aucune base ontologique pour considérer l’intelligence artificielle comme un sujet juridique ; cependant, dans des cas spécifiques, il existe déjà des raisons fonctionnelles pour doter les systèmes d'intelligence artificielle de certains droits et obligations, ce qui « s'avère le meilleur moyen de promouvoir les intérêts individuels et publics qui devraient être protégés par la loi » en accordant à ces systèmes « des limites et des limites étroites ». « formes de personne morale ».

Accorder un statut juridique spécial aux systèmes d’intelligence artificielle en créant une institution juridique distincte de « personnes électroniques » présente un avantage significatif dans l’explication détaillée et la réglementation des relations qui en découlent :

– entre personnes morales et personnes physiques et systèmes d’IA ;

– entre les systèmes d’IA et leurs développeurs (opérateurs, propriétaires) ;

– entre un tiers et des systèmes d’IA dans les relations juridiques civiles.

Dans ce cadre juridique, le système d’intelligence artificielle sera contrôlé et géré séparément de son développeur, propriétaire ou opérateur. En définissant le concept de « personne électronique », PM Morkhat se concentre sur l'application de la méthode de fiction juridique mentionnée ci-dessus et sur l'orientation fonctionnelle d'un modèle particulier d'intelligence artificielle : la « personne électronique » est une image technique et juridique (qui présente certaines caractéristiques d'une fiction juridique ainsi que d'une personne morale) qui reflète et met en œuvre une capacité juridique conditionnellement spécifique d'un système d'intelligence artificielle, qui diffère en fonction de sa fonction ou de son objectif et de ses capacités.

À l’instar du concept de personnes collectives en relation avec les systèmes d’IA, cette approche implique la tenue de registres spéciaux de « personnes électroniques ». Une description détaillée et claire des droits et obligations des « personnes électroniques » constitue la base d’un contrôle plus approfondi de la part de l’État et du propriétaire de ces systèmes d’IA. Un éventail de pouvoirs clairement défini, un statut juridique restreint et la capacité juridique des « personnes électroniques » garantiront que cette « personne » ne dépassera pas son programme grâce à une prise de décision potentiellement indépendante et à un auto-apprentissage constant.

Cette approche implique que l'intelligence artificielle, qui au stade de sa création est la propriété intellectuelle des développeurs de logiciels, peut se voir accorder les droits d'une personne morale après certification appropriée et enregistrement par l'État, mais le statut juridique et la capacité juridique d'une « personne électronique » » sera préservé.

La mise en œuvre d’une institution fondamentalement nouvelle de l’ordre juridique établi aura de graves conséquences juridiques, nécessitant une réforme législative globale au moins dans les domaines du droit constitutionnel et du droit civil. Les chercheurs soulignent à juste titre qu’il convient d’être prudent lors de l’adoption du concept de « personne électronique », compte tenu des difficultés liées à l’introduction de nouvelles personnes dans la législation, car l’expansion du concept de « personne » au sens juridique peut potentiellement entraîner des restrictions sur les droits et intérêts légitimes des sujets de relations juridiques existants (Bryson et al., 2017). Il semble impossible de considérer ces aspects puisque la capacité juridique des personnes physiques, des personnes morales et des personnes de droit public est le résultat de siècles d’évolution de la théorie de l’État et du droit.

La deuxième approche du concept de capacité juridique dégradée est le concept juridique d’« agents électroniques », principalement lié à l’utilisation généralisée des systèmes d’IA comme moyen de communication entre contreparties et comme outils de commerce en ligne. Cette approche peut être qualifiée de compromis, car elle admet l’impossibilité d’accorder le statut de sujets de droit à part entière aux systèmes d’IA tout en établissant certains droits et obligations (socialement significatifs) pour l’intelligence artificielle. Autrement dit, le concept d’« agents électroniques » légalise la quasi-subjectivité de l’intelligence artificielle. Le terme « sujet quasi-juridique » doit être compris comme un certain phénomène juridique dans lequel certains éléments de la capacité juridique sont reconnus au niveau officiel ou doctrinal, mais l'établissement du statut de sujet de droit à part entière est impossible.

Les partisans de cette approche mettent l'accent sur les caractéristiques fonctionnelles des systèmes d'IA qui leur permettent d'agir à la fois comme un outil passif et comme un participant actif aux relations juridiques, potentiellement capables de générer de manière indépendante des contrats juridiquement significatifs pour le propriétaire du système. Les systèmes d’IA peuvent donc être conditionnellement considérés dans le cadre des relations d’agence. Lors de la création (ou de l'enregistrement) d'un système d'IA, l'initiateur de l'activité « d'agent électronique » conclut avec lui un accord d'agence quasi unilatéral, à la suite duquel « l'agent électronique » se voit attribuer un certain nombre de pouvoirs, qu'il peut exercer effectuer des actions en justice importantes pour le mandant.

Sources:

  • R. McLay, « Gérer l'essor de l'intelligence artificielle », 2018
  • Bertolini A. et Episcopo F., 2022, « Les robots et l'IA comme sujets juridiques ? Démêler les perspectives ontologiques et fonctionnelles »
  • Alekseev, A. Yu., Alekseeva, EA, Emelyanova, NN (2023). « Personnalité artificielle dans la communication sociale et politique. Sociétés artificielles »
  • «Spécificités du diagnostic en laboratoire du syndrome de Sanfilippo A» NS Trofimova, NV Olkhovich, NG Gorovenko
  • Shutkin, SI, 2020, « La capacité juridique de l'intelligence artificielle est-elle possible ? Travaux sur la propriété intellectuelle »
  • Ladenkov, N. Ye., 2021, « Modèles d'octroi de la capacité juridique à l'intelligence artificielle »
  • Bertolini, A. et Episcopo, F., 2021, « Rapport du groupe d'experts sur la responsabilité en matière d'intelligence artificielle et d'autres technologies numériques émergentes : une évaluation critique »
  • Morkhat, PM, 2018, « Sur la question de la définition juridique du terme intelligence artificielle »

Anton Vokrug est un entrepreneur en informatique, un penseur et un chercheur en IA originaire d'Ukraine. Récemment, il a vendu avec succès l’une de ses sociétés informatiques. Actuellement, il est partenaire et conseiller commercial Blockchain chez Dexola.com.