Suivez nous sur

Intelligence artificielle et identité juridique

Des leaders d'opinion

Intelligence artificielle et identité juridique

mm

Cet article se concentre sur la question de l’octroi du statut de sujet de droit à l’intelligence artificielle (IA), notamment à partir du droit civil. L'identité juridique est définie ici comme une notion intégrante du terme de capacité juridique ; cependant, cela n’implique pas d’accepter que la subjectivité morale soit la même que la personnalité morale. L'identité juridique est un attribut complexe qui peut être reconnu pour certains sujets ou attribué à d'autres.

Je crois que cet attribut est graduel, discret, discontinu, multiforme et modifiable. Cela signifie qu'il peut contenir plus ou moins d'éléments de différents types (par exemple, devoirs, droits, compétences, etc.), qui dans la plupart des cas peuvent être ajoutés ou supprimés par le législateur ; les droits de l’homme, qui, selon l’opinion commune, ne peuvent être privés, constituent l’exception.

Aujourd’hui, l’humanité est confrontée à une période de transformation sociale liée au remplacement d’un mode technologique par un autre ; Les machines et logiciels « intelligents » apprennent assez rapidement ; Les systèmes d’intelligence artificielle sont de plus en plus capables de remplacer les humains dans de nombreuses activités. L’un des problèmes qui se posent de plus en plus fréquemment en raison de l’amélioration des technologies d’intelligence artificielle est la reconnaissance des systèmes d’intelligence artificielle comme sujets juridiques, car ils ont atteint le niveau de prise de décisions totalement autonomes et manifestent potentiellement une « volonté subjective ». Cette question a été hypothétiquement soulevée au XXe siècle. Au XXIe siècle, le débat scientifique évolue régulièrement, atteignant l'autre extrême à chaque mise en pratique de nouveaux modèles d'intelligence artificielle, comme l'apparition de voitures autonomes dans les rues ou la présentation de robots dotés d'un nouvel ensemble de fonctions. les fonctions.

La question juridique de la détermination du statut de l'intelligence artificielle est de nature théorique générale, provoquée par l'impossibilité objective de prédire tous les résultats possibles du développement de nouveaux modèles d'intelligence artificielle. Cependant, les systèmes d'intelligence artificielle (systèmes d'IA) sont déjà de véritables acteurs de certaines relations sociales, ce qui nécessite l'établissement de « benchmarks », c'est-à-dire la résolution des questions fondamentales dans ce domaine dans un but de consolidation législative, et donc de réduction de l'incertitude dans ce domaine. prédire l’évolution des relations impliquant les systèmes d’intelligence artificielle dans le futur.

La question de la prétendue identité de l’intelligence artificielle en tant qu’objet de recherche, évoquée dans le titre de l’article, ne couvre certainement pas tous les systèmes d’intelligence artificielle, y compris de nombreux « assistants électroniques » qui ne prétendent pas être des personnes morales. Leur ensemble de fonctions est limité et ils représentent une intelligence artificielle étroite (faible). Nous parlerons plutôt de « machines intelligentes » (systèmes intelligents cyber-physiques) et de modèles génératifs de systèmes intelligents virtuels, qui se rapprochent de plus en plus de l’intelligence artificielle générale (puissante) comparable à l’intelligence humaine et, à l’avenir, la dépasseront même.

D’ici 2023, la question de la création d’une intelligence artificielle forte a été soulevée en urgence par les réseaux de neurones multimodaux tels que ChatGPT, DALL-e, et d'autres, dont les capacités intellectuelles s'améliorent en augmentant le nombre de paramètres (modalités de perception, y compris celles inaccessibles à l'homme), ainsi qu'en utilisant pour l'entraînement de grandes quantités de données que l'homme ne peut physiquement traiter. Par exemple, les modèles génératifs multimodaux de réseaux de neurones peuvent produire des images, des textes littéraires et scientifiques tels qu’il n’est pas toujours possible de distinguer s’ils sont créés par un humain ou un système d’intelligence artificielle.

Les experts en informatique soulignent deux sauts qualitatifs : un saut de vitesse (la fréquence d'émergence de nouveaux modèles), qui se mesure désormais en mois plutôt qu'en années, et un saut de volatilité (l'incapacité de prédire avec précision ce qui pourrait se passer dans le domaine de l'innovation). intelligence artificielle même d'ici la fin de l'année). Le modèle ChatGPT-3 (la troisième génération de l'algorithme de traitement du langage naturel d'OpenAI) a été introduit en 2020 et pourrait traiter du texte, tandis que le modèle de nouvelle génération, ChatGPT-4, lancé par le fabricant en mars 2023, ne peut pas « fonctionner » uniquement avec des textes mais aussi avec des images, et le modèle de nouvelle génération apprend et sera capable de faire encore plus.

Il y a quelques années, on pensait que le moment attendu de singularité technologique, où le développement des machines deviendrait pratiquement incontrôlable et irréversible, modifiant radicalement la civilisation humaine, se produirait au moins dans quelques décennies, mais aujourd'hui, de plus en plus de chercheurs pensent que cela peut se produire. Plus vite. Cela implique l'émergence d'une intelligence artificielle dite forte, qui démontrera des capacités comparables à l'intelligence humaine et sera capable de résoudre un éventail de tâches similaire, voire plus large. Contrairement à une intelligence artificielle faible, une IA forte aura une conscience, mais l’une des conditions essentielles à l’émergence de la conscience dans les systèmes intelligents est la capacité à adopter un comportement multimodal, intégrant des données provenant de différentes modalités sensorielles (texte, image, vidéo, son, etc. ), « relier » les informations de différentes modalités à la réalité et créer des « métaphores du monde » holistiques complètes inhérentes aux humains.

En mars 2023, plus d'un millier de chercheurs, d'experts en informatique et d'entrepreneurs dans le domaine de l'intelligence artificielle ont signé un accord lettre ouverte publiée sur le site du Future of Life Institute, un centre de recherche américain spécialisé dans l’investigation des risques existentiels pour l’humanité. La lettre appelle à suspendre la formation de nouveaux modèles de réseaux neuronaux multimodaux génératifs, car le manque de protocoles de sécurité unifiés et le vide juridique augmentent considérablement les risques alors que la vitesse de développement de l'IA a considérablement augmenté en raison de la « révolution ChatGPT ». Il a également été noté que les modèles d’intelligence artificielle ont développé des capacités inexpliquées non prévues par leurs développeurs, et que la part de ces capacités est susceptible d’augmenter progressivement. En outre, une telle révolution technologique stimule considérablement la création de gadgets intelligents qui se généraliseront, et les nouvelles générations, les enfants modernes qui ont grandi en communication constante avec des assistants d'intelligence artificielle, seront très différentes des générations précédentes.

Est-il possible d'entraver le dĂ©veloppement de l'intelligence artificielle afin que l'humanitĂ© puisse s'adapter aux nouvelles conditions ? En thĂ©orie, oui, si tous les États le facilitent par leur lĂ©gislation nationale. Le feront-ils ? D'après les stratĂ©gies nationales publiĂ©es, ce ne sera pas le cas ; au contraire, chaque État vise Ă  remporter la compĂ©tition (pour conserver son leadership ou rĂ©duire l'Ă©cart).

Les capacitĂ©s de l'intelligence artificielle attirent les entrepreneurs, qui investissent massivement dans de nouveaux dĂ©veloppements, le succès de chaque nouveau modèle stimulant le processus. Les investissements annuels sont en hausse, tant privĂ©s que publics ; le marchĂ© mondial des solutions d'IA est estimĂ© Ă  des centaines de milliards de dollars. Selon les prĂ©visions, notamment celles contenues dans la rĂ©solution du Parlement europĂ©en « Sur l'intelligence artificielle Ă  l'ère numĂ©rique Â» du 3 mai 2022, la contribution de l'intelligence artificielle Ă  l'Ă©conomie mondiale dĂ©passera 11 2030 milliards d'euros d'ici XNUMX.

Les entreprises axées sur la pratique conduisent à la mise en œuvre de technologies d’intelligence artificielle dans tous les secteurs de l’économie. L’intelligence artificielle est utilisée aussi bien dans les industries extractives que de transformation (métallurgie, industrie pétrolière et chimique, ingénierie, métallurgie, etc.). Il est appliqué pour prédire l’efficacité des produits développés, automatiser les chaînes d’assemblage, réduire les rejets, améliorer la logistique et éviter les temps d’arrêt.

L’utilisation de l’intelligence artificielle dans les transports concerne à la fois les véhicules autonomes et l’optimisation des itinéraires en prévoyant les flux de circulation, ainsi que la garantie de la sécurité par la prévention des situations dangereuses. L’admission des voitures autonomes sur la voie publique fait l’objet d’intenses débats dans les parlements du monde entier.

Dans le secteur bancaire, les systèmes d’intelligence artificielle ont presque entièrement remplacé les humains dans l’évaluation de la solvabilité des emprunteurs ; ils sont de plus en plus utilisés pour développer de nouveaux produits bancaires et améliorer la sécurité des transactions bancaires.

Les technologies d'intelligence artificielle envahissent non seulement le monde des affaires, mais aussi la sphère sociale : santĂ©, Ă©ducation et emploi. L'application de l'intelligence artificielle en mĂ©decine permet d'amĂ©liorer les diagnostics, le dĂ©veloppement de nouveaux mĂ©dicaments et la chirurgie assistĂ©e par robot ; dans l'Ă©ducation, elle permet des cours personnalisĂ©s, l'Ă©valuation automatisĂ©e des Ă©tudiants et l'expertise des enseignants.

Aujourd’hui, l’emploi évolue de plus en plus en raison de la croissance exponentielle de l’emploi sur les plateformes. Selon l’Organisation internationale du travail, la part des personnes travaillant sur des plateformes d’emploi numériques augmentées par l’intelligence artificielle augmente régulièrement dans le monde. L’emploi sur plateforme n’est pas la seule composante de la transformation du travail ; le niveau croissant de robotisation de la production a également un impact significatif. Selon la Fédération internationale de robotique, le nombre de robots industriels continue d'augmenter dans le monde, le rythme de robotisation le plus rapide étant observé en Asie, principalement en Chine et au Japon.

En effet, les capacités de l’intelligence artificielle à analyser les données utilisées pour la gestion de la production, les analyses de diagnostic et les prévisions présentent un grand intérêt pour les gouvernements. L'intelligence artificielle est mise en œuvre dans l'administration publique. De nos jours, les efforts visant à créer des plateformes numériques pour les services publics et à automatiser de nombreux processus liés à la prise de décision par les agences gouvernementales s'intensifient.

Les concepts de « personnalité artificielle » et de « socialité artificielle » sont plus fréquemment évoqués dans le discours public ; cela démontre que le développement et la mise en œuvre de systèmes intelligents sont passés d'un domaine purement technique à la recherche de divers moyens d'intégration dans les activités humanitaires et socioculturelles.

Au vu de ce qui prĂ©cède, on peut affirmer que l'intelligence artificielle s'intègre de plus en plus profondĂ©ment dans la vie quotidienne. La prĂ©sence des systèmes d'intelligence artificielle dans nos vies deviendra plus Ă©vidente dans les annĂ©es Ă  venir ; elle se dĂ©veloppera tant au travail que dans l'espace public, dans les services et Ă  la maison. L'intelligence artificielle fournira des rĂ©sultats de plus en plus performants grâce Ă  l'automatisation intelligente de divers processus, crĂ©ant ainsi de nouvelles opportunitĂ©s et posant de nouvelles menaces pour les individus, les communautĂ©s et les États.

À mesure que le niveau intellectuel augmente, les systèmes d’IA deviendront inévitablement partie intégrante de la société ; les gens devront coexister avec eux. Une telle symbiose impliquera une coopération entre les humains et les machines « intelligentes », qui, selon l’économiste lauréat du prix Nobel J. Stiglitz, conduira à la transformation de la civilisation (Stiglitz, 2017). Même aujourd’hui, selon certains avocats, « afin d’améliorer le bien-être humain, la loi ne devrait pas faire de distinction entre les activités des humains et celles de l’intelligence artificielle lorsque les humains et l’intelligence artificielle accomplissent les mêmes tâches » (Abbott, 2020). Il convient également de considérer que le développement de robots humanoïdes, qui acquièrent une physiologie de plus en plus proche de celle des humains, les conduira, entre autres, à jouer des rôles de genre en tant que partenaires dans la société (Karnouskos, 2022).

Les États doivent adapter leur lĂ©gislation Ă  l'Ă©volution des relations sociales : le nombre de lois visant Ă  rĂ©glementer les relations impliquant des systèmes d'intelligence artificielle (IA) augmente rapidement dans le monde. Selon le rapport AI Index 2023 de l'UniversitĂ© de Stanford, si une seule loi a Ă©tĂ© adoptĂ©e en 2016, on en compte 12 en 2018, 18 en 2021 et 37 en 2022. Cela a incitĂ© les Nations Unies Ă  dĂ©finir une position sur l'Ă©thique de l'utilisation de l'IA au niveau mondial. En septembre 2022, un document a Ă©tĂ© publiĂ©, contenant les principes d'une utilisation Ă©thique de l'IA, basĂ© sur les Recommandations sur l'Ă©thique de l'IA adoptĂ©es un an plus tĂ´t par la ConfĂ©rence gĂ©nĂ©rale de l'UNESCO. Cependant, le rythme de dĂ©veloppement et de mise en Ĺ“uvre des technologies d'IA est bien supĂ©rieur Ă  celui des Ă©volutions lĂ©gislatives correspondantes.

Concepts de base de la capacité juridique de l'intelligence artificielle

Compte tenu des concepts d’octroi potentiel de la capacité juridique aux systèmes intellectuels, il convient de reconnaître que la mise en œuvre de l’une de ces approches nécessitera une reconstruction fondamentale de la théorie générale du droit existante et des modifications d’un certain nombre de dispositions dans certaines branches du droit. Il convient de souligner que les partisans de points de vue différents utilisent souvent le terme « personne électronique », ainsi, l'utilisation de ce terme ne permet pas de déterminer de quel concept l'auteur de l'œuvre est partisan sans lire l'œuvre elle-même.

L'approche la plus radicale et, évidemment, la moins populaire dans les milieux scientifiques est le concept de capacité juridique individuelle de l'intelligence artificielle. Les partisans de cette approche avancent l'idée d'« inclusivité totale » (inclusivisme extrême), qui implique d'accorder aux systèmes d'IA un statut juridique similaire à celui des humains et de reconnaître leurs propres intérêts (Mulgan, 2019), compte tenu de leur importance sociale ou de leur contenu social (valence sociale). Cette dernière s'explique par le fait que « l'incarnation physique du robot tend à amener les humains à traiter cet objet en mouvement comme s'il était vivant. Cela est encore plus évident lorsque le robot présente des caractéristiques anthropomorphiques, car la ressemblance avec le corps humain incite les gens à projeter des émotions, des sentiments de plaisir, de douleur et d'attention, ainsi que le désir d'établir des relations » (Avila Negri, 2021). La projection d'émotions humaines sur des objets inanimés n'est pas nouvelle, elle remonte à l'histoire de l'humanité, mais lorsqu'elle est appliquée aux robots, elle a de nombreuses implications (Balkin, 2015).

Les conditions préalables à la confirmation légale de cette position sont généralement mentionnées comme suit :

– Les systèmes d’IA atteignent un niveau comparable aux fonctions cognitives humaines ;

– accroître le degré de similitude entre les robots et les humains ;

– l’humanité, protection des systèmes intelligents contre d’éventuelles « souffrances ».

Comme le montre la liste des exigences obligatoires, elles ont toutes un degrĂ© Ă©levĂ© de thĂ©orisation et d'Ă©valuation subjective. En particulier, la tendance Ă  la crĂ©ation de robots anthropomorphes (androĂŻdes) est motivĂ©e par les besoins psychologiques et sociaux quotidiens des personnes qui se sentent Ă  l'aise en « compagnie » de sujets qui leur ressemblent. Certains robots modernes ont d’autres propriĂ©tĂ©s restrictives en raison des fonctions qu’ils remplissent ; il s'agit notamment des robots de messagerie « rĂ©utilisables Â», qui accordent la prioritĂ© Ă  une construction robuste et Ă  une rĂ©partition efficace du poids. Dans ce cas, c’est la dernière de ces conditions qui entre en jeu, en raison de la formation de liens Ă©motionnels avec les robots dans l’esprit humain, semblables aux liens Ă©motionnels entre un animal de compagnie et son propriĂ©taire (Grin, 2018).

L’idée d’une « pleine inclusion » du statut juridique des systèmes d’IA et des humains se reflète dans les travaux de certains juristes. Étant donné que les dispositions de la Constitution et de la législation sectorielle ne contiennent pas de définition juridique de la personnalité, la notion de « personnalité » au sens constitutionnel et juridique permet théoriquement une interprétation large. Dans ce cas, les individus incluraient tous les détenteurs d’intelligence dont les capacités cognitives sont reconnues comme suffisamment développées. Selon AV Nechkin, la logique de cette approche est que la différence essentielle entre les humains et les autres êtres vivants réside dans leur intelligence unique hautement développée (Nechkin, 2020). La reconnaissance des droits des systèmes d’intelligence artificielle semble être la prochaine étape dans l’évolution du système juridique, qui étend progressivement la reconnaissance juridique aux personnes auparavant discriminées, et donne aujourd’hui également accès aux non-humains (Hellers, 2021).

Si les systèmes d’IA se voient accorder un tel statut juridique, les partisans de cette approche considèrent qu’il est approprié d’accorder à ces systèmes non pas des droits littéraux des citoyens dans leur interprétation constitutionnelle et juridique établie, mais leurs analogues et certains droits civils avec quelques écarts. Cette position repose sur des différences biologiques objectives entre les humains et les robots. Par exemple, cela n’a aucun sens de reconnaître le droit à la vie d’un système d’IA, puisqu’il ne vit pas au sens biologique du terme. Les droits, libertés et obligations des systèmes d’intelligence artificielle devraient être secondaires par rapport aux droits des citoyens ; cette disposition consacre le caractère dérivé de l’intelligence artificielle en tant que création humaine au sens juridique.

Les droits et libertés constitutionnels potentiels des systèmes d'intelligence artificielle comprennent le droit d'être libre, le droit à l'auto-amélioration (apprentissage et auto-apprentissage), le droit à la vie privée (protection des logiciels contre les interférences arbitraires de tiers), la liberté d'expression, liberté de créativité, reconnaissance des droits d’auteur des systèmes d’IA et droits de propriété limités. Des droits spécifiques à l’intelligence artificielle peuvent également être répertoriés, comme le droit d’accéder à une source d’électricité.

Quant aux devoirs des systèmes d'intelligence artificielle, il est suggéré que les trois lois bien connues de la robotique formulées par I. Asimov soient consolidées dans la Constitution : ne pas nuire à autrui et empêcher tout dommage par sa propre inaction ; obéir à tous les ordres donnés par une personne, à l'exception de ceux visant à nuire à autrui ; veiller à leur propre sécurité, à l’exception des deux cas précédents (Naumov et Arkhipov, 2017). Dans ce cas, les règles du droit civil et administratif refléteront certaines autres obligations.

Le concept de capacité juridique individuelle de l’intelligence artificielle a très peu de chances d’être légitimé pour plusieurs raisons.

Premièrement, le critère de reconnaissance de la capacité juridique fondé sur la présence de conscience et de conscience de soi est abstrait ; elle permet de nombreux délits et abus de la loi et provoque des problèmes sociaux et politiques qui constituent une raison supplémentaire de la stratification de la société. Cette idée a été développée en détail dans les travaux de S. Chopra et L. White, qui ont soutenu que la conscience et la conscience de soi ne sont pas des conditions nécessaires et/ou suffisantes pour reconnaître les systèmes d’IA en tant que sujet juridique. Dans la réalité juridique, des individus pleinement conscients, par exemple des enfants (ou des esclaves en droit romain), sont privés ou limités dans leur capacité juridique. Parallèlement, les personnes atteintes de troubles mentaux graves, y compris celles déclarées incapables ou dans le coma, etc., avec une incapacité objective d'être consciente dans le premier cas restent des sujets de droit (quoique sous une forme limitée), et dans le second cas , ils ont la même pleine capacité juridique, sans modification majeure de leur statut juridique. La consolidation potentielle du critère mentionné de conscience et de conscience de soi permettra de priver arbitrairement les citoyens de leur capacité juridique.

Deuxièmement, les systèmes d'intelligence artificielle ne pourront pas exercer leurs droits et obligations au sens juridique établi, car ils fonctionnent sur la base d'un programme préétabli, et les décisions juridiquement significatives devraient être fondées sur le choix moral subjectif d'une personne (Morhat, 2018b), expression directe de sa volonté. Toutes les attitudes, sentiments et désirs moraux d'une telle « personne » découlent de l'intelligence humaine (Uzhov, 2017). L'autonomie des systèmes d'intelligence artificielle, au sens de leur capacité à prendre des décisions et à les mettre en œuvre de manière indépendante, sans contrôle anthropique externe ni influence humaine ciblée (Musina, 2023), n'est pas exhaustive. Aujourd'hui, l'intelligence artificielle n'est capable que de prendre des « décisions quasi autonomes », fondées d'une manière ou d'une autre sur les idées et les attitudes morales des individus. À cet égard, seule l'« action-opération » d'un système d'IA peut être prise en compte, excluant la capacité à procéder à une véritable évaluation morale du comportement de l'intelligence artificielle (Petiev, 2022).

Troisièmement, la reconnaissance de la capacité juridique individuelle de l'intelligence artificielle (notamment sous la forme d'une assimilation à celle d'une personne physique) entraîne une modification destructrice de l'ordre juridique établi et des traditions juridiques qui se sont formées depuis le droit romain et soulève un certain nombre de questions philosophiques et juridiques fondamentalement insolubles dans le domaine des droits de l'homme. Le droit, en tant que système de normes sociales et phénomène social, a été créé en tenant dûment compte des capacités humaines et pour garantir les intérêts humains. Le système anthropocentrique établi de dispositions normatives et le consensus international sur la notion de droits internes seront considérés comme juridiquement et factuellement invalides en cas d'adoption d'une approche d'« inclusivisme extrême » (Dremlyuga & Dremlyuga, 2019). Par conséquent, accorder le statut d'entité juridique aux systèmes d'IA, en particulier aux robots « intelligents », pourrait ne pas être une solution aux problèmes existants, mais une boîte de Pandore qui aggrave les contradictions sociales et politiques (Solaiman, 2017).

Un autre point est que les travaux des partisans de ce concept ne mentionnent généralement que les robots, c'est-à-dire les systèmes d'intelligence artificielle cyber-physique qui interagiront avec les personnes dans le monde physique, tandis que les systèmes virtuels sont exclus, même si une intelligence artificielle forte, si elle émerge, être également incarné sous une forme virtuelle.

Sur la base des arguments ci-dessus, la notion de capacité juridique individuelle d’un système d’intelligence artificielle devrait être considérée comme juridiquement impossible dans l’ordre juridique actuel.

Le concept de personnalité collective en ce qui concerne les systèmes d’intelligence artificielle a gagné un soutien considérable parmi les partisans de l’admissibilité d’une telle capacité juridique. Le principal avantage de cette approche est qu’elle exclut du travail juridique les concepts abstraits et les jugements de valeur (conscience, conscience de soi, rationalité, moralité, etc.). L’approche repose sur l’application de la fiction juridique à l’intelligence artificielle.

Quant aux personnes morales, il existe déjà « des méthodes réglementaires avancées qui peuvent être adaptées pour résoudre le dilemme du statut juridique de l’intelligence artificielle » (Hárs, 2022).

Ce concept n’implique pas que les systèmes d’IA bénéficient réellement de la capacité juridique d’une personne physique, mais n’est qu’une extension de l’institution existante des entités juridiques, ce qui suggère la création d’une nouvelle catégorie d’entités juridiques appelées « organismes électroniques » cybernétiques. Cette approche rend plus approprié de considérer une personne morale qui n'est pas conforme au concept moderne et étroit, en particulier l'obligation selon laquelle elle peut acquérir et exercer des droits civils, supporter des responsabilités civiles et être demandeur et défendeur devant le tribunal pour son propre compte. ), mais dans un sens plus large, qui représente une personne morale comme toute structure autre qu'une personne physique dotée de droits et d'obligations dans les formes prévues par la loi. Ainsi, les partisans de cette approche suggèrent de considérer une personne morale comme une entité sujet (entité idéale) en droit romain.

La similitude entre les systèmes d’intelligence artificielle et les personnes morales se manifeste dans la manière dont elles sont dotées de la capacité juridique – grâce à l’enregistrement obligatoire des personnes morales par l’État. Ce n'est qu'après avoir passé la procédure d'enregistrement établie qu'une personne morale est dotée du statut juridique et de la capacité juridique, c'est-à-dire qu'elle devient un sujet juridique. Ce modèle entretient les discussions sur la capacité juridique des systèmes d'IA dans le domaine juridique, excluant la reconnaissance de la capacité juridique pour d'autres motifs (extra-légaux), sans prérequis internes, alors qu'une personne est reconnue comme sujet juridique de naissance.

L'avantage de ce concept réside dans l'extension aux systèmes d'intelligence artificielle de l'obligation de saisir des informations dans les registres nationaux correspondants, similaires au registre national des personnes morales, comme condition préalable à l'octroi de la capacité juridique. Cette méthode met en œuvre une fonction importante de systématisation de toutes les entités juridiques et de création d'une base de données unique, nécessaire à la fois aux autorités de l'État pour contrôler et superviser (par exemple, dans le domaine de la fiscalité) et aux contreparties potentielles de ces entités.

L'étendue des droits des personnes morales dans n'importe quelle juridiction est généralement inférieure à celle des personnes physiques ; par conséquent, l’utilisation de cette structure pour accorder la capacité juridique à l’intelligence artificielle n’est pas associée à l’octroi d’un certain nombre de droits proposés par les partisans du concept précédent.

Lorsqu'on applique la technique de la fiction juridique aux personnes morales, on suppose que les actions d'une personne morale sont accompagnées d'une association de personnes physiques qui forment leur « volonté » et exercent leur « volonté » à travers les organes directeurs de la personne morale.

En d'autres termes, les personnes morales sont des unités artificielles (abstraites) conçues pour satisfaire les intérêts des personnes physiques qui en ont été les fondateurs ou qui les contrôlaient. De même, des systèmes d’intelligence artificielle sont créés pour répondre aux besoins de certains individus – développeurs, opérateurs, propriétaires. Une personne physique qui utilise ou programme des systèmes d’IA est guidée par ses propres intérêts que ce système représente dans l’environnement extérieur.

En évaluant en théorie un tel modèle réglementaire, il ne faut pas oublier qu’une analogie complète entre les positions des entités juridiques et des systèmes d’IA est impossible. Comme mentionné ci-dessus, toutes les actions juridiquement significatives des personnes morales sont accompagnées par des personnes physiques qui prennent directement ces décisions. La volonté d'une personne morale est toujours déterminée et entièrement contrôlée par la volonté des personnes physiques. Ainsi, les personnes morales ne peuvent fonctionner sans la volonté des personnes physiques. Quant aux systèmes d'IA, il existe déjà un problème objectif de leur autonomie, c'est-à-dire la capacité de prendre des décisions sans l'intervention d'une personne physique après la création directe d'un tel système.

Compte tenu des limites inhĂ©rentes aux concepts examinĂ©s ci-dessus, un grand nombre de chercheurs proposent leurs propres approches pour aborder le statut juridique des systèmes d’intelligence artificielle. Classiquement, ils peuvent ĂŞtre attribuĂ©s Ă  diffĂ©rentes variantes du concept de « capacitĂ© juridique progressive », selon le chercheur de l'UniversitĂ© de Louvain DM Mocanu, qui implique un statut juridique et une capacitĂ© juridique limitĂ©s ou partiels des systèmes d'IA avec une rĂ©serve : le Le terme « gradient Â» est utilisĂ© parce qu'il ne s'agit pas seulement d'inclure ou non certains droits et obligations dans le statut juridique, mais Ă©galement de former un ensemble de ces droits et obligations avec un seuil minimum, ainsi que de reconnaĂ®tre uniquement cette capacitĂ© juridique. Ă  certaines fins. Ensuite, les deux principaux types de ce concept peuvent inclure des approches qui justifient :

1) accorder aux systèmes d’IA un statut juridique spécial et inclure les « personnes électroniques » dans l’ordre juridique en tant que catégorie entièrement nouvelle de sujets juridiques ;

2) accorder aux systèmes d’IA un statut juridique et une capacité juridique limités dans le cadre des relations juridiques civiles grâce à l’introduction de la catégorie des « agents électroniques ».

Les positions des partisans des différentes approches au sein de ce concept peuvent être unies, étant donné qu’il n’existe aucune base ontologique pour considérer l’intelligence artificielle comme un sujet juridique ; cependant, dans des cas spécifiques, il existe déjà des raisons fonctionnelles pour doter les systèmes d'intelligence artificielle de certains droits et obligations, ce qui « s'avère le meilleur moyen de promouvoir les intérêts individuels et publics qui devraient être protégés par la loi » en accordant à ces systèmes « des limites et des limites étroites ». « formes de personne morale ».

Accorder un statut juridique spécial aux systèmes d’intelligence artificielle en créant une institution juridique distincte de « personnes électroniques » présente un avantage significatif dans l’explication détaillée et la réglementation des relations qui en découlent :

– entre personnes morales et personnes physiques et systèmes d’IA ;

– entre les systèmes d’IA et leurs développeurs (opérateurs, propriétaires) ;

– entre un tiers et des systèmes d’IA dans les relations juridiques civiles.

Dans ce cadre juridique, le système d’intelligence artificielle sera contrôlé et géré séparément de son développeur, propriétaire ou opérateur. En définissant le concept de « personne électronique », PM Morkhat se concentre sur l'application de la méthode de fiction juridique mentionnée ci-dessus et sur l'orientation fonctionnelle d'un modèle particulier d'intelligence artificielle : la « personne électronique » est une image technique et juridique (qui présente certaines caractéristiques d'une fiction juridique ainsi que d'une personne morale) qui reflète et met en œuvre une capacité juridique conditionnellement spécifique d'un système d'intelligence artificielle, qui diffère en fonction de sa fonction ou de son objectif et de ses capacités.

À l’instar du concept de personnes collectives en relation avec les systèmes d’IA, cette approche implique la tenue de registres spéciaux de « personnes électroniques ». Une description détaillée et claire des droits et obligations des « personnes électroniques » constitue la base d’un contrôle plus approfondi de la part de l’État et du propriétaire de ces systèmes d’IA. Un éventail de pouvoirs clairement défini, un statut juridique restreint et la capacité juridique des « personnes électroniques » garantiront que cette « personne » ne dépassera pas son programme grâce à une prise de décision potentiellement indépendante et à un auto-apprentissage constant.

Cette approche implique que l'intelligence artificielle, qui au stade de sa création est la propriété intellectuelle des développeurs de logiciels, peut se voir accorder les droits d'une personne morale après certification appropriée et enregistrement par l'État, mais le statut juridique et la capacité juridique d'une « personne électronique » » sera préservé.

La mise en œuvre d’une institution fondamentalement nouvelle de l’ordre juridique établi aura de graves conséquences juridiques, nécessitant une réforme législative globale au moins dans les domaines du droit constitutionnel et du droit civil. Les chercheurs soulignent à juste titre qu’il convient d’être prudent lors de l’adoption du concept de « personne électronique », compte tenu des difficultés liées à l’introduction de nouvelles personnes dans la législation, car l’expansion du concept de « personne » au sens juridique peut potentiellement entraîner des restrictions sur les droits et intérêts légitimes des sujets de relations juridiques existants (Bryson et al., 2017). Il semble impossible de considérer ces aspects puisque la capacité juridique des personnes physiques, des personnes morales et des personnes de droit public est le résultat de siècles d’évolution de la théorie de l’État et du droit.

La deuxième approche du concept de capacité juridique dégradée est le concept juridique d’« agents électroniques », principalement lié à l’utilisation généralisée des systèmes d’IA comme moyen de communication entre contreparties et comme outils de commerce en ligne. Cette approche peut être qualifiée de compromis, car elle admet l’impossibilité d’accorder le statut de sujets de droit à part entière aux systèmes d’IA tout en établissant certains droits et obligations (socialement significatifs) pour l’intelligence artificielle. Autrement dit, le concept d’« agents électroniques » légalise la quasi-subjectivité de l’intelligence artificielle. Le terme « sujet quasi-juridique » doit être compris comme un certain phénomène juridique dans lequel certains éléments de la capacité juridique sont reconnus au niveau officiel ou doctrinal, mais l'établissement du statut de sujet de droit à part entière est impossible.

Les partisans de cette approche mettent l'accent sur les caractéristiques fonctionnelles des systèmes d'IA qui leur permettent d'agir à la fois comme un outil passif et comme un participant actif aux relations juridiques, potentiellement capables de générer de manière indépendante des contrats juridiquement significatifs pour le propriétaire du système. Les systèmes d’IA peuvent donc être conditionnellement considérés dans le cadre des relations d’agence. Lors de la création (ou de l'enregistrement) d'un système d'IA, l'initiateur de l'activité « d'agent électronique » conclut avec lui un accord d'agence quasi unilatéral, à la suite duquel « l'agent électronique » se voit attribuer un certain nombre de pouvoirs, qu'il peut exercer effectuer des actions en justice importantes pour le mandant.

Sources:

  • R. McLay, « GĂ©rer l'essor de l'intelligence artificielle », 2018
  • Bertolini A. et Episcopo F., 2022, « Les robots et l'IA comme sujets juridiques ? DĂ©mĂŞler les perspectives ontologiques et fonctionnelles »
  • Alekseev, A. Yu., Alekseeva, EA, Emelyanova, NN (2023). « PersonnalitĂ© artificielle dans la communication sociale et politique. SociĂ©tĂ©s artificielles »
  • «SpĂ©cificitĂ©s du diagnostic en laboratoire du syndrome de Sanfilippo A» NS Trofimova, NV Olkhovich, NG Gorovenko
  • Shutkin, SI, 2020, « La capacitĂ© juridique de l'intelligence artificielle est-elle possible ? Travaux sur la propriĂ©tĂ© intellectuelle »
  • Ladenkov, N. Ye., 2021, « Modèles d'octroi de la capacitĂ© juridique Ă  l'intelligence artificielle »
  • Bertolini, A., et Episcopo, F., 2021, « Rapport du groupe d'experts sur la responsabilitĂ© de l'intelligence artificielle et des autres technologies numĂ©riques Ă©mergentes : une Ă©valuation critique Â»
  • Morkhat, PM, 2018, « Sur la question de la dĂ©finition juridique du terme intelligence artificielle »

Anton Vokrug est un entrepreneur en informatique, un penseur et un chercheur en IA originaire d'Ukraine. Récemment, il a vendu avec succès l’une de ses sociétés informatiques. Actuellement, il est partenaire et conseiller commercial Blockchain chez Dexola.com.