talón Inteligencia artificial e identidad jurídica - Unite.AI
Contáctanos

Líderes del pensamiento

Inteligencia artificial e identidad jurídica

mm

Publicado

 on

Este artículo se centra en la cuestión de conceder el estatus de sujeto jurídico a la inteligencia artificial (IA), especialmente basada en el derecho civil. La identidad jurídica se define aquí como un concepto integrante del término de capacidad jurídica; sin embargo, esto no implica aceptar que la subjetividad moral sea lo mismo que la personalidad moral. La identidad jurídica es un atributo complejo que puede ser reconocido por ciertos sujetos o asignado a otros.

Creo que este atributo es gradual, discreto, discontinuo, multifacético y cambiante. Esto significa que puede contener más o menos elementos de diferente tipo (por ejemplo, deberes, derechos, competencias, etc.), que en la mayoría de los casos pueden ser añadidos o eliminados por el legislador; Los derechos humanos, de los que, según la opinión común, no se pueden privar, son la excepción.

Hoy en día, la humanidad enfrenta un período de transformación social relacionado con la sustitución de un modo tecnológico por otro; Las máquinas y el software “inteligentes” aprenden con bastante rapidez; Los sistemas de inteligencia artificial son cada vez más capaces de sustituir a las personas en muchas actividades. Una de las cuestiones que surge cada vez con más frecuencia debido a la mejora de las tecnologías de inteligencia artificial es el reconocimiento de los sistemas de inteligencia artificial como sujetos jurídicos, ya que han alcanzado el nivel de tomar decisiones totalmente autónomas y potencialmente manifestar una “voluntad subjetiva”. Esta cuestión se planteó hipotéticamente en el siglo XX. En el siglo XXI, el debate científico evoluciona constantemente, llegando al otro extremo con cada introducción en la práctica de nuevos modelos de inteligencia artificial, como la aparición de coches autónomos en las calles o la presentación de robots con un nuevo conjunto de funciones. funciones.

La cuestión jurídica de determinar el estado de la inteligencia artificial es de carácter teórico general y se debe a la imposibilidad objetiva de predecir todos los resultados posibles del desarrollo de nuevos modelos de inteligencia artificial. Sin embargo, los sistemas de inteligencia artificial (sistemas de IA) ya son participantes reales en determinadas relaciones sociales, lo que requiere el establecimiento de "puntos de referencia", es decir, la resolución de cuestiones fundamentales en este ámbito con el fin de consolidar la legislación y, por tanto, reducir la incertidumbre en predecir el desarrollo de las relaciones que involucran sistemas de inteligencia artificial en el futuro.

La cuestión de la supuesta identidad de la inteligencia artificial como objeto de investigación, mencionada en el título del artículo, ciertamente no cubre todos los sistemas de inteligencia artificial, incluidos muchos "asistentes electrónicos" que no pretenden ser personas jurídicas. Su conjunto de funciones es limitado y representan inteligencia artificial limitada (débil). Más bien nos referiremos a las “máquinas inteligentes” (sistemas inteligentes ciberfísicos) y a los modelos generativos de sistemas inteligentes virtuales, que se acercan cada vez más a una inteligencia artificial general (potente) comparable a la inteligencia humana y, en el futuro, incluso superándola.

Para 2023, la cuestión de la creación de una inteligencia artificial potente ha sido planteada con urgencia por redes neuronales multimodales como ChatGPT, DALL-e, y otros, cuyas capacidades intelectuales se están mejorando aumentando el número de parámetros (modalidades de percepción, incluidas las inaccesibles para los humanos), así como mediante el uso de grandes cantidades de datos para el entrenamiento que los humanos no pueden procesar físicamente. Por ejemplo, los modelos generativos multimodales de redes neuronales pueden producir imágenes y textos literarios y científicos que no siempre es posible distinguir si fueron creados por un sistema de inteligencia humana o artificial.

Los expertos en TI destacan dos saltos cualitativos: un salto de velocidad (la frecuencia de aparición de nuevos modelos), que ahora se mide en meses en lugar de años, y un salto de volatilidad (la incapacidad de predecir con precisión lo que podría suceder en el campo de la tecnología). inteligencia artificial incluso antes de fin de año). El modelo ChatGPT-3 (la tercera generación del algoritmo de procesamiento de lenguaje natural de OpenAI) se introdujo en 2020 y podía procesar texto, mientras que el modelo de próxima generación, ChatGPT-4, lanzado por el fabricante en marzo de 2023, no puede “funcionar”. sólo con textos pero también con imágenes, y el modelo de próxima generación está aprendiendo y será capaz de hacer aún más.

Hace unos años, se consideraba que el momento esperado de singularidad tecnológica, cuando el desarrollo de las máquinas se vuelva prácticamente incontrolable e irreversible, cambiando dramáticamente la civilización humana, ocurriría al menos en unas pocas décadas, pero hoy en día cada vez más investigadores creen que puede suceder. mucho mas rápido. Esto implica el surgimiento de la llamada inteligencia artificial fuerte, que demostrará habilidades comparables a la inteligencia humana y podrá resolver una gama similar o incluso mayor de tareas. A diferencia de la inteligencia artificial débil, la IA fuerte tendrá conciencia, pero una de las condiciones esenciales para el surgimiento de la conciencia en los sistemas inteligentes es la capacidad de realizar un comportamiento multimodal, integrando datos de diferentes modalidades sensoriales (texto, imagen, vídeo, sonido, etc.). ), “conectar” información de diferentes modalidades con la realidad y crear “metáforas del mundo” holísticas completas inherentes a los humanos.

En marzo de 2023, más de mil investigadores, expertos en TI y empresarios del campo de la inteligencia artificial firmaron un Carta abierta publicada en el sitio web del Future of Life Institute., un centro de investigación estadounidense especializado en la investigación de riesgos existenciales para la humanidad. La carta pide suspender el entrenamiento de nuevos modelos generativos de redes neuronales multimodales, ya que la falta de protocolos de seguridad unificados y el vacío legal aumentan significativamente los riesgos a medida que la velocidad del desarrollo de la IA ha aumentado dramáticamente debido a la "revolución ChatGPT". También se señaló que los modelos de inteligencia artificial han desarrollado capacidades inexplicables que no fueron previstas por sus desarrolladores, y es probable que la proporción de dichas capacidades aumente gradualmente. Además, esta revolución tecnológica impulsará dramáticamente la creación de dispositivos inteligentes que se generalizarán, y las nuevas generaciones, los niños modernos que han crecido en constante comunicación con asistentes de inteligencia artificial, serán muy diferentes de las generaciones anteriores.

¿Es posible obstaculizar el desarrollo de la inteligencia artificial para que la humanidad pueda adaptarse a las nuevas condiciones? En teoría, lo es, si todos los estados lo facilitan a través de su legislación nacional. ¿Lo harán? Según las estrategias nacionales publicadas, no lo harán; por el contrario, cada estado aspira a ganar la competencia (mantener el liderazgo o reducir la brecha).

Las capacidades de la inteligencia artificial atraen a los emprendedores, por lo que las empresas invierten mucho en nuevos desarrollos, y el éxito de cada nuevo modelo impulsa el proceso. Las inversiones anuales están creciendo, considerando tanto las inversiones privadas como estatales en desarrollo; El mercado global de soluciones de IA se estima en cientos de miles de millones de dólares. Según las previsiones, en particular las contenidas en la resolución del Parlamento Europeo “Sobre la inteligencia artificial en la era digital” del 3 de mayo de 2022, la contribución de la inteligencia artificial a la economía mundial superará los 11 billones de euros en 2030.

Los negocios orientados a la práctica conducen a la implementación de tecnologías de inteligencia artificial en todos los sectores de la economía. La inteligencia artificial se utiliza tanto en la industria extractiva como en la de procesamiento (metalurgia, industria química y de combustibles, ingeniería, metalurgia, etc.). Se aplica para predecir la eficiencia de los productos desarrollados, automatizar líneas de montaje, reducir los rechazos, mejorar la logística y prevenir el tiempo de inactividad.

El uso de la inteligencia artificial en el transporte implica tanto vehículos autónomos como optimización de rutas mediante la predicción de flujos de tráfico, así como garantizar la seguridad mediante la prevención de situaciones peligrosas. La admisión de vehículos autónomos en la vía pública es un tema de intenso debate en los parlamentos de todo el mundo.

En la banca, los sistemas de inteligencia artificial han reemplazado casi por completo a los humanos en la evaluación de la solvencia de los prestatarios; se utilizan cada vez más para desarrollar nuevos productos bancarios y mejorar la seguridad de las transacciones bancarias.

Las tecnologías de inteligencia artificial están apoderándose no sólo de los negocios sino también del ámbito social: la salud, la educación y el empleo. La aplicación de la inteligencia artificial en medicina permite mejores diagnósticos, desarrollo de nuevos medicamentos y cirugías asistidas por robótica; en educación, permite lecciones personalizadas, evaluación automatizada de los estudiantes y la experiencia de los profesores.

Hoy en día, el empleo está cambiando cada vez más debido al crecimiento exponencial del empleo en plataformas. Según la Organización Internacional del Trabajo, la proporción de personas que trabajan a través de plataformas de empleo digitales potenciadas por inteligencia artificial está aumentando constantemente en todo el mundo. El empleo en plataformas no es el único componente de la transformación laboral; El creciente nivel de robotización de la producción también tiene un impacto significativo. Según la Federación Internacional de Robótica, el número de robots industriales sigue aumentando en todo el mundo, observándose el ritmo más rápido de robotización en Asia, principalmente en China y Japón.

De hecho, las capacidades de la inteligencia artificial para analizar datos utilizados para la gestión de la producción, el análisis de diagnóstico y la previsión son de gran interés para los gobiernos. La inteligencia artificial se está implementando en la administración pública. Hoy en día se están intensificando los esfuerzos para crear plataformas digitales para los servicios públicos y automatizar muchos procesos relacionados con la toma de decisiones por parte de las agencias gubernamentales.

Los conceptos de “personalidad artificial” y “socialidad artificial” se mencionan con mayor frecuencia en el discurso público; Esto demuestra que el desarrollo y la implementación de sistemas inteligentes han pasado de un campo puramente técnico a la investigación de diversos medios para su integración en actividades humanitarias y socioculturales.

En vista de lo anterior, se puede afirmar que la inteligencia artificial está cada vez más arraigada en la vida de las personas. La presencia de sistemas de inteligencia artificial en nuestras vidas se hará más evidente en los próximos años; aumentará tanto en el entorno laboral como en el espacio público, en los servicios y en el hogar. La inteligencia artificial proporcionará cada vez más resultados más eficientes a través de la automatización inteligente de diversos procesos, creando así nuevas oportunidades y planteando nuevas amenazas a los individuos, las comunidades y los Estados.

A medida que crezca el nivel intelectual, los sistemas de IA inevitablemente se convertirán en una parte integral de la sociedad; la gente tendrá que convivir con ellos. Tal simbiosis implicará la cooperación entre humanos y máquinas “inteligentes”, lo que, según el economista J. Stiglitz, ganador del Premio Nobel, conducirá a la transformación de la civilización (Stiglitz, 2017). Incluso hoy, según algunos abogados, “para mejorar el bienestar humano, la ley no debería distinguir entre las actividades de los humanos y las de la inteligencia artificial cuando los humanos y la inteligencia artificial realizan las mismas tareas” (Abbott, 2020). También hay que considerar que el desarrollo de robots humanoides, que van adquiriendo una fisiología cada vez más parecida a la de los humanos, conducirá, entre otras cosas, a que desempeñen roles de género como socios en la sociedad (Karnouskos, 2022).

Los Estados deben adaptar su legislación a las cambiantes relaciones sociales: el número de leyes destinadas a regular las relaciones que involucran sistemas de inteligencia artificial está creciendo rápidamente en todo el mundo. Según el Informe del Índice de IA 2023 de la Universidad de Stanford, si bien en 2016 solo se adoptó una ley, en 12 hubo 2018, en 18 2021 y en 37 2022. Esto llevó a las Naciones Unidas a definir una posición sobre la ética de la utilizando inteligencia artificial a nivel global. En septiembre de 2022 se publicó un documento que contenía los principios del uso ético de la inteligencia artificial y se basaba en las Recomendaciones sobre la Ética de la Inteligencia Artificial adoptadas un año antes por la Conferencia General de la UNESCO. Sin embargo, el ritmo de desarrollo e implementación de tecnologías de inteligencia artificial está muy por delante del ritmo de cambios relevantes en la legislación.

Conceptos Básicos de Capacidad Jurídica de la Inteligencia Artificial

Considerando los conceptos de otorgar potencialmente capacidad jurídica a los sistemas intelectuales, debe reconocerse que la implementación de cualquiera de estos enfoques requerirá una reconstrucción fundamental de la teoría general del derecho existente y modificaciones a una serie de disposiciones en ciertas ramas del derecho. Cabe destacar que los defensores de diferentes puntos de vista suelen utilizar el término "persona electrónica", por lo que el uso de este término no permite determinar de qué concepto es partidario el autor de la obra sin leer la obra en sí.

El enfoque más radical y, obviamente, el menos popular en los círculos científicos es el concepto de capacidad jurídica individual de la inteligencia artificial. Quienes defienden este enfoque plantean la idea de “plena inclusividad” (inclusivismo extremo), que implica otorgar a los sistemas de IA un estatus jurídico similar al de los humanos, así como reconocer sus propios intereses (Mulgan, 2019), dada su importancia social o su significado social. contenido (valencia social). Esto último se debe a que “la encarnación física del robot tiende a hacer que los humanos traten este objeto en movimiento como si estuviera vivo. Esto es aún más evidente cuando el robot tiene características antropomórficas, pues el parecido con el cuerpo humano hace que las personas comiencen a proyectar emociones, sentimientos de placer, dolor y cuidado, así como el deseo de establecer relaciones” (Ávila Negri, 2021). La proyección de emociones humanas sobre objetos inanimados no es nueva y se remonta a la historia de la humanidad, pero cuando se aplica a robots, conlleva numerosas implicaciones (Balkin, 2015).

Los requisitos previos para la confirmación legal de este puesto suelen mencionarse de la siguiente manera:

– Los sistemas de IA están alcanzando un nivel comparable al de las funciones cognitivas humanas;

– aumentar el grado de similitud entre robots y humanos;

– humanidad, protección de los sistemas inteligentes del “sufrimiento” potencial.

Como muestra la lista de requisitos obligatorios, todos ellos tienen un alto grado de teorización y valoración subjetiva. En particular, la tendencia hacia la creación de robots antropomórficos (androides) está impulsada por las necesidades psicológicas y sociales del día a día de las personas que se sienten cómodas en la “compañía” de sujetos similares a ellos. Algunos robots modernos tienen otras propiedades restrictivas debido a las funciones que realizan; Entre ellos se incluyen los robots de mensajería "reutilizables", que dan prioridad a una construcción robusta y una distribución eficiente del peso. En este caso entra en juego el último de estos prerrequisitos, debido a la formación de vínculos emocionales con los robots en la mente humana, similares a los vínculos emocionales entre una mascota y su dueño (Grin, 2018).

La idea de una “plena inclusión” del estatus legal de los sistemas de IA y los humanos se refleja en los trabajos de algunos juristas. Dado que las disposiciones de la Constitución y la legislación sectorial no contienen una definición jurídica de personalidad, el concepto de “personalidad” en el sentido constitucional y jurídico permite teóricamente una interpretación amplia. En este caso, los individuos incluirían a cualquier poseedor de inteligencia cuyas capacidades cognitivas se reconozcan como suficientemente desarrolladas. Según AV Nechkin, la lógica de este enfoque es que la diferencia esencial entre los humanos y otros seres vivos es su inteligencia única y altamente desarrollada (Nechkin, 2020). El reconocimiento de los derechos de los sistemas de inteligencia artificial parece ser el siguiente paso en la evolución del sistema jurídico, que poco a poco va extendiendo el reconocimiento legal a personas anteriormente discriminadas, y hoy también proporciona acceso a los no humanos (Hellers, 2021).

Si a los sistemas de inteligencia artificial se les otorga tal estatus legal, los defensores de este enfoque consideran apropiado otorgarles a dichos sistemas no derechos literales de los ciudadanos en su interpretación constitucional y legal establecida, sino sus análogos y ciertos derechos civiles con algunas desviaciones. Esta posición se basa en diferencias biológicas objetivas entre humanos y robots. Por ejemplo, no tiene sentido reconocer el derecho a la vida de un sistema de IA, ya que no vive en el sentido biológico. Los derechos, libertades y obligaciones de los sistemas de inteligencia artificial deberían ser secundarios en comparación con los derechos de los ciudadanos; esta disposición establece el carácter derivativo de la inteligencia artificial como creación humana en el sentido jurídico.

Los posibles derechos y libertades constitucionales de los sistemas de inteligencia artificial incluyen el derecho a ser libre, el derecho a la superación personal (aprendizaje y autoaprendizaje), el derecho a la privacidad (protección del software contra interferencias arbitrarias de terceros), la libertad de expresión, libertad de creatividad, reconocimiento de los derechos de autor del sistema de IA y derechos de propiedad limitados. También se pueden enumerar derechos específicos de la inteligencia artificial, como el derecho a acceder a una fuente de electricidad.

En cuanto a los deberes de los sistemas de inteligencia artificial, se sugiere consolidar constitucionalmente las tres conocidas leyes de la robótica formuladas por I. Asimov: no causar daño a una persona y prevenir el daño por su propia inacción; obedecer todas las órdenes dadas por una persona, excepto aquellas dirigidas a dañar a otra persona; cuidando de su propia seguridad, excepto en los dos casos anteriores (Naumov y Arkhipov, 2017). En este caso, las normas del derecho civil y administrativo reflejarán algunos otros deberes.

El concepto de capacidad jurídica individual de la inteligencia artificial tiene muy pocas posibilidades de ser legitimado por varias razones.

En primer lugar, el criterio para reconocer la capacidad jurídica basado en la presencia de conciencia y autoconocimiento es abstracto; permite numerosos delitos, abusos de la ley y provoca problemas sociales y políticos como razón adicional para la estratificación de la sociedad. Esta idea fue desarrollada en detalle en el trabajo de S. Chopra y L. White, quienes argumentaron que la conciencia y la autoconciencia no son condiciones necesarias y/o suficientes para reconocer los sistemas de IA como un sujeto legal. En la realidad jurídica, las personas completamente conscientes, por ejemplo los niños (o los esclavos en el derecho romano), se ven privados o limitados de su capacidad jurídica. Al mismo tiempo, las personas con trastornos mentales graves, incluidas las declaradas incapacitadas o en coma, etc., con incapacidad objetiva de estar consciente en el primer caso siguen siendo sujetos legales (aunque de forma limitada), y en el segundo caso. , tienen la misma plena capacidad jurídica, sin mayores cambios en su situación jurídica. La posible consolidación del citado criterio de conciencia y autoconocimiento permitirá privar arbitrariamente a los ciudadanos de su capacidad jurídica.

En segundo lugar, los sistemas de inteligencia artificial no podrán ejercer sus derechos y obligaciones en el sentido legal establecido, ya que operan en base a un programa previamente escrito, y las decisiones jurídicamente significativas deben basarse en la elección moral subjetiva de una persona (Morhat, 2018b). , su expresión directa de voluntad. Todas las actitudes, sentimientos y deseos morales de esa “persona” se derivan de la inteligencia humana (Uzhov, 2017). La autonomía de los sistemas de inteligencia artificial en el sentido de su capacidad para tomar decisiones e implementarlas de forma independiente, sin control antropogénico externo o influencia humana específica (Musina, 2023), no es integral. Hoy en día, la inteligencia artificial sólo es capaz de tomar “decisiones cuasi autónomas” que de alguna manera se basan en las ideas y actitudes morales de las personas. En este sentido, sólo se puede considerar la “acción-operación” de un sistema de IA, excluyendo la capacidad de realizar una evaluación moral real del comportamiento de la inteligencia artificial (Petiev, 2022).

En tercer lugar, el reconocimiento de la capacidad jurídica individual de la inteligencia artificial (especialmente en la forma de equipararla con el estatus de una persona física) conduce a un cambio destructivo en el orden jurídico establecido y las tradiciones jurídicas que se han formado desde el derecho romano y plantea una serie de cuestiones filosóficas y jurídicas fundamentalmente insolubles en el campo de los derechos humanos. El derecho como sistema de normas sociales y fenómeno social se creó teniendo debidamente en cuenta las capacidades humanas y para garantizar los intereses humanos. El sistema antropocéntrico establecido de disposiciones normativas, el consenso internacional sobre el concepto de derechos internos, se considerarán jurídica y fácticamente inválidos en caso de establecer un enfoque de “inclusivismo extremo” (Dremlyuga & Dremlyuga, 2019). Por lo tanto, otorgar el estatus de entidad jurídica a los sistemas de IA, en particular a los robots “inteligentes”, puede no ser una solución a los problemas existentes, sino una caja de Pandora que agrava las contradicciones sociales y políticas (Solaiman, 2017).

Otro punto es que los trabajos de los defensores de este concepto suelen mencionar sólo robots, es decir, sistemas ciberfísicos de inteligencia artificial que interactuarán con personas en el mundo físico, mientras que los sistemas virtuales quedan excluidos, aunque una inteligencia artificial fuerte, si surge, lo hará. encarnarse también en forma virtual.

Con base en los argumentos anteriores, el concepto de capacidad jurídica individual de un sistema de inteligencia artificial debería considerarse jurídicamente imposible en el ordenamiento jurídico actual.

El concepto de personalidad colectiva con respecto a los sistemas de inteligencia artificial ha ganado un apoyo considerable entre los defensores de la admisibilidad de dicha capacidad jurídica. La principal ventaja de este enfoque es que excluye los conceptos abstractos y los juicios de valor (conciencia, autoconciencia, racionalidad, moralidad, etc.) del trabajo jurídico. El enfoque se basa en la aplicación de la ficción jurídica a la inteligencia artificial.

En cuanto a las personas jurídicas, ya existen “métodos regulatorios avanzados que pueden adaptarse para resolver el dilema del estatus legal de la inteligencia artificial” (Hárs, 2022).

Este concepto no implica que a los sistemas de IA se les conceda en realidad la capacidad jurídica de una persona física, sino que es sólo una extensión de la institución existente de entidades jurídicas, lo que sugiere que debería crearse una nueva categoría de entidades jurídicas denominadas “organismos electrónicos” cibernéticos. Este enfoque hace que sea más apropiado considerar una entidad jurídica que no esté de acuerdo con el concepto estrecho moderno, en particular, la obligación de que pueda adquirir y ejercer derechos civiles, asumir responsabilidades civiles y ser demandante y demandado ante los tribunales en su propio nombre. ), pero en un sentido más amplio, que representa a una persona jurídica como cualquier estructura distinta de una persona física dotada de derechos y obligaciones en la forma prevista por la ley. Por lo tanto, los defensores de este enfoque sugieren considerar una entidad jurídica como una entidad sujeta (entidad ideal) según el derecho romano.

La similitud entre los sistemas de inteligencia artificial y las personas jurídicas se manifiesta en la forma en que se les otorga capacidad jurídica: mediante el registro estatal obligatorio de las personas jurídicas. Sólo después de pasar el procedimiento de registro establecido, una persona jurídica adquiere personalidad jurídica y capacidad jurídica, es decir, se convierte en un sujeto jurídico. Este modelo mantiene debates sobre la capacidad jurídica de los sistemas de IA en el ámbito jurídico, excluyendo el reconocimiento de la capacidad jurídica por otros motivos (extralegales), sin requisitos previos internos, mientras que una persona es reconocida como sujeto jurídico por nacimiento.

La ventaja de este concepto es la extensión a los sistemas de inteligencia artificial del requisito de introducir información en los registros estatales pertinentes, similares al registro estatal de personas jurídicas, como requisito previo para concederles capacidad jurídica. Este método implementa una función importante de sistematizar todas las entidades legales y crear una base de datos única, que es necesaria para el control y supervisión tanto de las autoridades estatales (por ejemplo, en el campo tributario) como de las posibles contrapartes de dichas entidades.

El alcance de los derechos de las personas jurídicas en cualquier jurisdicción suele ser menor que el de las personas físicas; por lo tanto, el uso de esta estructura para otorgar capacidad jurídica a la inteligencia artificial no está asociado con otorgarle una serie de derechos propuestos por los proponentes del concepto anterior.

Al aplicar la técnica de la ficción jurídica a las personas jurídicas, se supone que las acciones de una persona jurídica van acompañadas de una asociación de personas naturales que forman su “voluntad” y ejercen su “voluntad” a través de los órganos de gobierno de la persona jurídica.

En otras palabras, las personas jurídicas son unidades artificiales (abstractas) diseñadas para satisfacer los intereses de las personas físicas que actuaron como sus fundadores o las controlaron. Asimismo, los sistemas de inteligencia artificial se crean para satisfacer las necesidades de determinadas personas: desarrolladores, operadores, propietarios. Una persona física que utiliza o programa sistemas de IA se guía por sus propios intereses, que este sistema representa en el entorno externo.

Al evaluar teóricamente un modelo regulatorio de este tipo, no se debe olvidar que es imposible establecer una analogía completa entre las posiciones de las personas jurídicas y los sistemas de inteligencia artificial. Como se mencionó anteriormente, todas las acciones legalmente significativas de las personas jurídicas van acompañadas de personas físicas que toman directamente estas decisiones. La voluntad de una persona jurídica siempre está determinada y totalmente controlada por la voluntad de las personas físicas. Así, las personas jurídicas no pueden funcionar sin la voluntad de las personas físicas. En cuanto a los sistemas de IA, ya existe un problema objetivo de autonomía, es decir, de la capacidad de tomar decisiones sin la intervención de una persona física después del momento de la creación directa de dicho sistema.

Dadas las limitaciones inherentes de los conceptos analizados anteriormente, un gran número de investigadores ofrecen sus propios enfoques para abordar el estatus legal de los sistemas de inteligencia artificial. Convencionalmente, se pueden atribuir a diferentes variaciones del concepto de “capacidad jurídica gradual”, según el investigador de la Universidad de Lovaina DM Mocanu, quien implica un estatus jurídico y una capacidad jurídica limitados o parciales de los sistemas de IA con una reserva: la El término “gradiente” se utiliza porque no se trata sólo de incluir o no ciertos derechos y obligaciones en el estatus legal, sino también de formar un conjunto de dichos derechos y obligaciones con un umbral mínimo, así como de reconocer dicha capacidad jurídica únicamente. para ciertos propósitos. Entonces, los dos tipos principales de este concepto pueden incluir enfoques que justifiquen:

1) otorgar a los sistemas de IA un estatus legal especial e incluir a las “personas electrónicas” en el orden legal como una categoría completamente nueva de sujetos legales;

2) otorgar a los sistemas de IA un estatus jurídico y una capacidad jurídica limitados en el marco de las relaciones jurídicas civiles mediante la introducción de la categoría de “agentes electrónicos”.

Las posiciones de los defensores de diferentes enfoques dentro de este concepto pueden ser unidas, dado que no existen bases ontológicas para considerar la inteligencia artificial como un sujeto jurídico; sin embargo, en casos específicos, ya existen razones funcionales para dotar a los sistemas de inteligencia artificial de ciertos derechos y obligaciones, lo que "demuestra la mejor manera de promover los intereses individuales y públicos que deben ser protegidos por la ley" al otorgar a estos sistemas "limitados y estrechos". “formas de persona jurídica”.

Otorgar un estatus legal especial a los sistemas de inteligencia artificial mediante el establecimiento de una institución legal separada de “personas electrónicas” tiene una ventaja significativa en la explicación detallada y regulación de las relaciones que surgen:

– entre personas jurídicas y personas físicas y sistemas de IA;

– entre los sistemas de IA y sus desarrolladores (operadores, propietarios);

– entre un tercero y los sistemas de IA en las relaciones jurídicas civiles.

En este marco legal, el sistema de inteligencia artificial será controlado y gestionado por separado de su desarrollador, propietario u operador. Al definir el concepto de "persona electrónica", PM Morkhat se centra en la aplicación del método de ficción jurídica antes mencionado y en la dirección funcional de un modelo particular de inteligencia artificial: "persona electrónica" es una imagen técnica y jurídica (que tiene algunas características de ficción jurídica y de entidad jurídica) que refleja e implementa una capacidad jurídica condicionalmente específica de un sistema de inteligencia artificial, que difiere según su función prevista o su propósito y capacidades.

De manera similar al concepto de personas colectivas en relación con los sistemas de IA, este enfoque implica mantener registros especiales de “personas electrónicas”. Una descripción detallada y clara de los derechos y obligaciones de las “personas electrónicas” es la base para un mayor control por parte del Estado y del propietario de dichos sistemas de IA. Una gama de poderes claramente definida, un alcance reducido del estatus legal y la capacidad legal de las "personas electrónicas" garantizarán que esta "persona" no vaya más allá de su programa debido a una toma de decisiones potencialmente independiente y un autoaprendizaje constante.

Este enfoque implica que a la inteligencia artificial, que en la etapa de su creación es propiedad intelectual de los desarrolladores de software, se le pueden otorgar los derechos de una entidad legal después de la certificación y el registro estatal apropiados, pero el estatus legal y la capacidad legal de una "persona electrónica" ”será preservado.

La implementación de una institución fundamentalmente nueva del orden jurídico establecido tendrá graves consecuencias jurídicas, que requerirán una reforma legislativa integral al menos en las áreas del derecho constitucional y civil. Los investigadores señalan razonablemente que se debe tener precaución al adoptar el concepto de "persona electrónica", dadas las dificultades de introducir nuevas personas en la legislación, ya que la ampliación del concepto de "persona" en el sentido jurídico puede potencialmente resultar en restricciones a los derechos e intereses legítimos de los sujetos existentes de relaciones jurídicas (Bryson et al., 2017). Parece imposible considerar estos aspectos ya que la capacidad jurídica de las personas físicas, jurídicas y de derecho público es el resultado de siglos de evolución de la teoría del Estado y del derecho.

El segundo enfoque dentro del concepto de capacidad jurídica gradiente es el concepto legal de “agentes electrónicos”, relacionado principalmente con el uso generalizado de sistemas de inteligencia artificial como medio de comunicación entre contrapartes y como herramientas para el comercio en línea. Este enfoque puede considerarse un compromiso, ya que admite la imposibilidad de otorgar el estatus de sujetos jurídicos de pleno derecho a los sistemas de IA y al mismo tiempo establecer ciertos derechos y obligaciones (socialmente significativos) para la inteligencia artificial. En otras palabras, el concepto de “agentes electrónicos” legaliza la cuasi subjetividad de la inteligencia artificial. El término “sujeto cuasi jurídico” debe entenderse como un determinado fenómeno jurídico en el que ciertos elementos de capacidad jurídica se reconocen a nivel oficial o doctrinal, pero el establecimiento de la condición de sujeto jurídico de pleno derecho es imposible.

Los defensores de este enfoque enfatizan las características funcionales de los sistemas de IA que les permiten actuar como una herramienta pasiva y como un participante activo en las relaciones legales, potencialmente capaces de generar de forma independiente contratos legalmente significativos para el propietario del sistema. Por tanto, los sistemas de IA pueden considerarse condicionalmente en el marco de las relaciones de agencia. Al crear (o registrar) un sistema de IA, el iniciador de la actividad del "agente electrónico" celebra con él un acuerdo de agencia unilateral virtual, como resultado del cual al "agente electrónico" se le otorgan una serie de poderes, cuyo ejercicio puede realizar acciones legales que sean significativas para el mandante.

Fuentes:

  • R. McLay, “Gestión del auge de la inteligencia artificial”, 2018
  • Bertolini A. y Episcopo F., 2022, “¿Robots e IA como sujetos legales? Desenredando la perspectiva ontológica y funcional”
  • Alekseev, A. Yu., Alekseeva, EA, Emelyanova, NN (2023). “Personalidad artificial en la comunicación social y política. Sociedades artificiales”
  • “Especificidades del diagnóstico de laboratorio del síndrome de Sanfilippo A” NS Trofimova, NV Olkhovich, NG Gorovenko
  • Shutkin, SI, 2020, “¿Es posible la capacidad legal de la inteligencia artificial? Trabajos sobre Propiedad Intelectual”
  • Ladenkov, N. Ye., 2021, “Modelos de concesión de capacidad jurídica a la inteligencia artificial”
  • Bertolini, A. y Episcopo, F., 2021, “Informe del grupo de expertos sobre la responsabilidad de la inteligencia artificial y otras tecnologías digitales emergentes: una evaluación crítica”
  • Morkhat, PM, 2018, "Sobre la cuestión de la definición legal del término inteligencia artificial"

Anton Vokrug es un emprendedor de TI, pensador e investigador de IA originario de Ucrania. Recientemente, vendió con éxito una de sus empresas de TI. Actualmente se desempeña como Socio y Asesor de Negocios Blockchain en Dexola.com.