Лидеры мысли
Искусственный интеллект и юридическая личность

В данной статье рассматривается вопрос предоставления статуса субъекта права искусственному интеллекту (ИИ), особенно на основании гражданского права. Правосубъектность определяется здесь как понятие, неотъемлемое от понятия дееспособности; однако это не означает признания того, что моральная субъективность — это то же самое, что моральная личность. Юридическая идентичность — это сложный атрибут, который может быть признан для одних субъектов или присвоен другим.
Я считаю, что этот атрибут градуирован, дискретен, прерывист, многогранен и изменчив. Это означает, что он может содержать большее или меньшее количество элементов разного типа (например, обязанностей, прав, полномочий и т.п.), которые в большинстве случаев могут быть добавлены или удалены законодателем; Исключением являются права человека, которых, по общему мнению, нельзя лишить.
В настоящее время человечество переживает период социальных трансформаций, связанных со заменой одного технологического уклада другим; «умные» машины и программное обеспечение учатся довольно быстро; Системы искусственного интеллекта все чаще способны заменять людей во многих видах деятельности. Одним из вопросов, который все чаще возникает в связи с совершенствованием технологий искусственного интеллекта, является признание систем искусственного интеллекта субъектами права, поскольку они достигли уровня принятия полностью автономных решений и потенциального проявления «субъектной воли». Гипотетически этот вопрос был поднят еще в ХХ веке. В XXI веке научная дискуссия неуклонно развивается, достигая другой крайности с каждым внедрением в практику новых моделей искусственного интеллекта, таких как появление на улицах беспилотных автомобилей или представление роботов с новым набором функций. функции.
Юридический вопрос определения статуса искусственного интеллекта носит общетеоретический характер, что обусловлено объективной невозможностью предсказать все возможные результаты разработки новых моделей искусственного интеллекта. Однако системы искусственного интеллекта (ИИ-системы) уже являются реальными участниками определенных общественных отношений, что требует установления «бенчмарков», т.е. решения принципиальных вопросов в этой области с целью законодательного закрепления, а значит, снижения неопределенности в прогнозирование развития отношений с использованием систем искусственного интеллекта в будущем.
Вопрос о предполагаемой идентичности искусственного интеллекта как объекта исследования, вынесенный в заголовок статьи, конечно, не охватывает все системы искусственного интеллекта, включая множество «электронных помощников», не претендующих на роль юридических лиц. Их набор функций ограничен, и они представляют собой узкий (слабый) искусственный интеллект. Речь пойдет скорее об «умных машинах» (киберфизических интеллектуальных системах) и генеративных моделях виртуальных интеллектуальных систем, которые все больше приближаются к общему (мощному) искусственному интеллекту, сравнимому с человеческим интеллектом, а в будущем даже превосходящему его.
К 2023 году вопрос создания сильного искусственного интеллекта остро будет поставлен мультимодальными нейронными сетями, такими как ChatGPT, DALL-еи другие, интеллектуальные возможности которых совершенствуются за счет увеличения количества параметров (модальностей восприятия, в том числе недоступных человеку), а также за счет использования для обучения больших объемов данных, которые человек физически не может обработать. Например, мультимодальные генеративные модели нейронных сетей могут создавать такие изображения, литературные и научные тексты, что не всегда можно отличить, созданы ли они человеком или системой искусственного интеллекта.
ИТ-эксперты выделяют два качественных скачка: скачок скорости (частота появления совершенно новых моделей), которая теперь измеряется месяцами, а не годами, и скачок волатильности (невозможность точно предсказать, что может произойти в сфере искусственный интеллект даже к концу года). Модель ChatGPT-3 (третье поколение алгоритма обработки естественного языка от OpenAI) была представлена в 2020 году и могла обрабатывать текст, тогда как модель следующего поколения ChatGPT-4, выпущенная производителем в марте 2023 года, может «работать» не только с текстами, но и с изображениями, а модель следующего поколения учится и будет способна на еще большее.
Еще несколько лет назад ожидаемый момент технологической сингулярности, когда развитие машин станет практически неконтролируемым и необратимым, кардинально изменив человеческую цивилизацию, считался наступившим как минимум через несколько десятилетий, но в настоящее время все больше исследователей полагают, что это может произойти. намного быстрее. Это подразумевает появление так называемого сильного искусственного интеллекта, который продемонстрирует способности, сравнимые с человеческим интеллектом, и сможет решать аналогичный или даже более широкий круг задач. В отличие от слабого искусственного интеллекта, сильный ИИ будет обладать сознанием, однако одним из существенных условий возникновения сознания в интеллектуальных системах является способность осуществлять мультимодальное поведение, интегрируя данные из разных сенсорных модальностей (текст, изображение, видео, звук и т. д.). ), «связывание» информации разной модальности с реальностью и создание полных целостных «метафор мира», присущих человеку.
В марте 2023 года более тысячи исследователей, ИТ-экспертов и предпринимателей в области искусственного интеллекта подписали соглашение. открытое письмо опубликовано на сайте Института Будущего Жизни, американский исследовательский центр, специализирующийся на изучении экзистенциальных рисков для человечества. В письме содержится призыв приостановить обучение новых генеративных мультимодальных моделей нейронных сетей, поскольку отсутствие единых протоколов безопасности и правовой вакуум значительно повышают риски, поскольку скорость развития ИИ резко возросла из-за «революции ChatGPT». Также было отмечено, что модели искусственного интеллекта обладают необъяснимыми возможностями, не предусмотренными их разработчиками, и доля таких возможностей, вероятно, будет постепенно увеличиваться. Кроме того, такая технологическая революция резко подстегнет создание интеллектуальных гаджетов, которые получат широкое распространение, и новые поколения, современные дети, выросшие в постоянном общении с помощниками искусственного интеллекта, будут сильно отличаться от предыдущих поколений.
Можно ли помешать развитию искусственного интеллекта, чтобы человечество смогло адаптироваться к новым условиям? Теоретически, да, если все государства будут способствовать этому через национальное законодательство. Сделают ли они это? Судя по опубликованным национальным стратегиям, нет; напротив, каждое государство стремится выиграть в конкурентной борьбе (сохранить лидерство или сократить отставание).
Возможности искусственного интеллекта привлекают предпринимателей, поэтому компании активно инвестируют в новые разработки, и успех каждой новой модели является движущей силой этого процесса. Ежегодные инвестиции растут, учитывая как частные, так и государственные инвестиции в развитие; мировой рынок решений на основе ИИ оценивается в сотни миллиардов долларов. Согласно прогнозам, в частности, содержащимся в резолюции Европарламента «Об искусственном интеллекте в цифровую эпоху» от 3 мая 2022 года, вклад искусственного интеллекта в мировую экономику к 11 году превысит 2030 триллионов евро.
Практико-ориентированный бизнес приводит к внедрению технологий искусственного интеллекта во всех отраслях экономики. Искусственный интеллект применяется как в добывающих, так и в перерабатывающих отраслях (металлургия, топливно-химическая промышленность, машиностроение, металлообработка и др.). Он применяется для прогнозирования эффективности разрабатываемой продукции, автоматизации сборочных линий, сокращения брака, улучшения логистики и предотвращения простоев.
Использование искусственного интеллекта на транспорте предполагает как автономные транспортные средства, так и оптимизацию маршрутов путем прогнозирования транспортных потоков, а также обеспечение безопасности за счет предотвращения опасных ситуаций. Допуск беспилотных автомобилей на дороги общего пользования является предметом интенсивных дебатов в парламентах по всему миру.
В банковской сфере системы искусственного интеллекта практически полностью заменили людей при оценке кредитоспособности заемщиков; они все чаще используются для разработки новых банковских продуктов и повышения безопасности банковских транзакций.
Технологии искусственного интеллекта проникают не только в бизнес, но и в социальную сферу: здравоохранение, образование и трудоустройство. Применение искусственного интеллекта в медицине позволяет повысить качество диагностики, разрабатывать новые лекарства и проводить роботизированные операции; в образовании — проводить персонализированные уроки, автоматизировать оценку знаний учащихся и преподавателей.
Сегодня занятость все больше меняется из-за экспоненциального роста занятости на платформах. По данным Международной организации труда, доля людей, работающих через цифровые платформы трудоустройства, дополненные искусственным интеллектом, неуклонно растет во всем мире. Платформенная занятость — не единственный компонент трансформации рынка труда; Значительное влияние также оказывает растущий уровень роботизации производства. По данным Международной федерации робототехники, количество промышленных роботов продолжает расти во всем мире, причем самые быстрые темпы роботизации наблюдаются в Азии, прежде всего в Китае и Японии.
Действительно, возможности искусственного интеллекта по анализу данных, используемых для управления производством, диагностической аналитики и прогнозирования, представляют большой интерес для правительств. Искусственный интеллект внедряется в государственное управление. В настоящее время активизируются усилия по созданию цифровых платформ государственных услуг и автоматизации многих процессов, связанных с принятием решений государственными органами.
В публичном дискурсе чаще упоминаются понятия «искусственная личность» и «искусственная социальность». это свидетельствует о том, что разработка и внедрение интеллектуальных систем перешли от чисто технической области к исследованию различных способов ее интеграции в гуманитарную и социокультурную деятельность.
Учитывая вышеизложенное, можно констатировать, что искусственный интеллект всё глубже проникает в жизнь людей. В ближайшие годы присутствие систем искусственного интеллекта в нашей жизни станет ещё более заметным: оно будет расширяться как в рабочей среде, так и в общественном пространстве, в сфере услуг и дома. Искусственный интеллект будет обеспечивать всё более эффективные результаты за счёт интеллектуальной автоматизации различных процессов, создавая новые возможности и создавая новые угрозы для отдельных лиц, сообществ и государств.
По мере роста интеллектуального уровня системы искусственного интеллекта неизбежно станут неотъемлемой частью общества; людям придется с ними сосуществовать. Такой симбиоз предполагает сотрудничество человека и «умных» машин, что, по мнению нобелевского лауреата по экономике Дж. Стиглица, приведет к трансформации цивилизации (Стиглиц, 2017). Даже сегодня, по мнению некоторых юристов, «чтобы повысить благосостояние человека, закон не должен проводить различие между деятельностью человека и деятельностью искусственного интеллекта, когда люди и искусственный интеллект выполняют одни и те же задачи» (Эбботт, 2020). Следует также учитывать, что развитие роботов-гуманоидов, приобретающих физиологию все более сходную с человеческой, приведет, в том числе, к выполнению ими гендерных ролей в качестве партнеров в обществе (Карнускос, 2022).
Государствам необходимо адаптировать свое законодательство к меняющимся общественным отношениям: число законов, направленных на регулирование отношений с участием систем искусственного интеллекта, стремительно растет во всем мире. Согласно отчету Стэнфордского университета «Индекс ИИ 2023», если в 2016 году был принят всего один закон, то в 12 году их было 2018, в 18 году — 2021, а в 37 году — 2022. Это побудило Организацию Объединенных Наций определить позицию по этике использования искусственного интеллекта на глобальном уровне. В сентябре 2022 года был опубликован документ, содержащий принципы этичного использования искусственного интеллекта и основанный на Рекомендациях по этике искусственного интеллекта, принятых годом ранее Генеральной конференцией ЮНЕСКО. Однако темпы разработки и внедрения технологий искусственного интеллекта значительно опережают темпы соответствующих изменений в законодательстве.
Основные понятия о правоспособности искусственного интеллекта
Рассматривая концепции потенциального придания правоспособности интеллектуальным системам, следует признать, что реализация любого из этих подходов потребует фундаментальной реконструкции существующей общей теории права и внесения изменений в ряд положений отдельных отраслей права. Следует подчеркнуть, что сторонники разных взглядов часто используют термин «электронный человек», таким образом, использование этого термина не позволяет без прочтения самого произведения определить, сторонником какой концепции является автор произведения.
Наиболее радикальным и, очевидно, наименее популярным в научных кругах подходом является концепция индивидуальной правоспособности искусственного интеллекта. Сторонники этого подхода выдвигают идею «полной инклюзивности» (крайнего инклюзивизма), которая предполагает наделение систем ИИ правовым статусом, аналогичным статусу человека, а также признание их собственных интересов (Mulgan, 2019) с учётом их социальной значимости или социального содержания (социальной валентности). Последнее обусловлено тем, что «физическое воплощение робота склонно побуждать людей относиться к этому движущемуся объекту как к живому. Это ещё более очевидно, когда робот обладает антропоморфными характеристиками, поскольку сходство с человеческим телом побуждает людей проецировать эмоции, чувства удовольствия, боли и заботы, а также стремление к установлению отношений» (Avila Negri, 2021). Проекция человеческих эмоций на неодушевлённые предметы не нова и восходит к истории человечества, но применительно к роботам влечёт за собой многочисленные последствия (Balkin, 2015).
Предпосылками юридического подтверждения данной позиции обычно называют следующие:
– Системы искусственного интеллекта достигают уровня, сравнимого с когнитивными функциями человека;
– повышение степени сходства роботов и людей;
– гуманность, защита интеллектуальных систем от потенциальных «страданий».
Как показывает перечень обязательных требований, все они имеют высокую степень теоретизирования и субъективной оценки. В частности, тенденция к созданию антропоморфных роботов (андроидов) обусловлена повседневными психологическими и социальными потребностями людей, чувствующих себя комфортно в «компании» подобных им субъектов. Некоторые современные роботы обладают другими сжимающими свойствами в зависимости от выполняемых ими функций; К ним относятся «многоразовые» курьерские роботы, в которых приоритет отдается прочной конструкции и эффективному распределению веса. В данном случае вступает в действие последняя из этих предпосылок, обусловленная формированием в сознании человека эмоциональных связей с роботами, аналогичных эмоциональным связям между домашним животным и его хозяином (Грин, 2018).
Идея «полного включения» правового статуса систем ИИ и человека отражена в работах некоторых ученых-юристов. Поскольку положения Конституции и отраслевого законодательства не содержат юридического определения личности, понятие «личность» в конституционно-правовом смысле теоретически допускает расширительное толкование. В этом случае к индивидуумам будут относиться любые обладатели интеллекта, чьи когнитивные способности признаны достаточно развитыми. По мнению А.В. Нечкина, логика такого подхода состоит в том, что существенным отличием человека от других живых существ является их уникальный высокоразвитый интеллект (Нечкин, 2020). Признание прав систем искусственного интеллекта кажется следующим шагом в эволюции правовой системы, которая постепенно расширяет юридическое признание ранее подвергавшихся дискриминации людей, а сегодня также обеспечивает доступ к нечеловеческим существам (Hellers, 2021).
Если системам ИИ будет предоставлен такой правовой статус, то сторонники такого подхода считают целесообразным предоставить таким системам не буквальные права граждан в их устоявшейся конституционно-правовой интерпретации, а их аналоги и отдельные гражданские права с некоторыми отклонениями. Эта позиция основана на объективных биологических различиях между людьми и роботами. Например, нет смысла признавать право на жизнь за системой ИИ, поскольку она не живет в биологическом смысле. Права, свободы и обязанности систем искусственного интеллекта должны быть второстепенными по сравнению с правами граждан; данное положение устанавливает производный характер искусственного интеллекта как творения человека в юридическом смысле.
Потенциальные конституционные права и свободы систем искусственного интеллекта включают право на свободу, право на самосовершенствование (обучение и самообучение), право на неприкосновенность частной жизни (защита программного обеспечения от произвольного вмешательства третьих лиц), свободу слова, свобода творчества, признание авторских прав системы ИИ и ограниченных прав собственности. Также можно перечислить конкретные права искусственного интеллекта, например, право на доступ к источнику электроэнергии.
Что касается обязанностей систем искусственного интеллекта, то предлагается конституционно закрепить три известных закона робототехники, сформулированных И. Азимовым: Непричинение вреда человеку и предотвращение вреда собственным бездействием; подчиняться всем приказам, отдаваемым человеком, кроме тех, которые направлены на причинение вреда другому человеку; заботясь о собственной безопасности, за исключением двух предыдущих случаев (Наумов, Архипов, 2017). В этом случае нормы гражданского и административного права будут отражать некоторые иные обязанности.
Концепция индивидуальной правосубъектности искусственного интеллекта имеет очень мало шансов на легитимацию по нескольким причинам.
Во-первых, критерий признания дееспособности, основанный на наличии сознания и самосознания, является абстрактным; оно допускает многочисленные правонарушения, злоупотребления правом и провоцирует социальные и политические проблемы как дополнительную причину расслоения общества. Эта идея была подробно развита в работах С. Чопры и Л. Уайта, которые утверждали, что сознание и самосознание не являются необходимым и/или достаточным условием для признания систем ИИ субъектом права. В правовой действительности вполне сознательные личности, например дети (или рабы в римском праве), лишены или ограничены в дееспособности. При этом лица с тяжелыми психическими расстройствами, в том числе признанные недееспособными, находящимися в коме и т.п., с объективной утратой сознания в первом случае остаются субъектами права (хотя и в ограниченной форме), а во втором случае , они обладают такой же полной дееспособностью без серьезных изменений в своем правовом статусе. Потенциальное закрепление указанного критерия сознания и самосознания позволит произвольно лишать граждан дееспособности.
Во-вторых, системы искусственного интеллекта не смогут реализовывать свои права и обязанности в установленном правовом смысле, поскольку действуют на основе заранее написанной программы, а юридически значимые решения должны основываться на субъективном, моральном выборе человека (Морхат, 2018б), его непосредственном волеизъявлении. Все моральные установки, чувства и желания такого «человека» становятся производными от человеческого интеллекта (Ужов, 2017). Автономность систем искусственного интеллекта в смысле их способности самостоятельно принимать решения и реализовывать их без внешнего антропогенного контроля или целенаправленного воздействия человека (Мусина, 2023) не является исчерпывающей. В настоящее время искусственный интеллект способен принимать лишь «квазиавтономные решения», так или иначе основанные на идеях и моральных установках людей. В этой связи можно рассматривать только «действие-операцию» системы ИИ, исключая способность к реальной моральной оценке поведения искусственного интеллекта (Петиев, 2022).
В-третьих, признание индивидуальной правоспособности искусственного интеллекта (особенно в форме приравнивания его к статусу физического лица) ведёт к деструктивному изменению сложившегося правопорядка и правовых традиций, сложившихся со времён римского права, и порождает ряд принципиально неразрешимых философско-правовых проблем в сфере прав человека. Право как система социальных норм и социальное явление создано с учётом человеческих возможностей и для обеспечения их интересов. Сложившаяся антропоцентрическая система нормативных положений, международный консенсус относительно концепции внутренних прав будут признаны юридически и фактически недействительными в случае утверждения подхода «крайнего инклюзивизма» (Дремлюга и Дремлюга, 2019). Следовательно, наделение систем ИИ, в частности «умных» роботов, статусом юридического лица может стать не решением существующих проблем, а ящиком Пандоры, обостряющим социальные и политические противоречия (Солайман, 2017).
Другой момент заключается в том, что в работах сторонников этой концепции обычно упоминаются только роботы, т.е. киберфизические системы искусственного интеллекта, которые будут взаимодействовать с людьми в физическом мире, тогда как виртуальные системы исключаются, хотя сильный искусственный интеллект, если он появится, будет воплотиться и в виртуальной форме.
На основании изложенных доводов концепцию индивидуальной правосубъектности системы искусственного интеллекта следует признать юридически невозможной в рамках действующего правопорядка.
Концепция коллективной личности применительно к системам искусственного интеллекта получила значительную поддержку среди сторонников допустимости такой правоспособности. Основное преимущество этого подхода состоит в том, что он исключает из юридической деятельности абстрактные понятия и оценочные суждения (сознание, самосознание, рациональность, мораль и т.п.). Подход основан на применении юридической фикции к искусственному интеллекту.
Что касается юридических лиц, то уже существуют «передовые методы регулирования, которые можно адаптировать для решения дилеммы правового статуса искусственного интеллекта» (Hárs, 2022).
Эта концепция не подразумевает, что системам ИИ фактически предоставляется правоспособность физического лица, а является лишь расширением существующего института юридических лиц, что предполагает создание новой категории юридических лиц, называемых кибернетическими «электронными организмами». Такой подход делает более целесообразным рассматривать юридическое лицо не в соответствии с современным узким понятием, в частности, с обязанностью приобретать и осуществлять гражданские права, нести гражданские обязанности, быть истцом и ответчиком в суде от своего имени. ), а в более широком смысле, который представляет собой юридическое лицо как любую структуру, отличную от физического лица, наделенную правами и обязанностями в предусмотренной законом форме. Таким образом, сторонники этого подхода предлагают рассматривать юридическое лицо как субъектную единицу (идеальную сущность) римского права.
Сходство систем искусственного интеллекта и юридических лиц проявляется в способе наделения их правоспособностью – через обязательную государственную регистрацию юридических лиц. Лишь после прохождения установленной процедуры регистрации юридическое лицо наделяется правовым статусом и правоспособностью, т. е. становится субъектом права. Данная модель сохраняет дискуссии о правоспособности систем ИИ в правовом поле, исключая признание правосубъектности по иным (внеправовым) основаниям, без внутренних предпосылок, при этом человек признается субъектом права по рождению.
Преимуществом данной концепции является распространение на системы искусственного интеллекта требования о внесении информации в соответствующие государственные реестры, аналогичные государственному реестру юридических лиц, как обязательного условия наделения их правоспособностью. Этот метод реализует важную функцию систематизации всех юридических лиц и создания единой базы данных, которая необходима как органам государственного контроля и надзора (например, в сфере налогообложения), так и потенциальным контрагентам таких субъектов.
Объем прав юридических лиц в любой юрисдикции обычно меньше, чем у физических лиц; поэтому использование этой конструкции для наделения искусственного интеллекта правоспособностью не связано с предоставлением ему ряда прав, предложенных сторонниками предыдущей концепции.
При применении метода юридической фикции к юридическим лицам предполагается, что действия юридического лица сопровождаются объединением физических лиц, которые формируют свою «волю» и осуществляют свою «волю» через органы управления юридического лица.
Иными словами, юридические лица — это искусственные (абстрактные) единицы, призванные удовлетворять интересы физических лиц, выступавших их учредителями или контролировавших их. Аналогично, системы искусственного интеллекта создаются для удовлетворения потребностей отдельных лиц – разработчиков, операторов, владельцев. Физическое лицо, использующее или программирующее системы искусственного интеллекта, руководствуется собственными интересами, которые эта система представляет во внешней среде.
Оценивая такую модель регулирования в теории, не следует забывать, что полная аналогия между позициями юридических лиц и системами ИИ невозможна. Как уже говорилось выше, все юридически значимые действия юридических лиц сопровождаются физическими лицами, которые непосредственно принимают эти решения. Воля юридического лица всегда определяется и полностью контролируется волей физических лиц. Таким образом, юридические лица не могут действовать без воли физических лиц. Что касается систем ИИ, то здесь уже существует объективная проблема их автономности, т.е. способности принимать решения без вмешательства физического лица после момента непосредственного создания такой системы.
Учитывая внутреннюю ограниченность рассмотренных выше концепций, большое количество исследователей предлагают свои подходы к решению правового статуса систем искусственного интеллекта. Условно их можно отнести к различным вариациям понятия «градиентная правоспособность», по мнению исследователя из Левенского университета Д.М. Мокану, который подразумевает ограниченный или частичный правовой статус и правоспособность систем ИИ с оговоркой: Термин «градиент» используется потому, что речь идет не только о включении или исключении определенных прав и обязанностей в правовой статус, но и о формировании совокупности таких прав и обязанностей с минимальным порогом, а также о признании только такой правоспособности. для определенных целей. Тогда к двум основным типам этой концепции можно отнести подходы, обосновывающие:
1) придание системам ИИ особого правового статуса и включение в правопорядок «электронных лиц» как совершенно новой категории субъектов права;
2) наделение систем искусственного интеллекта ограниченным правовым статусом и правоспособностью в рамках гражданских правоотношений посредством введения категории «электронные агенты».
Позиции сторонников разных подходов в рамках этой концепции могут быть едины, учитывая отсутствие онтологических оснований рассматривать искусственный интеллект как субъект права; однако в конкретных случаях уже существуют функциональные причины наделять системы искусственного интеллекта определенными правами и обязанностями, что «оказывается лучшим способом продвижения индивидуальных и общественных интересов, которые должны быть защищены законом», путем предоставления этим системам «ограниченных и узких возможностей». «формы юридического лица».
Придание особого правового статуса системам искусственного интеллекта путем создания отдельного правового института «электронных лиц» имеет существенное преимущество в детальном разъяснении и регулировании возникающих отношений:
– между юридическими и физическими лицами и системами ИИ;
– между системами ИИ и их разработчиками (операторами, владельцами);
– между третьим лицом и системами ИИ в гражданских правоотношениях.
В этой правовой базе система искусственного интеллекта будет контролироваться и управляться отдельно от ее разработчика, владельца или оператора. Определяя понятие «электронный человек», П.М. Морхат акцентирует внимание на применении упомянутого выше метода юридической фикции и функциональной направленности конкретной модели искусственного интеллекта: «электронный человек» — это технико-правовой образ (который имеет некоторые черты юридической фикции, как и юридического лица), что отражает и реализует условно-специфическую правоспособность системы искусственного интеллекта, которая различается в зависимости от ее предполагаемой функции или назначения и возможностей.
Подобно концепции коллективных лиц применительно к системам ИИ, этот подход предполагает ведение специальных реестров «электронных лиц». Подробное и четкое описание прав и обязанностей «электронных лиц» является основой дальнейшего контроля со стороны государства и владельца таких систем ИИ. Четко определенный круг полномочий, суженный объем правового статуса и дееспособность «электронных лиц» будут гарантировать, что это «лицо» не выйдет за рамки своей программы за счет потенциально самостоятельного принятия решений и постоянного самообучения.
Такой подход подразумевает, что искусственному интеллекту, который на этапе своего создания является интеллектуальной собственностью разработчиков программного обеспечения, могут быть предоставлены права юридического лица после соответствующей сертификации и государственной регистрации, но правовой статус и дееспособность «электронного лица» » будет сохранен.
Внедрение принципиально нового института сложившегося правопорядка будет иметь серьезные правовые последствия, требующие комплексной законодательной реформы, по крайней мере, в области конституционного и гражданского права. Исследователи резонно отмечают, что при принятии понятия «электронное лицо» следует проявлять осторожность, учитывая трудности введения новых лиц в законодательство, поскольку расширение понятия «лицо» в юридическом смысле потенциально может повлечь за собой ограничения права и законные интересы существующих субъектов правоотношений (Брайсон и др., 2017). Учитывать эти аспекты представляется невозможным, поскольку правоспособность физических, юридических лиц и субъектов публичного права является результатом многовековой эволюции теории государства и права.
Второй подход в рамках концепции градиентной дееспособности — правовая концепция «электронных агентов», связанная, прежде всего, с широким использованием систем искусственного интеллекта как средства коммуникации между контрагентами и как инструментов онлайн-торговли. Такой подход можно назвать компромиссным, поскольку он допускает невозможность предоставления статуса полноценных правосубъектов системам ИИ при установлении определенных (социально значимых) прав и обязанностей для искусственного интеллекта. Другими словами, концепция «электронных агентов» узаконивает квазисубъектность искусственного интеллекта. Под термином «квазиправосубъект» следует понимать определенное правовое явление, при котором определенные элементы правосубъектности признаются на официальном или доктринальном уровне, но установление статуса полноценного субъекта права невозможно.
Сторонники этого подхода подчеркивают функциональные особенности систем ИИ, которые позволяют им выступать как пассивным инструментом, так и активным участником правоотношений, потенциально способным самостоятельно генерировать юридически значимые контракты для владельца системы. Поэтому системы ИИ можно условно рассматривать в рамках агентских отношений. При создании (или регистрации) системы ИИ инициатор деятельности «электронного агента» заключает с ней виртуальный односторонний агентский договор, в результате которого «электронному агенту» предоставляется ряд полномочий, реализуя которые он может совершать юридические действия, имеющие значение для доверителя.
источники:
- Р. Маклей, «Управление развитием искусственного интеллекта», 2018 г.
- Бертолини А. и Епископо Ф., 2022 г., «Роботы и искусственный интеллект как субъекты права? Распутывание онтологической и функциональной точки зрения»
- Алексеев А. Ю., Алексеева Е. А., Емельянова Н. Н. (2023). «Искусственная личность в общественно-политической коммуникации. Искусственные общества»
- «Особенности лабораторной диагностики синдрома Санфилиппо А» Н.С. Трофимова, Н.В. Ольхович, Н.Г. Горовенко
- Шуткин С.И., 2020, «Возможна ли правоспособность искусственного интеллекта? Работы по интеллектуальной собственности»
- Ладенков Н. Е., 2021, «Модели наделения дееспособностью искусственного интеллекта»
- Бертолини, А. и Эпископо, Ф., 2021, «Доклад экспертной группы об ответственности за искусственный интеллект и другие новые цифровые технологии: критическая оценка»
- Морхат, ПМ, 2018, «К вопросу о правовом определении термина искусственный интеллект»






