בדל בינה מלאכותית וזהות משפטית - Unite.AI
צור קשר

מנהיגי מחשבה

בינה מלאכותית וזהות משפטית

mm

יצא לאור

 on

מאמר זה מתמקד בסוגיית הענקת מעמד של נושא משפטי לבינה מלאכותית (AI), במיוחד בהתבסס על המשפט האזרחי. זהות משפטית מוגדרת כאן כמושג אינטגרלי ממונח הכשירות המשפטית; עם זאת, אין זה אומר לקבל את העובדה שהסובייקטיביות המוסרית זהה לאישיות המוסרית. זהות משפטית היא תכונה מורכבת שניתן לזהות עבור נושאים מסוימים או להקצותה לאחרים.

אני מאמין שהתכונה הזו מדורגת, בדידה, בלתי רציפה, רבת פנים וניתנת לשינוי. המשמעות היא שהוא יכול להכיל פחות או יותר אלמנטים מסוגים שונים (למשל, חובות, זכויות, מיומנויות וכו'), שברוב המקרים ניתן להוסיף או להסיר על ידי המחוקק; זכויות אדם, שלפי הדעה הרווחת לא ניתן לשלול, הן היוצאות מן הכלל.

בימינו, האנושות עומדת בפני תקופה של טרנספורמציה חברתית הקשורה להחלפת מצב טכנולוגי אחד באחר; מכונות ותוכנות "חכמות" לומדים די מהר; מערכות בינה מלאכותית מסוגלות יותר ויותר להחליף אנשים בפעילויות רבות. אחת הסוגיות המתעוררות יותר ויותר עקב שיפור טכנולוגיות הבינה המלאכותית היא ההכרה במערכות אינטליגנטיות מלאכותיות כסובייקטים משפטיים, שכן הן הגיעו לרמה של קבלת החלטות אוטונומיות לחלוטין ועלולות להביע "רצון סובייקטיבי". סוגיה זו הועלתה באופן היפותטי במאה ה-20. במאה ה-21, הוויכוח המדעי מתפתח בהתמדה, ומגיע לקיצוניות השנייה עם כל הצגת מודלים חדשים של בינה מלאכותית הלכה למעשה, כמו הופעת מכוניות נוהגות בעצמן ברחובות או הצגת רובוטים עם סט חדש של פונקציות.

הסוגיה המשפטית של קביעת מעמדה של בינה מלאכותית היא בעלת אופי תיאורטי כללי, אשר נגרמת בשל חוסר האפשרות האובייקטיבית לחזות את כל התוצאות האפשריות של פיתוח מודלים חדשים של בינה מלאכותית. עם זאת, מערכות בינה מלאכותית (מערכות AI) הן כבר משתתפים ממשיים ביחסים חברתיים מסוימים, מה שמצריך הקמת "אמות מידה", כלומר פתרון של סוגיות יסוד בתחום זה לצורך איחוד חקיקה, ובכך, הפחתת אי הוודאות חיזוי התפתחות של יחסים הכוללים מערכות בינה מלאכותית בעתיד.

סוגיית זהותה לכאורה של הבינה המלאכותית כמושא מחקר, המוזכרת בכותרת המאמר, בוודאי אינה מכסה את כל מערכות הבינה המלאכותית, לרבות "עוזרים אלקטרוניים" רבים שאינם מתיימרים להיות ישויות משפטיות. מערך הפונקציות שלהם מוגבל, והם מייצגים בינה מלאכותית צרה (חלשה). נתייחס דווקא ל"מכונות חכמות" (מערכות אינטליגנטיות סייבר-פיזיות) ולמודלים מחוללים של מערכות אינטליגנטיות וירטואליות, שמתקרבות יותר ויותר לבינה מלאכותית כללית (עוצמתית) הדומה לאינטליגנציה אנושית ובעתיד אף חורגת ממנה.

עד 2023, הנושא של יצירת בינה מלאכותית חזקה הועלה בדחיפות על ידי רשתות עצביות מולטי-מודאליות כגון ChatGPT, DALL-e, ואחרים, שהיכולות האינטלקטואליות שלהם משתפרות על ידי הגדלת מספר הפרמטרים (אופני תפיסה, כולל אלה שאינם נגישים לבני אדם), וכן על ידי שימוש בכמויות גדולות של נתונים לאימון שבני אדם אינם יכולים לעבד פיזית. לדוגמה, מודלים גנרטיביים מולטי-מודאליים של רשתות עצביות יכולים לייצר דימויים, טקסטים ספרותיים ומדעיים כאלה שלא תמיד ניתן להבחין אם הם נוצרו על ידי מערכת אנושית או מערכת בינה מלאכותית.

מומחי IT מדגישים שני זינוקים איכותיים: קפיצת מהירות (תדירות הופעתם של דגמים חדשים לגמרי), הנמדדת כעת בחודשים ולא בשנים, וקפיצת תנודתיות (חוסר היכולת לחזות במדויק מה עלול לקרות בתחום של בינה מלאכותית אפילו עד סוף השנה). דגם ChatGPT-3 (הדור השלישי של אלגוריתם עיבוד השפה הטבעית מבית OpenAI) הוצג ב-2020 ויכול לעבד טקסט, בעוד שדגם הדור הבא, ChatGPT-4, שהושק על ידי היצרן במרץ 2023, לא יכול "לעבוד" רק עם טקסטים אבל גם עם תמונות, והמודל של הדור הבא לומד ויהיה מסוגל אפילו יותר.

לפני כמה שנים, הרגע הצפוי של הייחודיות הטכנולוגית, שבו התפתחות המכונות הופכת כמעט בלתי נשלטת ובלתי הפיכה, המשתנה באופן דרמטי את הציוויליזציה האנושית, נחשב להתרחש לפחות בעוד כמה עשורים, אבל כיום יותר ויותר חוקרים מאמינים שזה יכול לקרות הרבה יותר מהר. זה מרמז על הופעתה של מה שנקרא בינה מלאכותית חזקה, שתפגין יכולות דומות לאינטליגנציה האנושית ותהיה מסוגלת לפתור מגוון דומה או אפילו רחב יותר של משימות. בניגוד לבינה מלאכותית חלשה, לבינה מלאכותית חזקה תהיה תודעה, אך אחד התנאים החיוניים להופעת התודעה במערכות אינטליגנטיות הוא היכולת לבצע התנהגות מולטי-מודאלית, תוך שילוב נתונים משיטות חושיות שונות (טקסט, תמונה, וידאו, קול וכו'. ), "חיבור" מידע של אופנים שונים למציאות, ויצירת "מטפורות עולם" הוליסטיות שלמות הטבועות בבני אדם.

במרץ 2023, יותר מאלף חוקרים, מומחי IT ויזמים בתחום הבינה המלאכותית חתמו על מכתב פתוח שפורסם באתר מכון עתיד החיים, מרכז מחקר אמריקאי המתמחה בחקירת סיכונים קיומיים לאנושות. המכתב קורא להשהות את ההכשרה של מודלים חדשים של רשתות עצביות רב-מודאליות, שכן היעדר פרוטוקולי אבטחה מאוחדים וריק משפטי מגבירים באופן משמעותי את הסיכונים מכיוון שמהירות פיתוח הבינה המלאכותית עלתה באופן דרמטי עקב "מהפכת ChatGPT". כמו כן, צוין כי מודלים של בינה מלאכותית פיתחו יכולות בלתי מוסברות שלא התכוונו למפתחיהם, וחלקן של יכולות כאלה עשוי לגדול בהדרגה. בנוסף, מהפכה טכנולוגית כזו מגבירה באופן דרמטי את יצירתם של גאדג'טים אינטליגנטיים שיהפכו לתפוצה רחבה, ודורות חדשים, ילדים מודרניים שגדלו בתקשורת מתמדת עם עוזרי בינה מלאכותית, יהיו שונים מאוד מהדורות הקודמים.

האם ניתן לעכב את התפתחות הבינה המלאכותית כדי שהאנושות תוכל להסתגל לתנאים חדשים? בתיאוריה, זה כך, אם כל המדינות יאפשרו זאת באמצעות חקיקה לאומית. האם הם יעשו זאת? בהתבסס על האסטרטגיות הלאומיות שפורסמו, הם לא יעשו זאת; להיפך, כל מדינה שואפת לנצח בתחרות (לשמור על מנהיגות או לצמצם את הפער).

היכולות של בינה מלאכותית מושכות יזמים, ולכן עסקים משקיעים רבות בפיתוחים חדשים, כאשר ההצלחה של כל מודל חדש מניעה את התהליך. ההשקעות השנתיות גדלות, בהתחשב בהשקעות פרטיות וממשלתיות בפיתוח; השוק העולמי לפתרונות בינה מלאכותית מוערך במאות מיליארדי דולרים. על פי התחזיות, במיוחד אלו הכלולות בהחלטת הפרלמנט האירופי "על בינה מלאכותית בעידן הדיגיטלי" מיום 3 במאי 2022, תרומת הבינה המלאכותית לכלכלה העולמית תעלה על 11 טריליון יורו עד 2030.

עסקים מוכווני פרקטיקה מובילים ליישום טכנולוגיות בינה מלאכותית בכל מגזרי המשק. בינה מלאכותית משמשת הן בתעשיות המיצוי והן בתעשיות העיבוד (מתכות, דלק ותעשייה כימית, הנדסה, עיבוד מתכת וכו'). זה מיושם כדי לחזות את היעילות של מוצרים שפותחו, להפוך קווי ייצור לאוטומטיים, לצמצם דחיות, לשפר את הלוגיסטיקה ולמנוע זמן השבתה.

השימוש בבינה מלאכותית בתחבורה כרוך הן בכלי רכב אוטונומיים והן באופטימיזציה של מסלול על ידי חיזוי זרימות תנועה, וכן הבטחת בטיחות באמצעות מניעת מצבים מסוכנים. קבלת מכוניות בנהיגה עצמית לכבישים ציבוריים היא נושא לוויכוח אינטנסיבי בפרלמנטים ברחבי העולם.

בבנקאות, מערכות בינה מלאכותית החליפו כמעט לחלוטין את בני האדם בהערכת כושר האשראי של הלווים; הם משמשים יותר ויותר לפיתוח מוצרים בנקאיים חדשים ולשיפור האבטחה של עסקאות בנקאיות.

טכנולוגיות בינה מלאכותית משתלטות לא רק על העסקים אלא גם על התחום החברתי: שירותי בריאות, חינוך ותעסוקה. יישום הבינה המלאכותית ברפואה מאפשר אבחון טוב יותר, פיתוח תרופות חדשות וניתוחים בעזרת רובוטיקה; בחינוך, הוא מאפשר שיעורים מותאמים אישית, הערכה אוטומטית של התלמידים ומומחיות המורים.

כיום, התעסוקה משתנה יותר ויותר בגלל הגידול האקספוננציאלי של תעסוקת הפלטפורמות. לפי ארגון העבודה הבינלאומי, חלקם של האנשים העובדים באמצעות פלטפורמות תעסוקה דיגיטליות המוגברות על ידי בינה מלאכותית גדל בהתמדה ברחבי העולם. העסקת פלטפורמה אינה המרכיב היחיד בשינוי העבודה; גם לרמת הרובוטיזציה הגוברת של הייצור יש השפעה משמעותית. לפי הפדרציה הבינלאומית לרובוטיקה, מספר הרובוטים התעשייתיים ממשיך לעלות ברחבי העולם, כאשר קצב הרובוטיזציה המהיר ביותר נצפה באסיה, בעיקר בסין וביפן.

אכן, היכולות של בינה מלאכותית לנתח נתונים המשמשים לניהול ייצור, ניתוח אבחון וחיזוי מעניינות מאוד ממשלות. בינה מלאכותית מיושמת במינהל הציבורי. כיום, מתגברים המאמצים ליצור פלטפורמות דיגיטליות לשירותים ציבוריים ולהפוך לאוטומציה של תהליכים רבים הקשורים בקבלת החלטות על ידי רשויות ממשלתיות.

המושגים "אישיות מלאכותית" ו"חברתיות מלאכותית" מוזכרים לעתים קרובות יותר בשיח הציבורי; זה מוכיח שהפיתוח והיישום של מערכות חכמות עברו מתחום טכני גרידא למחקר של אמצעים שונים לשילובם בפעילויות הומניטריות וחברתיות-תרבותיות.

לאור האמור לעיל, ניתן לקבוע כי בינה מלאכותית הולכת ונעשית עמוקה יותר ויותר בחייהם של אנשים. נוכחותן של מערכות בינה מלאכותית בחיינו תתברר יותר בשנים הקרובות; היא תגדל הן בסביבת העבודה והן במרחב הציבורי, בשירותים ובבית. בינה מלאכותית תספק יותר ויותר תוצאות יעילות יותר באמצעות אוטומציה חכמה של תהליכים שונים, ובכך תיצור הזדמנויות חדשות ותציב איומים חדשים על יחידים, קהילות ומדינות.

ככל שהרמה האינטלקטואלית תגדל, מערכות בינה מלאכותית יהפכו בהכרח לחלק בלתי נפרד מהחברה; אנשים יצטרכו להתקיים איתם יחד. סימביוזה כזו תהיה כרוכה בשיתוף פעולה בין בני אדם ומכונות "חכמות", שלפי הכלכלן זוכה פרס נובל ג'יי שטיגליץ, יוביל לשינוי של הציוויליזציה (סטיגליץ, 2017). גם היום, לטענת כמה עורכי דין, "כדי לשפר את רווחת האדם, החוק לא צריך להבחין בין פעילויות של בני אדם לאלו של בינה מלאכותית כאשר בני אדם ובינה מלאכותית מבצעים את אותן משימות" (Abbott, 2020). כמו כן, יש לקחת בחשבון שפיתוח רובוטים דמויי אדם, אשר רוכשים פיזיולוגיה דומה יותר ויותר לזו של בני אדם, יוביל, בין היתר, לביצוע תפקידים מגדריים כשותפים בחברה (Karnouskos, 2022).

מדינות חייבות להתאים את החקיקה שלהן ליחסים חברתיים משתנים: מספר החוקים שמטרתם להסדיר יחסים הכוללים מערכות בינה מלאכותית גדל במהירות ברחבי העולם. על פי דו"ח AI Index 2023 של אוניברסיטת סטנפורד, בעוד שרק חוק אחד אומץ ב-2016, היו 12 מהם ב-2018, 18 - ב-2021 ו-37 - ב-2022. זה גרם לאומות המאוחדות להגדיר עמדה לגבי האתיקה של שימוש בבינה מלאכותית ברמה הגלובלית. בספטמבר 2022 פורסם מסמך שהכיל את עקרונות השימוש האתי בבינה מלאכותית והתבסס על ההמלצות על האתיקה של בינה מלאכותית שאומצה שנה קודם לכן על ידי הוועידה הכללית של אונסק"ו. עם זאת, קצב הפיתוח והיישום של טכנולוגיות בינה מלאכותית מקדים בהרבה את קצב השינויים הרלוונטיים בחקיקה.

מושגי יסוד של יכולת משפטית של בינה מלאכותית

בהתחשב במושגים של הענקת יכולת משפטית פוטנציאלית למערכות אינטלקטואליות, יש להכיר בכך שיישום כל אחת מהגישות הללו ידרוש שחזור יסודי של תורת המשפט הכללית הקיימת ותיקונים למספר הוראות בענפי משפט מסוימים. יש להדגיש כי תומכי דעות שונות מרבים להשתמש במונח "אדם אלקטרוני", לפיכך, השימוש במונח זה אינו מאפשר לקבוע באיזה מושג תומך מחבר היצירה מבלי לקרוא את היצירה עצמה.

הגישה הרדיקלית ביותר, וכמובן, הפחות פופולרית בחוגים מדעיים היא הרעיון של היכולת המשפטית האינדיבידואלית של בינה מלאכותית. תומכי גישה זו הציגו את הרעיון של "הכלה מלאה" (אינקלוסיזם קיצוני), אשר מרמז על הענקת מערכות בינה מלאכותית מעמד חוקי דומה לזה של בני אדם, כמו גם הכרה באינטרסים שלהם (Mulgan, 2019), בהתחשב במשמעותן החברתית או החברתית. תוכן (ערכיות חברתית). זה האחרון נגרם מהעובדה ש"ההתגלמות הפיזית של הרובוט נוטה לגרום לבני אדם להתייחס לחפץ הנע הזה כאילו הוא חי. זה בולט עוד יותר כאשר לרובוט יש מאפיינים אנתרופומורפיים, שכן הדמיון לגוף האדם גורם לאנשים להתחיל להקרין רגשות, תחושות של הנאה, כאב ואכפתיות, כמו גם את הרצון ליצור מערכות יחסים" (Avila Negri, 2021). ההשלכה של רגשות אנושיים על עצמים דוממים אינה חדשה, החל מההיסטוריה האנושית, אך כאשר היא מיושמת על רובוטים, היא טומנת בחובה השלכות רבות (Balkin, 2015).

התנאים המוקדמים לאישור משפטי של עמדה זו מוזכרים בדרך כלל כדלקמן:

- מערכות בינה מלאכותית מגיעות לרמה הדומה לתפקודים קוגניטיביים אנושיים;

- הגדלת מידת הדמיון בין רובוטים לבני אדם;

– אנושיות, הגנה על מערכות אינטליגנטיות מפני "סבל" פוטנציאלי.

כפי שמראה רשימת דרישות החובה, לכולן יש רמה גבוהה של תיאוריה והערכה סובייקטיבית. בפרט, המגמה ליצירת רובוטים אנתרופומורפיים (אנדרואידים) מונעת מהצרכים הפסיכולוגיים והחברתיים היום-יומיים של אנשים שמרגישים בנוח ב"חברה" של נושאים דומים להם. לחלק מהרובוטים המודרניים יש תכונות מכווצות אחרות בשל הפונקציות שהם מבצעים; אלה כוללים רובוטי שליחים "ניתנים לשימוש חוזר", אשר שמים עדיפות לבנייה חזקה וחלוקת משקל יעילה. במקרה זה, אחרון התנאים המוקדמים הללו נכנס לתמונה, עקב היווצרות קשרים רגשיים עם רובוטים במוח האנושי, בדומה לקשרים הרגשיים בין חיית מחמד לבעליה (Grin, 2018).

הרעיון של "הכללה מלאה" של המעמד המשפטי של מערכות בינה מלאכותית ושל בני אדם בא לידי ביטוי בעבודותיהם של כמה חוקרים משפטיים. מאחר והוראות החוקה והחקיקה המגזרית אינן מכילות הגדרה משפטית של אישיות, המושג "אישיות" במובן החוקתי והמשפטי מאפשר באופן תיאורטי פרשנות מרחיבה. במקרה זה, אנשים יכללו כל בעלי אינטליגנציה שהיכולות הקוגניטיביות שלהם מוכרות כמפותחות מספיק. לפי AV Nechkin, ההיגיון של גישה זו הוא שההבדל המהותי בין בני אדם ויצורים חיים אחרים הוא האינטליגנציה הייחודית המפותחת שלהם (Nechkin, 2020). נראה כי הכרה בזכויות של מערכות בינה מלאכותית היא הצעד הבא באבולוציה של מערכת המשפט, אשר מרחיבה בהדרגה את ההכרה המשפטית לאנשים שהופלו בעבר לרעה, וכיום מספקת גישה גם למי שאינם בני אדם (Hellers, 2021).

אם מערכות בינה מלאכותיות זוכות למעמד משפטי כזה, תומכי גישה זו רואים לנכון להעניק למערכות כאלה לא זכויות מילוליות של אזרחים בפרשנות החוקתית והמשפטית הקבועה שלהן, אלא האנלוגיות שלהן וזכויות אזרח מסוימות עם כמה סטיות. עמדה זו מבוססת על הבדלים ביולוגיים אובייקטיביים בין בני אדם לרובוטים. למשל, אין זה הגיוני להכיר בזכות לחיים עבור מערכת בינה מלאכותית, מכיוון שהיא אינה חיה במובן הביולוגי. הזכויות, החירויות והחובות של מערכות בינה מלאכותית צריכות להיות משניות בהשוואה לזכויות האזרחים; הוראה זו מבססת את אופייה הנגזר של בינה מלאכותית כיצור אנושי במובן המשפטי.

זכויות חוקתיות וחירויות פוטנציאליות של מערכות אינטליגנטיות מלאכותיות כוללות את הזכות להיות חופשית, הזכות לשיפור עצמי (למידה ולמידה עצמית), הזכות לפרטיות (הגנה על תוכנה מפני התערבות שרירותית של צדדים שלישיים), חופש הביטוי, חופש יצירתיות, הכרה בזכויות יוצרים של מערכת AI וזכויות קניין מוגבלות. ניתן לפרט גם זכויות ספציפיות של בינה מלאכותית, כמו הזכות לגישה למקור חשמל.

באשר לחובותיהן של מערכות בינה מלאכותית, מוצע כי שלושת חוקי הרובוטיקה הידועים שניסחו על ידי I. Asimov צריכים להתגבש באופן חוקתי: אי פגיעה באדם ומניעת נזק מחוסר מעש משלהם; ציות לכל פקודות שנתן אדם, למעט אלה שמטרתן לפגוע באדם אחר; דואגים לבטיחותם, למעט שני המקרים הקודמים (נאומוב וארכיפוב, 2017). במקרה זה, כללי המשפט האזרחי והמנהלי ישקפו כמה חובות אחרות.

למושג הכשירות המשפטית האינדיבידואלית של בינה מלאכותית יש סיכוי קטן מאוד לקבל לגיטימציה מכמה סיבות.

ראשית, הקריטריון להכרה בכשירות משפטית המבוססת על נוכחות של תודעה ומודעות עצמית הוא מופשט; היא מאפשרת עבירות רבות, שימוש לרעה בחוק ומעוררת בעיות חברתיות ופוליטיות כסיבה נוספת לריבוד של החברה. רעיון זה פותח בפירוט בעבודתם של ס. צ'ופרה ול. ווייט, שטענו כי תודעה ומודעות עצמית אינן הכרחי ו/או תנאי מספיק להכרה במערכות בינה מלאכותית כנושא משפטי. במציאות המשפטית, אנשים בעלי הכרה מלאה, למשל ילדים (או עבדים במשפט הרומי), מקופחים או מוגבלים בכשירותם המשפטית. יחד עם זאת, אנשים הסובלים מהפרעות נפשיות קשות, לרבות אלו שהוכרזו חסרי יכולת או בתרדמת וכדומה, עם חוסר יכולת אובייקטיבית להיות בהכרה במקרה הראשון נשארים נושאים משפטיים (אם כי בצורה מוגבלת), ובמקרה השני. , יש להם את אותה כשירות משפטית מלאה, ללא שינויים גדולים במעמדם המשפטי. הגיבוש הפוטנציאלי של הקריטריון שהוזכר של תודעה ומודעות עצמית יאפשר לשלול באופן שרירותי מאזרחים את הכשירות המשפטית.

שנית, מערכות בינה מלאכותית לא יוכלו לממש את זכויותיהן וחובותיהן במובן המשפטי הקבוע, שכן הן פועלות על סמך תוכנית שנכתבה בעבר, והחלטות משמעותיות מבחינה משפטית צריכות להתבסס על בחירתו הסובייקטיבית והמוסרית של אדם (מורהט, 2018ב). , הבעת הרצון הישירה שלהם. כל הגישות, הרגשות והרצונות המוסריים של "אדם" כזה הופכים להיות נגזרים מהאינטליגנציה האנושית (Uzhov, 2017). האוטונומיה של מערכות בינה מלאכותית במובן של יכולתן לקבל החלטות וליישם אותן באופן עצמאי, ללא שליטה אנתרופוגנית חיצונית או השפעה אנושית ממוקדת (מוסינה, 2023), אינה מקיפה. כיום, בינה מלאכותית מסוגלת לקבל "החלטות מעין אוטונומיות" שמבוססות איכשהו על רעיונות ועמדות מוסריות של אנשים. בהקשר זה, ניתן לשקול רק "פעולה-פעולה" של מערכת AI, למעט היכולת לבצע הערכה מוסרית אמיתית של התנהגות בינה מלאכותית (Petiev, 2022).

שלישית, ההכרה בכשירות המשפטית האינדיבידואלית של הבינה המלאכותית (במיוחד בצורה של השוואה למעמד של אדם טבעי) מובילה לשינוי הרסני בסדר המשפטי הקבוע ובמסורות המשפטיות שהתגבשו מאז החוק הרומי. מעלה מספר סוגיות פילוסופיות ומשפטיות בלתי פתירות מיסודו בתחום זכויות האדם. החוק כמערכת של נורמות חברתיות ותופעה חברתית נוצר תוך התחשבות ביכולות האנושיות ולהבטחת האינטרסים האנושיים. המערכת האנתרופוצנטרית המבוססת של הוראות נורמטיביות, הקונצנזוס הבינלאומי על מושג הזכויות הפנימיות ייחשב פסול מבחינה משפטית ועובדתית במקרה של ביסוס גישה של "אינקלוסיזם קיצוני" (Dremlyuga & Dremlyuga, 2019). לכן, הענקת מעמד של ישות משפטית למערכות בינה מלאכותית, ובפרט לרובוטים "חכמים", אולי אינה פתרון לבעיות קיימות, אלא תיבת פנדורה המחמירה סתירות חברתיות ופוליטיות (סולאימן, 2017).

נקודה נוספת היא שעבודותיהם של תומכי המושג הזה מזכירות בדרך כלל רק רובוטים, כלומר מערכות בינה מלאכותית סייבר-פיזית שיקיימו אינטראקציה עם אנשים בעולם הפיזי, בעוד שמערכות וירטואליות אינן נכללות, אם כי בינה מלאכותית חזקה, אם תצוץ, להתגלם בצורה וירטואלית גם כן.

בהתבסס על הטיעונים לעיל, יש לראות במושג הכשירות המשפטית הפרטנית של מערכת בינה מלאכותית כבלתי אפשרית מבחינה משפטית לפי הסדר המשפטי הנוכחי.

הרעיון של אישיות קולקטיבית ביחס למערכות אינטליגנטיות מלאכותיות זכה לתמיכה ניכרת בקרב תומכי קבילותה של כשירות משפטית כזו. היתרון העיקרי של גישה זו הוא בכך שהיא מוציאה מהעבודה המשפטית מושגים מופשטים ושיפוט ערכי (תודעה, מודעות עצמית, רציונליות, מוסר וכו'). הגישה מבוססת על יישום הבדיון המשפטי על בינה מלאכותית.

באשר לישויות משפטיות, יש כבר "שיטות רגולטוריות מתקדמות שניתן להתאים לפתרון הדילמה של המעמד המשפטי של בינה מלאכותית" (Hárs, 2022).

תפיסה זו אינה מרמזת שמערכות בינה מלאכותית זוכות למעשה לכשירות משפטית של אדם טבעי אלא היא רק הרחבה של המוסד הקיים של ישויות משפטיות, מה שמציע כי יש ליצור קטגוריה חדשה של ישויות משפטיות הנקראות "אורגניזמים אלקטרוניים" קיברנטיים. גישה זו הופכת לנכון יותר לשקול ישות משפטית שאינה בהתאם לתפיסה המצומצמת המודרנית, בפרט, החובה שהיא רשאית לרכוש ולממש זכויות אזרח, לשאת בחבות אזרחיות ולהיות תובע ונתבע בבית המשפט מטעמה. ), אך במובן הרחב יותר, המייצג ישות משפטית ככל מבנה שאינו אדם טבעי שניחן בזכויות וחובות בצורה הקבועה בחוק. לפיכך, המצדדים בגישה זו מציעים לשקול ישות משפטית כישות סובייקטיבית (ישות אידיאלית) לפי המשפט הרומי.

הדמיון בין מערכות בינה מלאכותית לבין ישויות משפטיות בא לידי ביטוי באופן שבו הן ניחנות בכשירות משפטית - באמצעות רישום מחייב של ישויות משפטיות. רק לאחר מעבר הליך הרישום שנקבע, ישות משפטית ניחנת במעמד משפטי ובכשירות משפטית, כלומר, היא הופכת לנושא משפטי. מודל זה מקיים דיונים על הכשירות המשפטית של מערכות בינה מלאכותית בתחום המשפטי, למעט הכרה בכשירות משפטית מטעמים אחרים (חוץ-משפטיים), ללא תנאים מוקדמים פנימיים, בעוד שאדם מוכר כסובייקט משפטי מלידה.

היתרון בתפיסה זו הוא הרחבת הדרישה להכנסת מידע לפנקסי המדינה הרלוונטיים למערכות אינטליגנטיות מלאכותיות, בדומה למרשם הישויות המשפטיות הממלכתיות, כתנאי מוקדם להענקת כשירות משפטית. שיטה זו מיישמת פונקציה חשובה של שיטתיות של כל הישויות המשפטיות ויצירת מאגר מידע אחד, הכרחי הן לרשויות המדינה לשלוט ולפקח (לדוגמה, בתחום המיסוי) והן לצדדים נגדיים פוטנציאליים של ישויות כאלה.

היקף הזכויות של ישויות משפטיות בכל תחום שיפוט קטן בדרך כלל מזה של אנשים טבעיים; לפיכך, השימוש במבנה זה להענקת כשירות משפטית לבינה מלאכותית אינו קשור להענקת זכויות למספר זכויות שהוצעו על ידי תומכי המושג הקודם.

כאשר מיישמים את טכניקת הסיפורת המשפטית על ישויות משפטיות, ההנחה היא כי פעולותיה של ישות משפטית מלוות באיגוד של אנשים טבעיים המגבשים את "צוואתם" ומממשים את "רצונם" באמצעות הגופים המנהלים של הישות המשפטית.

במילים אחרות, ישויות משפטיות הן יחידות מלאכותיות (מופשטות) שנועדו לספק את האינטרסים של אנשים טבעיים שפעלו כמייסדים או שלטו בהם. כמו כן, מערכות אינטליגנטיות מלאכותיות נוצרות כדי לענות על הצרכים של אנשים מסוימים - מפתחים, מפעילים, בעלים. אדם טבעי שמשתמש או מתכנת מערכות AI מונחה על ידי האינטרסים שלו, אותם מייצגת מערכת זו בסביבה החיצונית.

בהערכת מודל רגולטורי כזה בתיאוריה, אין לשכוח כי אנלוגיה מלאה בין עמדות הישויות המשפטיות ומערכות הבינה המלאכותית היא בלתי אפשרית. כאמור לעיל, כל הפעולות המשמעותיות מבחינה משפטית של ישויות משפטיות מלוות באנשים טבעיים המקבלים ישירות החלטות אלו. רצונה של ישות משפטית תמיד נקבע ונשלט במלואו על ידי רצון של אנשים טבעיים. לפיכך, ישויות משפטיות אינן יכולות לפעול ללא רצון של אנשים טבעיים. לגבי מערכות בינה מלאכותית, כבר קיימת בעיה אובייקטיבית של האוטונומיה שלהן, כלומר היכולת לקבל החלטות ללא התערבות של אדם טבעי לאחר הרגע של יצירה ישירה של מערכת כזו.

בהתחשב במגבלות הטבועות של המושגים שנסקרו לעיל, מספר רב של חוקרים מציעים גישות משלהם להתמודדות עם המעמד המשפטי של מערכות אינטליגנטיות מלאכותיות. באופן קונבנציונלי, ניתן לייחס אותם לווריאציות שונות של המושג "כשירות משפטית מדורגת", על פי החוקר מאוניברסיטת לובן DM Mocanu, אשר מרמז על מעמד משפטי מוגבל או חלקי ויכולת משפטית של מערכות בינה מלאכותית עם הסתייגות: נעשה שימוש במונח "שיפוע" מכיוון שהוא לא רק על הכללה או אי הכללה של זכויות וחובות מסוימות במעמד המשפטי, אלא גם על יצירת מערכת של זכויות וחובות כאלה עם סף מינימלי, וכן על הכרה בכשירות משפטית כזו בלבד. למטרות מסוימות. לאחר מכן, שני הסוגים העיקריים של מושג זה עשויים לכלול גישות המצדיקות:

1) הענקת מערכות בינה מלאכותית מעמד משפטי מיוחד וכוללת "אנשים אלקטרוניים" בסדר המשפטי כקטגוריה חדשה לחלוטין של נושאים משפטיים;

2) הענקת מערכות AI מעמד משפטי מוגבל ויכולת משפטית במסגרת יחסים משפטיים אזרחיים באמצעות הכנסת הקטגוריה של "סוכנים אלקטרוניים".

ניתן לאחד את עמדתם של תומכי גישות שונות בתוך מושג זה, בהתחשב בכך שאין עילה אונטולוגית לשקול בינה מלאכותית כסובייקט משפטי; עם זאת, במקרים ספציפיים, כבר קיימות סיבות פונקציונליות להעניק למערכות בינה מלאכותית זכויות וחובות מסוימות, מה ש"מוכיח את הדרך הטובה ביותר לקדם את האינטרסים האישיים והציבוריים שיש להגן עליהם בחוק" על ידי הענקת מערכות אלו "מצומצמות וצרות". "צורות של ישות משפטית".

להענקת מעמד משפטי מיוחד למערכות בינה מלאכותית על ידי הקמת מוסד משפטי נפרד של "אנשים אלקטרוניים" יש יתרון משמעותי בהסבר המפורט והסדרת היחסים המתעוררים:

- בין ישויות משפטיות לבין אנשים טבעיים ומערכות בינה מלאכותית;

- בין מערכות בינה מלאכותית למפתחיהן (מפעילים, בעלים);

– בין צד שלישי למערכות בינה מלאכותית ביחסי משפט אזרחיים.

במסגרת חוקית זו, מערכת הבינה המלאכותית תהיה מבוקרת ותנוהל בנפרד מהמפתח, הבעלים או המפעיל שלה. כאשר מגדירים את המושג "אדם אלקטרוני", מתמקד ראש הממשלה מורכת ביישום שיטת הבדיון המשפטי הנ"ל ובכיוון הפונקציונלי של מודל מסוים של בינה מלאכותית: "אדם אלקטרוני" הוא דימוי טכני ומשפטי (אשר יש כמה מאפיינים של פיקציה משפטית וכן של ישות משפטית) המשקפת ומיישמת יכולת משפטית ספציפית מותנית של מערכת בינה מלאכותית, השונה בהתאם לתפקוד המיועדים או למטרה וליכולות שלה.

בדומה לתפיסה של אנשים קולקטיביים ביחס למערכות בינה מלאכותית, גישה זו כרוכה בניהול רישום מיוחד של "אנשים אלקטרוניים". תיאור מפורט וברור של הזכויות והחובות של "אנשים אלקטרוניים" הוא הבסיס לשליטה נוספת על ידי המדינה והבעלים של מערכות בינה מלאכותיות כאלה. מגוון סמכויות מוגדר בבירור, היקף מצומצם של מעמד משפטי ויכולת משפטית של "אנשים אלקטרוניים" יבטיחו ש"אדם" זה לא יחרוג מתוכניתו עקב קבלת החלטות עצמאית ולמידה עצמית מתמדת.

גישה זו מרמזת כי לבינה מלאכותית, שבשלב יצירתה היא קניין רוחני של מפתחי תוכנה, עשויות להיות מוקנות זכויות של ישות משפטית לאחר הסמכה מתאימה ורישום ממלכתי, אך המעמד המשפטי והיכולת המשפטית של "אדם אלקטרוני " יישמר.

ליישום מוסד חדש מיסודו של הסדר המשפטי הקבוע יהיו השלכות משפטיות חמורות, המחייבות רפורמה חקיקתית מקיפה לפחות בתחומי המשפט החוקתי והאזרחי. חוקרים מציינים באופן סביר כי יש לנקוט משנה זהירות בעת אימוץ המושג "אדם אלקטרוני", לאור הקשיים בהכנסת אנשים חדשים לחקיקה, שכן הרחבת המושג "אדם" במובן המשפטי עשויה לגרום להגבלות על הזכויות והאינטרסים הלגיטימיים של נושאים קיימים של יחסים משפטיים (Bryson et al., 2017). נראה כי בלתי אפשרי לשקול היבטים אלה מאחר שהכשירות המשפטית של אנשים טבעיים, ישויות משפטיות וישויות משפטיות ציבוריות היא תוצאה של מאות שנים של אבולוציה של תורת המדינה והמשפט.

הגישה השנייה בתוך המושג של יכולת משפטית מדורגת היא המושג המשפטי של "סוכנים אלקטרוניים", הקשור בעיקר לשימוש הנרחב במערכות AI כאמצעי תקשורת בין צדדים נגדיים וככלים למסחר מקוון. גישה זו יכולה להיקרא פשרה, שכן היא מודה בחוסר האפשרות להעניק מעמד של נושאים משפטיים מן המניין למערכות AI תוך קביעת זכויות וחובות מסוימות (משמעותיות חברתית) לבינה מלאכותית. במילים אחרות, המושג "סוכנים אלקטרוניים" מכשיר את הכמו-סובייקטיביות של בינה מלאכותית. יש להבין את המונח "סובייקט מעין-משפטי" כתופעה משפטית מסוימת שבה מרכיבים מסוימים של כשירות משפטית מוכרים ברמה הרשמית או הדוקטרינרית, אך ביסוס מעמד של סובייקט משפטי מן המניין בלתי אפשרי.

התומכים בגישה זו מדגישים את המאפיינים הפונקציונליים של מערכות בינה מלאכותיות המאפשרות להן לפעול הן ככלי פסיבי והן כמשתתף פעיל ביחסים משפטיים, שיכולים ליצור באופן עצמאי חוזים משמעותיים מבחינה משפטית עבור בעל המערכת. לכן, מערכות בינה מלאכותית יכולות להיחשב על תנאי במסגרת יחסי סוכנות. בעת יצירת (או רישום) מערכת בינה מלאכותית, יוזם פעילות "הסוכן האלקטרוני" מתקשר עמו בהסכם סוכנות וירטואלי חד-צדדי, שבעקבותיו מוענקות ל"סוכן האלקטרוני" מספר סמכויות, אשר מפעילות אותן. לבצע פעולות משפטיות בעלות משמעות עבור המנהל.

מקורות:

  • ר' מקליי, "ניהול עליית הבינה המלאכותית", 2018
  • Bertolini A. and Episcopo F., 2022, "רובוטים ובינה מלאכותית כנושאים משפטיים? ניתוק הפרספקטיבה האונטולוגית והתפקודית"
  • Alekseev, A. Yu., Alekseeva, EA, Emelyanova, NN (2023). "אישיות מלאכותית בתקשורת חברתית ופוליטית. חברות מלאכותיות"
  • "המאפיינים של אבחון מעבדה של תסמונת Sanfilippo A" NS Trofimova, NV Olkhovich, NG Gorovenko
  • Shutkin, SI, 2020, "האם היכולת המשפטית של בינה מלאכותית אפשרית? עובד על קניין רוחני"
  • Ladenkov, N. Ye., 2021, "מודלים של הענקת כשירות משפטית לבינה מלאכותית"
  • Bertolini, A., and Episcopo, F., 2021, "דוח קבוצת המומחים בנושא אחריות לבינה מלאכותית וטכנולוגיות דיגיטליות מתפתחות אחרות: הערכה קריטית"
  • מורקאט, ראש הממשלה, 2018, "בשאלת ההגדרה המשפטית של המונח בינה מלאכותית"

אנטון ווקרוג הוא יזם IT, הוגה דעות וחוקר בינה מלאכותית במקור מאוקראינה. לאחרונה, הוא מכר בהצלחה את אחת מחברות ה-IT שלו. נכון לעכשיו, הוא משמש כשותף ויועץ עסקי בלוקצ'יין ב Dexola.com.