ืื ืืืื ืืขื
ืืฆืืืช ืืืืืื: ืืืฉืืช ืืืืืืืืช ืืืคืืชืช ืกืืืื ืื ืืงืฉืืจืื ืืืื ื ืืืืืืชืืช

אין סוד בכך שבמהלך השנים האחרונות, טכנולוגיות מודרניות דחפו את הגבולות האתיים תחת מסגרות משפטיות קיימות שלא נוצרו עבורן, מה שהוביל לשדות מוקשים משפטיים ורגולטוריים. כדי לנסות ולהילחם בהשפעות של כך, רגולטורים בוחרים להמשיך בדרכים שונות בין מדינות ואזורים, מה שמגביר את המתיחות הגלובלית כאשר לא מוצאים הסכמה.
הבדלים אלו ברגולציה הודגשו בסיכום האחרון של פסגת הפעולה של AI בפריז. ההצהרה הסופית של האירוע התמקדה בנושאים של כלליות ופתיחות בפיתוח AI. באופן מעניין, היא הזכירה רק באופן כללי את הבטיחות והאמינות, בלי להדגיש סיכונים ספציפיים הקשורים ל-AI, כגון איומים ביטחוניים. הצהרה זו, שנוסחה על ידי 60 מדינות, הממלכה המאוחדת וארצות הברית היו נעדרות באופן בולט מחתימות ההצהרה, מה שמראה על כמה מועט הקונצנזוס הנוכחי בין מדינות מפתח.
טיפול בסיכונים של AI ברמה הגלובלית
פיתוח ויישום AI מוסדרים אחרת בכל מדינה. עם זאת, רובם מתאימים לאיזושהי נקודה בין שני הקצוות – עמדות ארצות הברית והאיחוד האירופי.
דרך ארצות הברית: תחילה לחדש, אחר כך לרגולט
בארצות הברית אין חוקים פדרליים המסדירים AI בפרט, אלא היא סומכת על פתרונות המבוססים על שוק וקווים מנחים וולונטריים. עם זאת, יש מספר חוקים מפתח ל-AI, כולל חוק היוזמה הלאומית ל-AI, שמטרתו לתאם מחקר AI פדרלי, חוק ה-Federal Aviation Administration Reauthorisation ומסגרת ניהול סיכונים וולונטרית של המכון הלאומי לתקנים וטכנולוגיה (NIST).
הנוף הרגולטורי של ארצות הברית נותר נוזלי וכפוף לשינויים פוליטיים משמעותיים. לדוגמה, באוקטובר 2023, הנשיא ביידן הוציא צו נשיאותי בנושא פיתוח ושימוש בינה מלאכותית בטוחה, בטוחה ואמינה, שקבע תקנים לתשתיות ביקריות, שיפר את האבטחה המונעת על ידי AI ורגולטורית פרויקטים של AI ממומנים פדרלית. אולם, בינואר 2025, הנשיא טראמפ ביטל את הצו הנשיאותי הזה, בפנייה הרחק מרגולציה וכלפי עדיפות לחדשנות.
גישת ארצות הברית יש לה מבקרים. הם מצביעים על כך שטבעה ה”מפוצל” מוביל לרשת מורכבת של כללים ש”חסרים תקנים אכיפים“, ויש “פערים בהגנה על פרטיות“. עם זאת, העמדה כולה נמצאת בשינוי – ב-2024, מחוקקים במדינות הציגו כמעט 700 הצעות חוק חדשות והיו מספר שימועים על AI בממשל וכן, AI וקניין רוחני. אף על פי שזה ברור שממשל ארצות הברית אינו מהסס לרגולט, הוא בוחר בדרכים ליישום רגולציה בלי לפשר את החדשנות.
דרך האיחוד האירופי: עדיפות למניעה
האיחוד האירופי בחר בגישה אחרת. באוגוסט 2024, הפרלמנט האירופי והמועצה הציגו את חוק הבינה המלאכותית (AI Act), שנחשב לחוק המקיף ביותר עד כה עבור רגולציה של AI. באמצעות גישה מבוססת סיכונים, החוק מטיל כללים קפדניים על מערכות AI בעלות רגישות גבוהה, למשל, אלו המשמשות בתחומי הבריאות ותשתיות ביקריות. יישומים בסיכון נמוך עומדים בפני פיקוח מינימלי בלבד, בעוד שביישומים מסוימים, כגון מערכות ציון חברתיות המופעלות על ידי הממשלה, אסורות לחלוטין.
באיחוד האירופי, ציות לרגולציה הוא חובה לא רק בתוך גבולותיו, אלא גם מצד כל ספק, מפיץ או משתמש של מערכות AI הפועלות באיחוד האירופי, או מציעים פתרונות AI לשוק שלו – אפילו אם המערכת פותחה מחוץ לאיחוד. סביר להניח שזה יערים אתגרים עבור ספקים אמריקאים ולא-אירופאים אחרים של מוצרים משולבים כאשר הם עובדים על התאמה.
ביקורות על גישת האיחוד האירופי כוללות את כישלונו לקבוע סטנדרט זהב לזכויות אדם. מורכבות יתר גם הוזכרה, יחד עם מחסור בבהירות. מבקרים מודאגים מהדרישות הטכניות המחמירות של האיחוד האירופי, משום שהן מגיעות בעת שהאיחוד האירופי מנסה לחזק את התחרותיות שלו.
מציאת אמצע הדרך הרגולטורי
בינתיים, הממלכה המאוחדת אימצה מסגרת “קלת משקל” שנמצאת באמצע בין האיחוד האירופי לארצות הברית, והיא מבוססת על ערכים מרכזיים כגון בטיחות, הוגנות ושקיפות. רגולטורים קיימים, כגון משרד הנציב המידע, מחזיקים בסמכות ליישם עקרונות אלו בתחומים השונים.
ממשלת הממלכה המאוחדת פרסמה תוכנית פעולה להזדמנויות AI, המפרטת אמצעים להשקיע ביסודות AI, ליישם אימוץ AI ברחבי הכלכלה ולטפח “מערכות AI מקומיות”. בנובמבר 2023, הממלכה המאוחדת הקימה את המכון לבטיחות AI (AISI), שהתפתח מכוח המשימה ל-AI. AISI נוצר כדי לבדוק את בטיחותן של מודלי AI מתקדמים, בשיתוף פעולה עם מפתחים מובילים כדי להשיג זאת דרך בדיקות בטיחות.
עם זאת, ביקורות על גישת הממלכה המאוחדת לרגולציה של AI כוללות יכולות אכיפה מוגבלות ומחסור בתיאום בין חקיקה סקטוריאלית. מבקרים הבחינו גם בהיעדר רשות רגולטורית מרכזית.
כמו הממלכה המאוחדת, מדינות אחרות מובילות גם הן מצאו את מקומן באיזושהי נקודה על הספקטרום של ארצות הברית-איחוד האירופי. לדוגמה, קנדה הציגה גישה מבוססת סיכונים עם הצעת חוק AI ונתונים (AIDA), שנועדה למצוא איזון בין חדשנות, בטיחות ושיקולים אתיים. יפן אימצה גישה “מרכזית-אנוש” ל-AI על ידי פרסום הנחיות שמעודדות פיתוח אמין. בינתיים, בסין, רגולציה של AI מבוקרת בקפידה על ידי המדינה, עם חוקים אחרונים הדורשים ממודלי AI יצרניים לעבור בדיקות אבטחה ולהתאים לערכים סוציאליסטיים. בדומה לממלכה המאוחדת, אוסטרליה שחררה מסגרת אתית ל-AI ובוחנת עדכון חוקי הפרטיות כדי לטפל באתגרים המתעוררים מחדשנות AI.
איך להקים שיתוף פעולה בינלאומי?
ככל שטכנולוגיית AI ממשיכה להתפתח, הבדלים בין גישות רגולטוריות הופכים לבולטים יותר. כל גישה בודדת לגבי הגנת נתונים, הגנת זכויות יוצרים והיבטים אחרים, הופכת את ההסכמה הגלובלית על סיכונים מרכזיים הקשורים ל-AI לבלתי אפשרית יותר. בנסיבות אלו, שיתוף פעולה בינלאומי הוא חיוני כדי להקים תקנים בסיסיים שיטפלו בסיכונים המרכזיים בלי לרסן את החדשנות.
התשובה לשיתוף פעולה בינלאומי עשויה להימצא בארגונים גלובליים כגון ארגון ה-OECD, האומות המאוחדות ואחרים, שעובדים כרגע על הקמת תקנים בינלאומיים וקווים מנחים אתיים ל-AI. הדרך קדימה לא תהיה קלה, שכן היא דורשת מכל מי שבתעשייה למצוא שטח משותף. אם נחשוב שהחדשנות מתקדמת במהירות – הזמן לדיון והסכמה הוא עכשיו.












