ืื ืืืื ืืขื
ืืื ืืืฉืืขืืช ืืืืืชืืช ืฉื “ืืื ืืืืืื”?

בתחילת המאה ה-20, טבע הפילוסוף הבריטי גילברט רייל את המונח “רוח במכונה”. בכתיבתו בהמושג של הנפש, רייל השתמש במטאפורה כדי להילחם בדואליזם של גוף-נפש, הגורס כי הנפש והגוף קיימים כחומרים נפרדים. לרייל, החלוקה הזו הייתה טעות, שכן הקוגניציה והפעולה הפיזית היו בלתי ניתנים להפרדה, חלק ממערכת בודדת ולא שני חלקים המתפקדים.
עם התפתחות האינטליגנציה המלאכותית, מטאפורה דומה עולה כאשר מדברים על משתמשים של כלים של אינטליגנציה מלאכותית כדי להגביר את הפרודוקטיביות: “האדם בלולאה” המשמש תכופות. אם בני אדם ומערכות מלאכותיות אינטליגנטיות מאוחדות יותר מתמיד, האם אנו בונים חיבור חסר הפרעות או יוצרים אשליה נוחה של שליטה?
הסטארט-אפים נשענים בכבדות על מושג זה כדי לדבר על כליהם. בעוד שהוא מבטיח חדשנות וביטחון, המציאות היא לעיתים קרובות מסובכת יותר. האחריות יכולה להיעשות מעורפלת בקלות והחשבות קשה יותר לעקוב.
כאשר מערכות אינטליגנציה מלאכותית חודרות לתחומים רגישים – מחינוך למלחמה – הימורים אינם מופשטים עוד. מהי “אדם בלולאה” באמת, והאם זהו רק איופם לכשהם נעלמים לחלוטין?
1. אדם בלולאה כמגן לאחריות
בשימוש לא זהיר, המושג “אדם בלולאה” יכול להיות דרך קלה להעביר אחריות בלי להיכנס אמנם לתוכה. כפי שרבים שמים לב, חתימת אדם בסוף תהליך אינה מבטיחה אתגריות, במיוחד אם המערכת התת-מערכתית רעועה או לא מובנת דייה.
מייסה הוואש, מייסדת ומנכ”לית Scale X, כתבה על ההחלקה מאחריות והיא ישירה בדרך שבה המושג משמש לעיתים קרובות. “זה באמת לא שונה מדרכים אחרות של העברת נטל.” הוואש אמרה ל-Startup Beat, בהישענות על דוגמה של איך מנהלי כוח אדם משתמשים במדיניות אישור כדי להרחיק את החברה מאחריות. “אם יש לך את המדיניות הזו ואנשים קוראים אותה וחותמים עליה, אז, כחברה, אתה לא אחראי, נכון?” היא אמרה.
מה שעולה הוא דפוס מוכר במערכות תאגידיות, שם האחריות מועברת במקום להיעלם. הוואש רואה בזה דרך עצלנית שמחמיצה חשיבה ביקורתית או הבנה של האזורים שבהם היא יכולה להשפיע על אנשים או קהילות. “אתה מעביר את הנטל, ואז לא משנה אם אנשים מבינים את המדיניות, לא משנה אם המדיניות משמעותית.”
במסגרת זו, “אדם בלולאה” נטה להיעשות פחות על מעורבות משמעותית ויותר על כיסוי פרוצדורלי. הסכנה כאן אינה רק סמנטית. כאשר פיקוח מופחת לאישור, התפקיד האנושי הופך לסמלי במקום מהותי.
הוואש התייחסה לאחרות לאירוע צבאי – בית הספר במינאב, איראן – שם בני אדם אישרו מתקפה, אך נוכחותו של קבלן החלטות אנושי לא היה שווה בהכרח לבירור אתי או דיון מספיק. “כאשר אתה במלחמה או עורך ניתוח מורכב, אין לך את הזמן להשתמש ב’אדם בלולאה’ כמגן.”
2. תכנון לאחריות, לא רק לפיקוח
החלופין אינה לנטוש מערכות “אדם בלולאה”, אלא לקחת אותן ברצינות כהתחייבויות תכנוניות. זה אומר לנוע מעבר לפיקוח סמלי לעבר מבנים מכוונים של אחריות.
“יש מרוץ גדול להכניס יותר אינטליגנציה מלאכותית לשוק. אין הרבה מחשבה מהירה מנקודת מבט של תכנון, כמו מה הוא ההשפעה הדורסטית על קהילות, על אנשים או על משתמשים.”
המהירות הפכה למשתנה התחרותי הדומיננטי. במרוץ זה, האחריות מורחבת במקום להיטמע. התוצאה היא מודל ריאקטיבי של אתיקה, שם תיקון בעיות מתרחש אחרי הפריסה במקום לחזות אותם במהלך הפיתוח.
נגישות עשויה לאיץ אימוץ, אך היא גם מובילה להשלכות מוגברות. מערכות אינן מוגבלות עוד למשתמשים טכניים, שכן הן יכולות לעצב החלטות עבור אנשים עם רמות משתנות של הבנה והקשר. בסביבה כזו, אחריות לא יכולה להיות מועברת למשתמש הסופי.
3. אדם בלולאה כדיוק ואחריות
אבהאי גופטה, מייסד-שותף של Frizzle, מציע פרספקטיבה מעשית יותר – אחת המבוססת על בניית מערכת שבה פיקוח אנושי הוא שימושי והכרחי.
חברתו צמחה מבעיה ספציפית: מורים עמוסים. “בעיר שומעים על בנקאים ויועצים עובדים 70 שעות בשבוע, אבל אתה לא שומע על מורים עובדים כמות שעות כזו. אז, מתוך סקרנות, ראיינו מאות מורים, וברחבי הלוח, ציון היה הבור הגדול ביותר שלהם.”
אוטומציה של ציון עשויה להיראות פשוטה, אך המורכבות של מתמטיקה כתובה ביד יד מציגה מגבלות אמיתיות עבור אינטליגנציה מלאכותית. “יש את הבעיה של דיוק. אינטליגנציה מלאכותית אינה מושלמת, אז בנינו מערכת ‘אדם בלולאה’. אם האינטליגנציה המלאכותית אינה בטוחה – כמו כתיב יד מלוכלך – היא מסמנת אותו לבדיקה ואישור או דחייה של המורה.”
כאן, התפקיד האנושי אינו רק קישוטי. המערכת מזהה במפורש את האי-ודאות שלה ומנתבת את המקרים האלה לאדם. “בשבילנו זה עניין של דיוק. תמיד יהיו מקרים קיצוניים – אולי 1-3% – שם אינטליגנציה מלאכותית מתקשה, אז אדם צריך להתערב.”
גישה זו מחדשת את “אדם בלולאה” כמנגנון לבקרת איכות. אך גופטה דוחף הלאה: “בליבה, אינטליגנציה מלאכותית אינה 100% מדויקת – היא יכולה להזיין או לייצר פלטים שגויים. ‘אדם בלולאה’ משמש כבדיקת איכות סופית לפני שהתוצאות מגיעות למשתמש הסופי. זה גם עניין של אחריות. מישהו צריך להיות אחראי לפלט, וכרגע זה עדיין צריך להיות אדם.”
חשוב, התפקיד האנושי שומר גם על משהו פחות כמותי: היבט היחסי של הוראה. “זה גם עניין של שימור הצד האנושי של הוראה. למורים יש סגנונות שונים, אז אנו מאפשרים להם להתאים איך המשוב מועבר”
איפוס “אדם בלולאה”
הביטוי “אדם בלולאה” נושא פשטות מרגיעה. הוא מרמז כי לא משנה כמה מתקדמות מערכותינו, אדם נשאר בשליטה ואנו לא פשוט “רוחות במכונה”. אך כאשר סטארט-אפים מפריסים אינטליגנציה מלאכותית בסביבות בעלות יתרון גבוה, הביטחון הזה דורש ביקורת.
הנושא העמוק יותר הוא תכנון. אם סיכוני המערכת אינם מובנים היטב או מופחתים בכוונה, הכנסת אדם בסוף לא עושה הרבה כדי לתקן פגמים מהותיים. בעלות חשיבות, זה גם משמעות הגדרת תפקיד האדם לא רק כגיבוי, אלא כחלק אינטגרלי בפעולת המערכת. “אדם בלולאה” לא צריך רק לאשר את התוצאה. סטארט-אפים צריכים לשאוף לאפשר לצוותיהם לעצב אותם, לאתגר אותם, וכאשר נדרש, לבטל אותם בסמכות.












