בדל היוזמה החדשה של OpenAI: הכוונת בינה מלאכותית סופר-אינטליגנטית בכיוון הנכון - Unite.AI
צור קשר

בינה כללית מלאכותית

היוזמה החדשה של OpenAI: כיוון בינה מלאכותית סופר אינטליגנטית בכיוון הנכון

יצא לאור

 on

OpenAI, שחקנית מובילה בתחום הבינה המלאכותית, הודיעה לאחרונה על הקמת צוות ייעודי לניהול הסיכונים הכרוכים בבינה מלאכותית סופר-אינטליגנטית. המהלך הזה מגיע בזמן שממשלות ברחבי העולם מתלבטות כיצד להסדיר טכנולוגיות AI מתעוררות.

הבנת AI Superintelligent

בינה מלאכותית סופר אינטליגנטית מתייחסת למודלים היפותטיים של בינה מלאכותית שעולים על בני האדם המוכשרים והחכמים ביותר במספר תחומי מומחיות, לא רק תחום יחיד כמו כמה דגמים מהדור הקודם. OpenAI צופה שמודל כזה יכול להופיע לפני סוף העשור. הארגון מאמין כי מודיעין-על יכולה להיות הטכנולוגיה המשפיעה ביותר שהאנושות המציאה אי פעם, שעשוי לעזור לנו לפתור רבות מהבעיות הדוחקות ביותר בעולם. עם זאת, הכוח העצום של מודיעין העל עלול להוות גם סיכונים משמעותיים, כולל פוטנציאל שלילת הכוח של האנושות או אפילו הכחדה אנושית.

צוות Superalignment של OpenAI

כדי להתמודד עם החששות הללו, OpenAI הקימה 'יישור סופרצוות, בראשות המדען הראשי של OpenAI איליה סוצקבר ויאן לייק, ראש המערך של מעבדת המחקר. לצוות תהיה גישה ל-20% מכוח המחשוב ש-OpenAI הבטיחה כעת. המטרה שלהם היא לפתח חוקר יישור אוטומטי, מערכת שיכולה לסייע ל-OpenAI להבטיח שמודיעין-על בטוח לשימוש ומותאם לערכים אנושיים.

בעוד ש-OpenAI מכירה בכך שמדובר ביעד שאפתני להפליא וההצלחה אינה מובטחת, הארגון נשאר אופטימי. ניסויים ראשוניים הראו הבטחה, ומדדים שימושיים יותר ויותר להתקדמות זמינים. יתרה מכך, ניתן להשתמש במודלים הנוכחיים כדי לחקור רבות מהבעיות הללו באופן אמפירי.

הצורך ברגולציה

הקמת צוות Superalignment מגיעה כאשר ממשלות ברחבי העולם שוקלות כיצד להסדיר את תעשיית הבינה המלאכותית המתהווה. מנכ"ל OpenAI, סם אלטמן, נפגש עם לפחות 100 מחוקקים פדרליים בחודשים האחרונים. אלטמן הצהיר בפומבי כי רגולציה של AI היא "חיונית", וכי OpenAI "להוטה" לעבוד עם קובעי מדיניות.

עם זאת, חשוב לגשת להכרזות כאלה במידה של ספקנות. על ידי מיקוד תשומת הלב הציבורית בסיכונים היפותטיים שאולי לעולם לא יתממשו, ארגונים כמו OpenAI עשויים להעביר את נטל הרגולציה לעתיד, במקום לטפל בבעיות מיידיות סביב בינה מלאכותית ועבודה, מידע מוטעה וזכויות יוצרים שקובעי המדיניות צריכים להתמודד איתם היום.

היוזמה של OpenAI להקים צוות ייעודי לניהול הסיכונים של AI סופר אינטליגנטי היא צעד משמעותי בכיוון הנכון. זה מדגיש את החשיבות של אמצעים יזומים בטיפול באתגרים הפוטנציאליים שמציבה הבינה המלאכותית המתקדמת. ככל שאנו ממשיכים לנווט במורכבות של פיתוח ורגולציה של בינה מלאכותית, יוזמות מסוג זה משמשות תזכורת לצורך בגישה מאוזנת, כזו המנצלת את הפוטנציאל של בינה מלאכותית תוך הגנה מפני הסיכונים שלה.

אלכס מקפרלנד הוא עיתונאי וסופר בינה מלאכותית הבוחן את ההתפתחויות האחרונות בתחום הבינה המלאכותית. הוא שיתף פעולה עם סטארט-אפים ופרסומים רבים של AI ברחבי העולם.