ืืื ื ืืืืืืชืืช
OpenAI Forms Safety Council, Trains Next-Gen AI Model Amid Controversies

OpenAI הוא בעל הישגים משמעותיים בקידום טכנולוגיות בינה מלאכותית, עם הישגו האחרון היותו מערכת GPT-4o המניעה את ה-ChatGPT הפופולרי. היום, OpenAI הודיע על הקמת ועדת בטיחות חדשה, מועצת הבטיחות של OpenAI, וחשף כי היא החלה באימון מודל AI חדש.
מי חבר במועצת הבטיחות של OpenAI?
מועצת הבטיחות של OpenAI החדשה מטרתה לספק הדרכה ופיקוח על החלטות בטיחות וביטחון קריטיות הקשורות לפרויקטים ולפעילויות של החברה. מטרתה העיקרית של הוועדה היא לוודא כי פרקטיקות פיתוח ה- AI של OpenAI מעדיפות בטיחות ומסתייעות בעקרונות אתיים. הוועדה מורכבת מקבוצה מגוונת של אנשים, כולל בכירים ב-OpenAI, חברי דירקטוריון ומומחים טכניים ומדיניים.
חברים בולטים במועצת הבטיחות של OpenAI כוללים:
- Sam Altman, מנכ”ל OpenAI
- Bret Taylor, יו”ר OpenAI
- Adam D’Angelo, מנכ”ל Quora וחבר דירקטוריון OpenAI
- Nicole Seligman, לשעבר יועצת משפטית של Sony וחברת דירקטוריון OpenAI
בשלב הראשוני, ועדת הבטיחות והביטחון החדשה תתמקד בבחינה וחיזוק תהליכי הבטיחות ואמצעי הזהירות הקיימים של OpenAI. מועצת הבטיחות של OpenAI קבעה לוח זמנים של 90 יום לספק המלצות לדירקטוריון על איך לשפר את פרקטיקות פיתוח ה- AI ומערכות הבטיחות של החברה. כאשר ההמלצות יאומצו, OpenAI תתכנן לפרסם אותן באופן התואם שיקולי בטיחות וביטחון.
אימון המודל ה- AI החדש
במקביל להקמת מועצת הבטיחות של OpenAI, OpenAI הודיע כי היא החלה באימון המודל החדיש שלה. מודל ה- AI הזה צפוי לעקוף את היכולות של מערכת GPT-4 הנוכחית המשמשת את ChatGPT. בעוד שפרטים על המודל ה- AI החדש מעטים, OpenAI אמרה כי הוא יוביל את התעשייה הן ביכולת והן בבטיחות.
פיתוח המודל ה- AI החדש מדגיש את קצב החדשנות המהיר בתחום הבינה המלאכותית ואת הפוטנציאל ל- בינה מלאכותית כללית (AGI). ככל שמערכות AI הופכות מתקדמות וחזקות יותר, הן הופכות לחיוניות יותר לעדיפת בטיחות ולוודא שטכנולוגיות אלו מפותחות באופן אחראי.
מחלוקות ועזיבות אחרונות של OpenAI
התמקדותה המחודשת של OpenAI בבטיחות באה בעיצומו של תקופה של סערות פנימיות וביקורת ציבורית. בשבועות האחרונים, החברה ספגה ביקורת מתוך שורותיה, עם עזיבתו של החוקר Jan Leike וביטוי דאגות שבטיחות נדחקה לטובת פיתוח “מוצרים מבריקים”. עזיבתו של Leike הובעה על ידי עזיבתו של Ilya Sutskever, מייסד OpenAI והמדען הראשי.
עזיבותיהם של Leike ו- Sutskever עוררו שאלות על עדיפויות החברה וגישתה לבטיחות AI. שני החוקרים הובילו במשותף את קבוצת “superalignment” של OpenAI, שהוקדשה לטיפול בסיכונים ארוכי טווח של AI. לאחר עזיבתם, קבוצת superalignment פורקה, מה שהעלה עוד יותר חששות בנוגע למחויבות החברה לבטיחות.
בנוסף למהומות הפנימיות, OpenAI גם עמדה בפני האשמות בחיקוי קול ב-ChatGPT. משתמשים אחדים טענו כי קול ה- chatbot דומה מאוד לזה של השחקנית Scarlett Johansson. בעוד OpenAI הכחישה במכוון את חיקוי Johansson, התקרית העלתה שיח רחב יותר על ההשלכות האתיות של תוכן AI- יצר והפוטנציאל לשימוש לרעה.
שיח רחב יותר על אתיקה של AI
ככל שתחום הבינה המלאכותית ממשיך להתפתח במהירות, הוא חיוני לחברות כמו OpenAI להשתתף בדיאלוג מתמשך ושיתוף פעולה עם חוקרים, מדיניות וציבור לוודא שטכנולוגיות AI מפותחות באופן אחראי ועם מערכות אבטחה חזקות. ההמלצות שהציעה מועצת הבטיחות של OpenAI והתחייבותה של OpenAI לשקיפות תרמו לשיח הרחב יותר על ממשל AI ועזרו לעצב את עתידה של טכנולוגיה זו מהפכנית, אך רק הזמן יגיד מה יצא מזה.












