Connect with us

ืžื•ื ื™ื˜ื™ื–ืฆื™ื” ืฉืœ ืžื—ืงืจ ืœืื™ืžื•ืŸ AI: ื”ืกื™ื›ื•ื ื™ื ื•ื”ืชืงื ื™ื ื”ื˜ื•ื‘ื™ื ื‘ื™ื•ืชืจ

ื‘ื™ื ื” ืžืœืื›ื•ืชื™ืช

ืžื•ื ื™ื˜ื™ื–ืฆื™ื” ืฉืœ ืžื—ืงืจ ืœืื™ืžื•ืŸ AI: ื”ืกื™ื›ื•ื ื™ื ื•ื”ืชืงื ื™ื ื”ื˜ื•ื‘ื™ื ื‘ื™ื•ืชืจ

mm

ככל שהביקוש ל-AI יוצרת גדל, כך גם הרעב לנתונים איכותיים על מנת לאמן מערכות אלו. מוציאים לאור אקדמיים התחילו למוניטיזציה את תוכן המחקר שלהם על מנת לספק נתונים לאימון מודלים של שפה גדולים (LLM). בעוד שפיתוח זה יוצר זרם הכנסה חדש עבור מוציאים לאור ומעצים את ה-AI היוצרת לגילויים מדעיים, הוא מעלה שאלות ביקורתיות על האמינות והאיכות של המחקר המשמש. זה מעלה שאלה חשובה: האם המאגרי הנתונים שנמכרים אמינים, ומהן המשמעויות של התרגול הזה עבור הקהילה המדעית ומודלי ה-AI?

עליית העסקאות הממוניטיזציות

מוציאים לאור אקדמיים מובילים, כולל Wiley, Taylor & Francis, ואחרים, דווחו על הכנסות משמעותיות מרישיון תוכן לחברות טכנולוגיה המפתחות מודלים של AI יוצרת. למשל, Wiley חשף על יותר מ-40 מיליון דולר ברווחים מעסקאות כאלו בשנה זו לבדה. הסכמים אלו מאפשרים לחברות AI לגשת למאגרי נתונים מדעיים מגוונים ורחבים, כך שמשתמע שהם משפרים את איכות כלים ה-AI שלהם.
הטיעון מצד המוציאים לאור הוא ישיר: רישיון מבטיח AI טוב יותר, מועיל לחברה תוך תשלום תמלוגים למחברים. המודל העסקי הזה מועיל הן לחברות הטכנולוגיה והן למוציאים לאור. עם זאת, המגמה הגוברת למוניטיזציה של ידע מדעי היא סיכון, בעיקר כאשר מחקרים מפוקפקים חודרים למאגרי הנתונים לאימון AI.

צל המחקר המזויף

הקהילה האקדמית אינה זרה לבעיות של מחקר מזויף. מחקרים מראים כי הרבה מהממצאים המפורסמים הם לקויים, מוטים, או פשוט בלתי אמינים. סקר מ-2020 מצא כי כמעט מחצית מהחוקרים דיווחו על בעיות כגון דיווח נתונים סלקטיבי או מחקרי שדה שתוכננו בצורה גרועה. ב-2023, יותר מ-10,000 מאמרים בוטלו בגלל תוצאות מזויפות או בלתי אמינות, מספר שעולה באופן קבוע מדי שנה. מומחים מאמינים כי מספר זה מייצג את קצה הקרחון, עם מחקרים מפוקפקים רבים המתפרסמים במאגרי מידע מדעיים.
המשבר הוא בעיקר תוצאה של “מפעלי מחקר,” ארגונים צללים שמייצרים מחקרים מזויפים, לעיתים קרובות כתגובה ללחצים אקדמיים באזורים כגון סין, הודו, ומזרח אירופה. מוערך כי כ-2% מההגשות לכתבי עת בעולם באות מ”מפעלי מחקר”. מאמרים אלו יכולים להיראות כמו מחקר לגיטימי אך מלאים בנתונים פיקטיביים ומסקנות ללא בסיס. מדאיג, כך שמאמרים כאלו עוברים את ביקורת העמיתים ומופיעים בכתבי עת מכובדים, מוותרים על האמינות של התובנות המדעיות. למשל, במהלך מגפת ה-COVID-19, מחקרים לקויים על איברמקטין הראו בטעות את יעילותו כטיפול, זרעו בלבול ועיכבו תגובות בריאות הציבור היעילות. דוגמה זו מדגימה את הנזק הפוטנציאלי של הפצת מחקר בלתי אמין, שם תוצאות לקויות יכולות להיות בעלות השפעה משמעותית.

השלכות עבור אימון AI ואמון

ההשלכות הן עמוקות כאשר LLMs מאומנים על מאגרי נתונים המכילים מחקר מזויף או באיכות נמוכה. מודלי AI משתמשים בדפוסים ויחסים בתוך נתוני האימון שלהם על מנת ליצור פלטים. אם הנתונים הם מושחתים, הפלטים עלולים להמשיך אי-דיוקים או אפילו להגביר אותם. סיכון זה הוא בעיקר גבוה בתחומים כגון רפואה, שם תובנות AI מופקות באופן שגוי יכולות להיות בעלות השפעה קטלנית.
בנוסף, הנושא מאיים על האמון הציבורי באקדמיה ו-AI. כאשר מוציאים לאור ממשיכים ליצור הסכמים, הם חייבים לטפל בדאגות לגבי איכות הנתונים הנמכרים. אי-טיפול בכך יכול לפגוע במוניטין של הקהילה המדעית ולתת ל-AI את הפוטנציאל החברתי.

הבטחת נתונים אמינים עבור AI

הפחתת הסיכונים של מחקר לקוי המפריע לאימון AI דורשת מאמץ משותף מצד מוציאים לאור, חברות AI, מפתחים, חוקרים והקהילה הרחבה. מוציאים לאור חייבים לשפר את תהליך ביקורת העמיתים כדי לתפוס מחקרים בלתי אמינים לפני שהם מגיעים למאגרי האימון. הצעת תמורות טובות יותר לביקורת וקביעת סטנדרטים גבוהים יותר יכולה לעזור. תהליך ביקורת פתוח הוא קריטי כאן. הוא מביא יותר שקיפות ואחריות, ועוזר לבנות אמון במחקר.
חברות AI חייבות להיות זהירות יותר בנוגע למי הן עובדות עמם כאשר הן מקורות מחקר לאימון AI. בחירת מוציאים לאור וכתבי עת עם מוניטין חזק למחקר איכותי, בעל עריכה טובה, היא מפתח. בהקשר הזה, שווה להסתכל בקפידה על הרקורד של המוציא לאור – כגון כמה פעמים הם מושכים מאמרים או כמה הם פתוחים בנוגע לתהליך הביקורת. היות סלקטיביים משפר את אמינות הנתונים ובונה אמון בקהילות ה-AI והמחקר.
מפתחי AI צריכים לקחת אחריות על הנתונים שהם משתמשים. זה אומר עבודה עם מומחים, בדיקה קפדנית של מחקר, והשוואה של תוצאות ממחקרים רבים. כלים AI עצמם יכולים גם להיות מעוצבים כדי לזהות נתונים חשודים ולהפחית את הסיכונים של מחקר מפוקפק.
שקיפות היא גם גורם חשוב. מוציאים לאור וחברות AI צריכים לשתף בצורה פתוחה פרטים על כיצד מחקר משמש ולאן הולכים התמלוגים. כלים כגון Generative AI Licensing Agreement Tracker מראים הבטחה, אך זקוקים לאמוציה רחבה יותר. חוקרים צריכים גם להיות שותפים בהחלטה על כיצד עבודתם משמשת. מדיניות אופט-אין, כגון אלו של Cambridge University Press, מעניקות למחברים שליטה על תרומותיהם. זה בונה אמון, מבטיח הוגנות, ומעורב את המחברים בתהליך הזה.
בנוסף, גישה פתוחה למחקר איכותי צריכה להיעודד כדי להבטיח כלליות והוגנות בפיתוח AI. ממשלות, ארגונים ללא מטרות רווח, ושחקנים תעשייתיים יכולים לממן יוזמות גישה פתוחה, מפחיתים את התלות במוציאים לאור מסחריים עבור מאגרי נתונים קריטיים. בנוסף, תעשיית AI זקוקה לכללים ברורים לאיתור נתונים באופן אתי. בכך שמתמקדים במחקר אמין, בעל עריכה טובה, אנו יכולים לבנות כלים AI טובים יותר, להגן על השלמות המדעית, ולשמור על האמון הציבורי במדע וטכנולוגיה.

התחתית

מוניטיזציה של מחקר עבור אימון AI מציגה הזדמנויות ואתגרים. בעוד שרישיון תוכן אקדמי מאפשר את פיתוחם של מודלי AI חזקים יותר, הוא גם מעלה דאגות לגבי האמינות והאיכות של הנתונים המשמשים. מחקר לקוי, כולל זה מ”מפעלי מחקר”, יכול להוסיף למאגרי האימון של AI, מה שעלול לפגוע באמון הציבורי ובפוטנציאל החברתי של AI. כדי לוודא שמודלי AI נבנים על נתונים אמינים, מוציאים לאור, חברות AI, ומפתחים חייבים לעבוד יחד כדי לשפר את תהליכי הביקורת, להגביר את השקיפות, ולהעדיף מחקר איכותי, בעל עריכה טובה. בכך, אנו יכולים להגן על עתיד ה-AI ולשמור על האינטגריטה של הקהילה המדעית.

ื“"ืจ ื˜ื”ืกื™ืŸ ื–ื™ืื” ื”ื•ื ืคืจื•ืคืกื•ืจ ื—ื‘ืจ ืงื‘ื•ืข ื‘ืื•ื ื™ื‘ืจืกื™ื˜ืช COMSATS ืืกืœืืžืื‘ืื“, ื‘ืขืœ ืชื•ืืจ PhD ื‘ื‘ื™ื ื” ืžืœืื›ื•ืชื™ืช ืžืื•ื ื™ื‘ืจืกื™ื˜ืช ื˜ื›ื ื•ืœื•ื’ื™ื” ืฉืœ ื•ื™ื ื”, ืื•ืกื˜ืจื™ื”. ื”ื•ื ืžืชืžื—ื” ื‘ื‘ื™ื ื” ืžืœืื›ื•ืชื™ืช, ืœืžื™ื“ืช ืžื›ื•ื ื”, ืžื“ืข ื ืชื•ื ื™ื ื•ืจืื™ื™ื” ืžืžื•ื—ืฉื‘ืช, ื•ืชืจื ืชืจื•ืžื•ืช ืžืฉืžืขื•ืชื™ื•ืช ืขื ืคืจืกื•ืžื™ื ื‘ื›ืชื‘ื™ ืขืช ืžื“ืขื™ื™ื ืืžื™ื ื™ื. ื“"ืจ ื˜ื”ืกื™ืŸ ื’ื ื”ื•ื‘ื™ืœ ืคืจื•ื™ืงื˜ื™ื ืชืขืฉื™ื™ืชื™ื™ื ืฉื•ื ื™ื ื›ื—ื•ืงืจ ืจืืฉื™ ื•ืฉื™ืžืฉ ื›ื™ื•ืขืฅ ื‘ื™ื ื” ืžืœืื›ื•ืชื™ืช.