צור קשר

לקראת כתיבה מדעית אוטומטית

בינה מלאכותית

לקראת כתיבה מדעית אוטומטית

mm

הבוקר, כשאני סוקר את מדורי מדעי המחשב ב-Arxiv, כמו שאני עושה ברוב הבקרים, נתקלתי לאחרונה ב... מאמר מהאוניברסיטה הפדרלית של סיארה בברזיל, המציעה מסגרת חדשה לעיבוד שפה טבעית לאוטומציה של סיכום וחילוץ של נתוני ליבה ממאמרים מדעיים.

מאחר שזה פחות או יותר מה שאני עושה כל יום, העיתון הזכיר לי תגובה בשרשור כותבים ברדיט מוקדם יותר השנה - תחזית לפיה כתיבה מדעית תהיה בין עבודות העיתונאות הראשונות שיעברו ללמידה חישובית.

תנו לי להיות ברור - אני מאמין לחלוטין שכותב המדע האוטומטי מגיע, ושכל האתגרים שאני מתאר במאמר זה ניתנים לפתרון כעת, או בסופו של דבר יהיו פתירים. במידת האפשר, אני נותן דוגמאות לכך. בנוסף, אני לא מתייחס לשאלה האם בינה מלאכותית לכתיבת מדע נוכחית או בעתיד הקרוב תוכל... לכתוב באופן משכנע; בהתבסס על ה- רמת הריבית הנוכחית בתחום הזה של NLP, אני מניח שהאתגר הזה ייפתר בסופו של דבר.

אני שואל אם בינה מלאכותית של סופר מדע תוכל לזהות סיפורי מדעיים רלוונטיים בהתאם לתוצאות הרצויות (המגוונות מאוד) של המו"לים.

אני לא חושב שזה קרוב; בהתבסס על עיון בכותרות ו/או בעותקים של כ-2000 מאמרים מדעיים חדשים על למידת מכונה בכל שבוע, יש לי דעה צינית יותר לגבי המידה שבה ניתן לפרק הגשות אקדמיות באופן אלגוריתמי, בין אם למטרות אינדוקס אקדמי ובין אם לעיתונות מדעית. כרגיל, אלה הארורים... אנשים שמפריעים בדרך.

דרישות לכותב מדעי אוטומטי

בואו נבחן את האתגר של אוטומציה של דיווח מדעי על מחקרים אקדמיים עדכניים. כדי לשמור על הוגנות, נגביל זאת בעיקר לקטגוריות מדעי המחשב של הקטגוריות הפופולריות מאוד שאינן מבוססות על חומת תשלום. דומיין Arxiv מאוניברסיטת קורנל, שיש לה לפחות מספר תכונות שיטתיות ותבניות שניתן לחבר לצינור חילוץ נתונים.

נניח גם שהמשימה שלפנינו, כמו במאמר החדש מברזיל, היא לעבור על הכותרות, הסיכומים, המטא-דאטה ו(אם יש הצדקה) תוכן הגוף של מאמרים מדעיים חדשים בחיפוש אחר קבועים, פרמטרים אמינים, אסימונים ומידע תחום הניתן לפעולה וצמצום.

זהו, אחרי הכל, העיקרון שעל פיו מצליחים מאוד מסגרות חדשות צוברים תאוצה בתחומים של דיווח על רעידות אדמה, כתיבה ספורטיבית, עיתונאות פיננסית ו ביטוח בריאות, ונקודת מוצא סבירה עבור עיתונאי מדע המונע על ידי בינה מלאכותית.

תהליך העבודה של ההיצע הברזילאי החדש. מאמר המדעי בפורמט PDF מומר לטקסט רגיל UTF-8 (אם כי פעולה זו תסיר הדגשות נטויות שעשויות להיות בעלות משמעות סמנטית), וקטעי המאמר מתויגים ומחולצים לפני העברתם לסינון טקסט. טקסט מפורק מחולק למשפטים כמסגרות נתונים, ומסגרות הנתונים ממוזגות לפני זיהוי אסימון ויצירת שתי מטריצות מסמך-אסימון. מקור: https://arxiv.org/ftp/arxiv/papers/2107/2107.14638.pdf

תהליך העבודה של ההיצע הברזילאי החדש. מאמר המדעי בפורמט PDF מומר לטקסט רגיל UTF-8 (אם כי פעולה זו תסיר הדגשות נטויות שעשויות להיות בעלות משמעות סמנטית), וקטעי המאמר מתויגים ומחולצים לפני העברתם לסינון טקסט. טקסט מפורק מחולק למשפטים כמסגרות נתונים, ומסגרות הנתונים ממוזגות לפני זיהוי אסימון ויצירת שתי מטריצות מסמך-אסימון.   מקור: https://arxiv.org/ftp/arxiv/papers/2107/2107.14638.pdf

סיבוך התבנית

שכבה מעודדת אחת של התאמה ורגולריזציה היא ש-Arxiv כופה תבנית מאוכפת היטב להגשות, ו- מספק הנחיות מפורטות עבור מחברים המגישים. לכן, מאמרים בדרך כלל תואמים את החלקים בפרוטוקול החלים על העבודה המתוארת.

לפיכך, מערכת עיבוד מקדים של בינה מלאכותית עבור כותב מדעי אוטומטי משוער יכולה בדרך כלל להתייחס לסעיפים כאלה כתת-תחומים: תַקצִיר, מבוא, עבודה קשורה/קודמת, מתודולוגיה/נתונים, תוצאות/ממצאים, מחקרי אבלציה, דיון, מסקנה.

עם זאת, בפועל, חלק מהסעיפים הללו עשויים להיות חסרים, ששמם שונה או להכיל תוכן שבאופן דיוק, שייך לסעיף אחר. יתר על כן, מחברים יכללו באופן טבעי כותרות וכותרות משנה שאינן תואמות את התבנית. לפיכך, יהיה זה בידי NLP/NLU לזהות תוכן רלוונטי הקשור לסעיף מההקשר.

בדרך לצרות

היררכיית כותרות היא דרך קלה עבור מערכות NLP לסווג בתחילה בלוקים של תוכן. הרבה הגשות של Arxiv מיוצאות מ-Microsoft Word (כפי שמעידים קבצי PDF של Arxiv שטופלו בצורה שגויה ומשאירים 'Microsoft Word' בכותרת העליונה - ראה תמונה למטה). אם תשתמש נכון כותרות סעיפים בוורד, ייצוא ל-PDF ייצור אותן מחדש ככותרות היררכיות שימושיות לתהליכי חילוץ נתונים של מדווח מכונה.

עם זאת, הדבר מניח שמחברים משתמשים בפועל בתכונות כאלה ב-Word, או במסגרות אחרות ליצירת מסמכים, כגון TeX ונגזרותיהם (שנדירות להיות מסופקות כפורמטים חלופיים מקוריים בהגשות Arxiv, כאשר רוב ההיצע מוגבל ל-PDF, ולעיתים, ל-PostScript אטום אף יותר).

בהתבסס על שנים של קריאת מאמרים ב-Arxiv, שמתי לב שרובם המכריע אינם מכילים כל מטא-דאטה מבניים ניתנים לפירוש, כאשר הכותרת מדווחת בקורא (כלומר דפדפן אינטרנט או קורא PDF) ככותרת המלאה (כולל הסיומת) של המסמך עצמו.

במקרה זה, יכולת הפרשנות הסמנטית של המאמר מוגבלת, ומערכת כתיבה מדעית מבוססת בינה מלאכותית תצטרך לקשר אותו מחדש באופן תכנותי למטא-דאטה הקשור אליו בדומיין Arxiv. מוסכמת Arxiv מכתיבה שמטא-דאטה בסיסיים מוכנסים גם לרוחב בגופן אפור גדול בעמוד 1 של קובץ PDF שהוגש (ראה תמונה למטה). למרבה הצער - לא פחות משום שזהו המקום האמין היחיד שבו ניתן למצוא תאריך פרסום או מספר גרסה - לעתים קרובות הם אינם כלולים.

מחברים רבים אינם משתמשים בסגנונות כלל, או רק בסגנון H1 (כותרת/כותרת עליונה), מה שמותיר את NLU שוב לחלץ כותרות. מההקשר (כנראה לא כל כך קשה), או על ידי ניתוח מספר ההפניה המרכיב את הכותרת בנתיב המסמך (למשל https://arxiv.org/pdf/2110.00168.pdf) וניצול מטא-נתונים מבוססי רשת (ולא מקומיים) עבור ההגשה.

למרות שהאחרון לא יפתור כותרות חסרות, הוא לפחות יקבע לאיזה חלק במדעי המחשב ההגשה מתייחסת, ויספק מידע על תאריך וגרסה.

טקסט מודבק ב-ParagraphReturns

מכיוון ש-PDF ו-Postscript הם פורמטי Arxiv הנפוצים ביותר המוגשים על ידי מחברים, מערכת ה-NLP תזדקק לשגרה שתפריד מילים בסוף שורה ממילים בתחילת שורה עוקבה ש"מצורפות" אליהן בשיטות האופטימיזציה המצערות של ברירת המחדל של פורמט PDF.

ניתוק (ו ביטול מקף) מילים ניתנות להגשמה בפרל ושגרות רקורסיביות פשוטות רבות אחרות, למרות ש- גישה מבוססת פייתון ייתכן שיהיה פחות גוזל זמן ויותר מותאם למסגרת למידת מכונה. אדובי, יוזמת פורמט ה-PDF, פיתחה גם מערכת המרה מבוססת בינה מלאכותית בשם מצב נוזלי, המסוגל 'להזרים מחדש' טקסט אפוי בקבצי PDF, אם כי פריסתו מעבר לתחום המובייל הוכחה כאיטית.

אנגלית גרועה                                                

אנגלית נותרה הסטנדרט המדעי העולמי להגשת מאמרים מדעיים, למרות שזוהי שנוי במחלוקתלכן, עיתונים מעניינים ובעלי ערך חדשותי מכילים לעיתים סטנדרטים מחרידים של אנגלית, מחוקרים שאינם דוברי אנגלית. אם שימוש מיומן באנגלית ייכלל כמדד ערך כאשר מערכת מכונה מעריכה את העבודה, אז לא רק שסיפורים טובים יאבדו לעתים קרובות, אלא שתפוקה פדנטית בעלת ערך נמוך תדורג גבוה יותר פשוט משום שהיא אומרת מעט מאוד בצורה טובה מאוד.

מערכות NLP שאינן גמישות בהקשר זה צפויות להיתקל בשכבה נוספת של מכשולים בחילוץ נתונים, למעט במדעים הנוקשים והפרמטריים ביותר, כגון כימיה ופיזיקה תיאורטית, שבהם גרפים ותרשימים תואמים באופן אחיד יותר בקהילות מדע גלובליות. למרות שעבודות למידה חישובית מכילות לעתים קרובות נוסחאות, ייתכן שאלו אינן מייצגות את הערך המגדיר של ההגשה בהיעדר הקונצנזוס המדעי המבוסס לחלוטין על מתודולוגיה שנהנים ממנו מדעים ישנים יותר.

בחירה: קביעת דרישות הקהל

נחזור בקרוב לבעיות הרבות של פירוק מאמרים מדעיים אקסצנטריים לנקודות נתונים נפרדות. כעת, בואו נבחן את קהל היעד והמטרות שלנו, שכן אלה יהיו חיוניים כדי לעזור לכותב המדע באמצעות בינה מלאכותית לסנן אלפי מאמרים בשבוע. ניבוי הצלחתם של סיפורי חדשות פוטנציאליים כבר קיים... אזור פעיל בלימוד מכונות.

אם, למשל, "תנועה מדעית" בנפח גבוה היא המטרה היחידה באתר אינטרנט שבו כתיבה מדעית היא רק חלק אחד מהיצע עיתונאי רחב יותר (כמו במקרה של בריטניה... Daily Mail (במחלקת המדע), ייתכן שיידרש בינה מלאכותית כדי לקבוע את הנושאים בעלי הרווחים הגבוהים ביותר מבחינת תנועה, ולמטב את בחירתה בהתאם. תהליך זה כנראה יתן עדיפות (יחסית) לפירות נמוכים כמו רובוטים, מזל"ט, deepfakes, פְּרָטִיוּת ו פגיעויות אבטחה.

בהתאם למצב הנוכחי במערכות המלצה, קטיף ברמה גבוהה זה צפוי להוביל ל בועת סינון בעיות עבור הבינה המלאכותית של כותבי המדע שלנו, שכן האלגוריתם נותן תשומת לב מוגברת למגוון רחב של מאמרים מדעיים מזויפים יותר הכוללים מילות מפתח וביטויים "נחשקים" בתדירות גבוהה בנושאים אלה (שוב, כי יש בהם כסף, הן מבחינת תנועה, עבור כלי תקשורת, והן מבחינת מימון, עבור מחלקות אקדמיות), תוך התעלמות מכמה מ"ביצי הפסחא" הניתנות לכתיבה הרבה יותר (ראה להלן) שניתן למצוא בפינות רבות פחות נפוצות של Arxiv.

אחד וסיים!

חדשות מדע טובות יכולות להגיע ממקומות מוזרים ולא צפויים, וממגזרים ונושאים שלא היו פוריים בעבר. כדי לבלבל עוד יותר את כתב המדע שלנו בתחום הבינה המלאכותית, שקיווה ליצור אינדקס פורה של מקורות חדשות "פוריים", מקור של "להיט" לא רגיל (כגון שרת דיסקורד, מחלקת מחקר אקדמית או סטארט-אפ טכנולוגי) יהיה לעתים קרובות. לעולם לא לייצר שוב חומר מעשי, תוך המשך הפקת זרם מידע עצום ורועש בעל ערך פחות.

מה יכולה ארכיטקטורת למידת מכונה איטרטיבית להסיק מכך? שאלפי מקורות החדשות ה"חריגים" הקודמים שזיהתה והדרה בעבר, פתאום מקבלים עדיפות (למרות שפעולה זו תיצור יחס אות לרעש בלתי נשלט, בהתחשב בכמות המאמרים הגבוהה המתפרסמת מדי שנה)? שהנושא עצמו ראוי לשכבת הפעלה יותר מאשר מקור החדשות שממנו הגיע (שבמקרה של נושא פופולרי, היא פעולה מיותרת)...?

יתרה מכך, המערכת עשויה ללמוד שעליה לנוע למעלה או למטה בהיררכיית מימדי הנתונים בחיפוש אחר דפוסים - אם באמת יש כאלה - המרכיבים את מה שסבי העיתונאי המנוח כינה "אף לחדשות", ומגדירים את התכונה. רָאוּי לְפִרסוּם כאיכות נודדת ומופשטת שלא ניתן לחזות אותה במדויק על סמך מקור בלבד, ושניתן לצפות שהיא תשתנה מדי יום.

זיהוי כשלון השערה

בגלל לחץ מכסות, מחלקות אקדמיות יפרסמו לעיתים עבודות שבהן ההשערה המרכזית נכשלה לחלוטין (או כמעט לחלוטין) בבדיקה, גם אם השיטות והממצאים של הפרויקט בכל זאת שווים מעט עניין בפני עצמם.

אכזבות כאלה לרוב אינן מסומנות בסיכומים; במקרים הגרועים ביותר, ניתן להבחין בהשערות מופרכות רק על ידי קריאת גרפי התוצאות. זה לא רק כרוך בהסקת הבנה מפורטת של המתודולוגיה מהמידע המוגבל והמוצק ביותר שהמאמר עשוי לספק, אלא גם ידרוש אלגוריתמים מיומנים לפירוש גרפים שיכולים לפרש באופן משמעותי כל דבר, החל מתרשים עוגה ועד לתרשים פיזור, בהקשר.

מערכת מבוססת NLP שמאמינה בסיכומים אך אינה יכולה לפרש את הגרפים והטבלאות עלולה להתרגש למדי ממאמר חדש, בקריאה ראשונה. לרוע המזל, דוגמאות קודמות של "כישלון נסתר" בעבודות אקדמיות (לצורכי הדרכה) קשות להכליל לדפוסים, שכן "פשע אקדמי" זה הוא בעיקר של השמטה או חוסר דגש, ולכן חמקמק.

במקרה קיצוני, ייתכן שכותב הבינה המלאכותית שלנו יצטרך לאתר ולבדוק נתוני מאגר (למשל מ-GitHub), או לנתח כל חומר משלים זמין, על מנת להבין מה המשמעות של התוצאות מבחינת מטרות המחברים. לכן, מערכת למידת מכונה תצטרך לחצות את המקורות והפורמטים הלא ממופים הרבים המעורבים בכך, מה שהופך את אוטומציה של תהליכי אימות לאתגר ארכיטקטוני מסוים.

תרחישי "קופסה לבנה"

חלק מהטענות המקוממות ביותר המועלות במאמרים על אבטחה המבוססת על בינה מלאכותית מתגלות כדורשות רמות גישה יוצאות דופן ומאוד לא סבירות לקוד המקור או לתשתית המקור - התקפות "קופסה לבנה". בעוד שזה שימושי להסקת מוזרויות שלא היו ידועות קודם לכן בארכיטקטורות של מערכות בינה מלאכותית, זה כמעט אף פעם לא מייצג משטח תקיפה שניתן לנצל באופן מציאותי. לכן, כותב מדעי הבינה המלאכותית יזדקק לגלאי שטויות די טוב כדי לפרק טענות סביב אבטחה להסתברויות לפריסה יעילה.

כותב המדע האוטומטי יזדקק לשגרת NLU יעילה כדי לבודד אזכורים של "קופסה לבנה" לתוך הקשר משמעותי (כלומר, להבחין בין אזכורים להשלכות מרכזיות על המאמר), וליכולת להסיק מתודולוגיית קופסה לבנה במקרים בהם הביטוי אינו מופיע כלל במאמר.

"גוצ'ות" אחרות

מקומות אחרים שבהם חוסר היתכנות וכישלון השערות עלולים להיקבר למדי הם ב... מחקרי אבלציה, אשר מסירים באופן שיטתי אלמנטים מרכזיים מנוסחה או שיטה חדשה כדי לראות אם התוצאות מושפעות לרעה, או אם תגלית "ליבה" היא עמידה. בפועל, מאמרים הכוללים מחקרי אבלציה בדרך כלל בטוחים למדי בממצאיהם, אם כי קריאה מדוקדקת יכולה לעתים קרובות לחשוף "בלוף". במחקר בינה מלאכותית, בלוף זה מסתכם לעתים קרובות ב... יתר על המידה, כאשר מערכת למידת מכונה מציגה ביצועים מצוינים על נתוני המחקר המקוריים, אך נכשלת בהכללה לנתונים חדשים, או פועלת תחת אילוצים אחרים שאינם ניתנים לשחזור.

כותרת סעיף שימושית נוספת לחילוץ שיטתי פוטנציאלי היא מגבלותזהו החלק הראשון שכל כותב מדע (בינה מלאכותית או אנושית) צריך לדלג אליו, מכיוון שהוא יכול להכיל מידע שמבטל את כל ההשערה של המאמר, וקפיצה קדימה אליו יכולה לחסוך שעות עבודה אבודות (לפחות, עבור האדם). תרחיש גרוע יותר כאן הוא שמאמר למעשה מכיל... מגבלות סעיף, אך העובדות ה"מתפשרות" כלולות במקום אחר ביצירה, ולא כאן (או שלא מוערכים מספיק כאן).

הבא בתור הוא עבודה קודמתזה קורה בשלב מוקדם של תבנית Arxiv, ולעתים קרובות מגלה שהמאמר הנוכחי מייצג רק התקדמות קטנה בפרויקט חדשני הרבה יותר, בדרך כלל מ-12-18 החודשים הקודמים. בשלב זה, כותב הבינה המלאכותית יזדקק ליכולת לקבוע האם העבודה הקודמת זכתה להצלחה; האם עדיין יש כאן סיפור? האם העבודה הקודמת חמקה שלא בצדק מתשומת הלב הציבורית בזמן הפרסום? או שמא המאמר החדש הוא רק כתב יד שטחי לפרויקט קודם שסוקר היטב?

הערכת חידוש דריכות ו"טריות"

מלבד תיקון שגיאות בגרסה קודמת, לעתים קרובות גרסה 2 של מאמר מייצגת מעט יותר מאשר המחברים הדוחקים בתשומת הלב שלא קיבלו כאשר גרסה 1 פורסמה. עם זאת, לעתים קרובות מאמר ראוי לביס נוסף, שכן תשומת הלב התקשורתית אולי הוסטה למקום אחר בזמן הפרסום המקורי, או שהעבודה הוסתרה עקב תנועה רבה של הגשות בתקופות של "סימפוזיון" וכנסים צפופים (כגון סתיו וסוף החורף).

תכונה שימושית אחת ב-Arxiv להבחנה בין הפעלה חוזרת היא התג [UPDATED] המצורף לכותרות ההגשה. מערכת ההמלצות הפנימית של כותב הבינה המלאכותית שלנו תצטרך לשקול היטב האם... [מעודכן]=='הסתיים', במיוחד מכיוון שהוא יכול (כנראה) להעריך את הנייר שחומם מחדש הרבה יותר מהר מאשר פריצת דרך מדעית קשה. מבחינה זו, יש לה יתרון בולט על פני בני אדם, הודות למוסכמה למתן שמות שסביר להניח שתישאר בתוקף, לפחות ב-Arxiv.

Arxiv מספק גם מידע בדף הסיכום האם המאמר זוהה כבעל 'מעבר משמעותי' של טקסט עם מאמר אחר (לעתים קרובות של אותם מחברים), ומערכת כתיבה מבוססת בינה מלאכותית יכולה גם לנתח זאת למצב 'כפול/משוחזר' בהיעדר התג [מעודכן].

קביעת דיפוזיה

כמו רוב העיתונאים, כתב המדע המלאכותי המתוכנן שלנו מחפש חדשות שלא מדווחות או שלא מדווחות מספיק, על מנת להוסיף ערך לזרם התוכן שהוא תומך בו. ברוב המקרים, דיווח מחדש על פריצות דרך מדעיות הופיע לראשונה בכלי תקשורת מרכזיים כמו TechCrunch, The Verge ו-EurekaAlert. ואח' חסר טעם, שכן פלטפורמות גדולות כאלה תומכות בתוכן שלהן באמצעות מכונות פרסום מקיפות, מה שמבטיח למעשה רוויה תקשורתית של העיתון.

לכן, כותב הבינה המלאכותית שלנו חייב לקבוע אם הסיפור טרי מספיק כדי שיהיה שווה להמשיך בו.

הדרך הקלה ביותר, תיאורטית, תהיה לזהות עדכניות קישורים נכנסים לדפי המחקר המרכזיים (סיכום, PDF, מדור חדשות באתר המחלקה האקדמית וכו'). באופן כללי, מסגרות שיכולות לספק מידע עדכני על קישורים נכנסים אינן בקוד פתוח או בעלות נמוכה, אך יש להניח שמוציאים לאור גדולים יוכלו לשאת בהוצאות ה-SaaS כחלק ממסגרת הערכת חדשותיות.

בהנחה של גישה כזו, הבינה המלאכותית של כתב המדע שלנו ניצבת בפני הבעיה שמספר רב של כלי תקשורת לדיווחי מדע אל תצטט המאמרים עליהם הם כותבים, אפילו במקרים בהם מידע זה זמין בחינם. אחרי הכל, כלי תקשורת רוצה שדיווח משני יקשר אליו, ולא למקור. מכיוון שבמקרים רבים, הם למעשה קיבלו גישה חסוי או חסוי למחצה למאמר מחקר (ראה כותב מדעי החברה למטה), יש להם תירוץ לא כנה לכך.

לכן, כותב הבינה המלאכותית שלנו יצטרך לחלץ מילות מפתח מעשיות ממאמר ולבצע חיפושים מוגבלים בזמן כדי לקבוע היכן, אם בכלל, הסיפור כבר התפרסם - ולאחר מכן להעריך האם ניתן לפסול כל התפשטות קודמת, או האם הסיפור אכן הסתיים.

לעיתים, מאמרים מספקים חומרי וידאו משלימים ביוטיוב, כאשר 'ספירת הצפיות' יכולה לשמש כמדד לתפוצה. בנוסף, הבינה המלאכותית שלנו יכולה לחלץ תמונות מהמאמר ולבצע חיפושים שיטתיים מבוססי תמונות, כדי לקבוע אם, היכן ומתי תמונות כלשהן פורסמו מחדש.

פסחא ביצים

לפעמים מאמר "יבש" חושף ממצאים בעלי השלכות עמוקות וראויות לפרסום, אך המחברים מזלזלים בהם (או אפילו מתעלמים מהם או מזלזלים בהם), ויתגלו רק על ידי קריאת המאמר כולו וביצוע החישובים.

במקרים נדירים, אני מאמין, הסיבה לכך היא שהמחברים מודאגים הרבה יותר מהקבלה באקדמיה מאשר מהציבור הרחב, אולי משום שהם חשים (לא תמיד באופן שגוי) שהמושגים המרכזיים המעורבים פשוט לא ניתנים לפשט מספיק לצורך צריכה כללית, למרות המאמצים המוגזמים לעתים קרובות של מחלקות יחסי הציבור של המוסדות שלהם.

אבל בערך באותה תדירות, המחברים עשויים להתעלם או להיכשל לראות או להכיר בהשלכות של עבודתם, ופועלים רשמית תחת "הסרה מדעית". לפעמים "ביצי הפסחא" הללו אינן אינדיקטורים חיוביים לעבודה, כפי שצוין לעיל, ועשויות להיות מוסתרות באופן ציני בטבלאות מורכבות של ממצאים.

מעבר לארקסיב

יש לקחת בחשבון שפרמטריזציה של מאמרים על מדעי המחשב לטוקנים וישויות נפרדים תהיה קלה הרבה יותר בתחום כמו Arxiv, המספק מספר 'ווים' עקביים ותבניות לניתוח, ואינו דורש כניסות עבור רוב הפונקציונליות.

לא כל גישה לפרסומי מדע היא בקוד פתוח, ונותר לראות האם (מבחינה מעשית או משפטית) כותב המדע שלנו בתחום הבינה המלאכותית יכול או יפנה להתחמקות מחומות תשלום באמצעות... Sci-Hub; לשימוש באתרי ארכיון כדי למנוע חומות תשלום; והאם זה מעשי לבנות ארכיטקטורות כריית דומים עבור מגוון רחב של פלטפורמות פרסום מדעיות אחרות, שרבות מהן עמידות מבחינה מבנית לחקירה שיטתית.

יש לקחת בחשבון עוד כי אפילו Arxiv יש מגבלות תעריף אשר צפויים להאט את שגרת הערכת החדשות של כותב בינה מלאכותית למהירות "אנושית" יותר.

כותב מדעי הבינה המלאכותית "החברתית"

מעבר לתחום הפתוח והנגיש של Arxiv ופלטפורמות פרסום מדעיות "פתוחות" דומות, אפילו קבלת גישה למאמר חדש ומעניין יכולה להיות אתגר, הכולל איתור ערוץ קשר עבור מחבר ופנייה אליו בבקשה לקרוא את העבודה, ואף לקבל ציטוטים (כאשר לחץ זמן אינו גורם מכריע - מקרה נדיר עבור כתבי מדעי הרוח בימינו).

ייתכן שזה כרוך במעבר אוטומטי בין תחומי מדע ויצירת חשבונות (עליכם להתחבר כדי לחשוף את כתובת הדוא"ל של מחבר המאמר, אפילו ב-Arxiv). ברוב המקרים, לינקדאין היא הדרך המהירה ביותר לקבל תגובה, אך מערכות בינה מלאכותית כיום... אסור ליצור קשר עם חברים.

באשר לאופן שבו חוקרים יקבלו פניות בדוא"ל מכותב מדעי מבוסס בינה מלאכותית - ובכן, כמו בעולם כתיבת המדע המדעית, זה כנראה תלוי בהשפעת הפורום. אם כותב משוער מבוסס בינה מלאכותית מ... קווית אם יצרנו קשר עם סופר שהיה להוט להפיץ את עבודתו, סביר להניח שהוא לא ייתקל בתגובה עוינת.

ברוב המקרים, אפשר לדמיין שהכותב מקווה שחילופי דברים חצי-אוטומטיים אלה יזמנו בסופו של דבר אדם ללולאה, אך לא מעבר לאפשרות שראיונות מעקב באמצעות VOIP יוכלו להיעשות על ידי בינה מלאכותית, לפחות במקרים בהם צפויה כדאיות המאמר להיות מתחת לסף מסוים, וכאשר לפרסום יש מספיק משיכה כדי למשוך השתתפות אנושית בשיחה עם "חוקר בינה מלאכותית".

זיהוי חדשות באמצעות בינה מלאכותית

רבים מהעקרונות והאתגרים המתוארים כאן חלים על פוטנציאל האוטומציה בתחומים אחרים של העיתונות, וכמו תמיד, זיהוי סיפור פוטנציאלי הוא האתגר המרכזי. רוב העיתונאים האנושיים יודו שכתיבת הסיפור בפועל היא רק 10% האחרונים של המאמץ, ושעד שהמקלדת רועשת, העבודה כמעט הסתיימה.

האתגר העיקרי, אם כן, הוא לפתח מערכות בינה מלאכותית שיכולות לזהות, לחקור ולאמת סיפור, בהתבסס על התהפוכות הרבות והסמויות של עולם החדשות, תוך כדי חציית מגוון עצום של פלטפורמות שכבר מוקשחות בפני חקירה וחילוץ, אנושיים או אחרים.

במקרה של דיווח מדעי, למחברי מאמרים חדשים יש אג'נדה אנוכית עמוקה כמו לכל מקור ראשוני פוטנציאלי אחר לסיפור חדשותי, ופירוק התוצר שלהם ידרוש הטמעת ידע קודם על מניעים סוציולוגיים, פסיכולוגיים וכלכליים. לכן, כותב מדעי אוטומטי לכאורה יזדקק ליותר משגרות NLP רדוקטיביות כדי לקבוע היכן החדשות נמצאות כיום, אלא אם כן תחום החדשות מרובד במיוחד, כמו במקרה של מניות, נתוני מגפות, תוצאות ספורט, פעילות סייסמית ומקורות חדשות סטטיסטיים גרידא אחרים.

 

כותב בנושא למידת מכונה, מומחה בתחום סינתזת תמונות אנושיות. ראש מחלקת תוכן מחקר לשעבר ב-Metaphysic.ai.
אתר אישי: martinanderson.ai
איש קשר: [מוגן בדוא"ל]
טוויטר: @manders_ai