בדל מה הם Deepfakes? - Unite.AI
צור קשר

AI 101

מה הם Deepfakes?

mm
מְעוּדכָּן on

ככל שהזיופים העמוקים הופכים קלים יותר להכנה ופוריים יותר, מוקדשת להם יותר תשומת לב. Deepfakes הפכו למוקד של דיונים הקשורים באתיקה של AI, מידע מוטעה, פתיחות של מידע ואינטרנט ורגולציה. כדאי להיות מעודכן לגבי זיופים עמוקים, ולהיות בעל הבנה אינטואיטיבית של מה זה זיופים עמוקים. מאמר זה יבהיר את ההגדרה של זיוף עמוק, יבחן את מקרי השימוש בהם, ידון כיצד ניתן לזהות זיופים עמוקים, ויבחן את ההשלכות של זיוף עמוק על החברה.

מה הם Deepfakes?

לפני שנמשיך לדון בזיופים עמוקים יותר, זה יהיה מועיל לקחת קצת זמן ולהבהיר מה הם בעצם "זיופים עמוקים".. קיימת כמות ניכרת של בלבול לגבי המונח Deepfake, ולעתים קרובות המונח מיושם באופן שגוי על כל מדיה מזויפת, ללא קשר לשאלה אם זה Deepfake אמיתי או לא. על מנת להתאים כ-Deepfake, המדיה המזויפת המדוברת חייבת להיווצר באמצעות מערכת למידת מכונה, במיוחד רשת עצבית עמוקה.

המרכיב העיקרי בזיופים עמוקים הוא למידת מכונה. למידת מכונה אפשרה למחשבים ליצור אוטומטית וידאו ואודיו במהירות ובקלות יחסית. רשתות עצביות עמוקות מאומנות בצילומים של אדם אמיתי על מנת שהרשת תלמד כיצד אנשים נראים ונעים בתנאי הסביבה היעד. הרשת המאומנת משמשת לאחר מכן על תמונות של אדם אחר ומתגברת בטכניקות גרפיקה ממוחשבת נוספות על מנת לשלב את האדם החדש עם הצילומים המקוריים. נעשה שימוש באלגוריתם מקודד כדי לקבוע את קווי הדמיון בין הפנים המקוריות לפנים היעד. לאחר בידוד התכונות הנפוצות של הפנים, נעשה שימוש באלגוריתם AI שני הנקרא מפענח. המפענח בוחן את התמונות המקודדות (הדחוסות) ומשחזר אותן על סמך התכונות בתמונות המקוריות. נעשה שימוש בשני מפענחים, אחד על פניו של הנבדק המקורי והשני על פניו של אדם היעד. על מנת שההחלפה תתבצע, המפענח שאומן על תמונות של אדם X ניזון מתמונות של אדם Y. התוצאה היא שפניו של אדם Y הם שחזור על הבעות הפנים וההתמצאות של אדם X.

נכון לעכשיו, עדיין לוקח זמן לא מבוטל עד שהזיוף עמוק ייעשה. יוצר הזיוף צריך להשקיע זמן רב בהתאמה ידנית של פרמטרים של הדגם, שכן פרמטרים לא אופטימליים יובילו לפגמים ניכרים ולתקלות תמונה המסתירות את הטבע האמיתי של הזיוף.

למרות שלעתים קרובות מניחים שרוב הזיופים העמוקים נעשים עם סוג של רשת עצבית הנקראת a רשת יריבות יצירתית (GAN), הרבה (אולי רוב) זיופים עמוקים שנוצרו בימים אלה אינם מסתמכים על GANs. בעוד ש-GANs אכן מילאו תפקיד בולט ביצירת זיופים עמוקים מוקדמים, רוב סרטוני ה-deepfake נוצרים בשיטות אלטרנטיביות, לפי Siwei Lyu מ-SUNY Buffalo.

נדרשת כמות גדולה באופן לא פרופורציונלי של נתוני אימון על מנת לאמן GAN, ולעתים קרובות לוקח ל-GAN הרבה יותר זמן לעבד תמונה בהשוואה לטכניקות אחרות ליצירת תמונה. GANs גם טובים יותר ליצירת תמונות סטטיות מאשר וידאו, שכן ל-GANs יש קשיים לשמור על עקביות ממסגרת למסגרת. הרבה יותר נפוץ להשתמש במקודד ובמספר מפענחים כדי ליצור זיופים עמוקים.

למה משמשים Deepfakes?

רבים מהזיופים העמוקים שנמצאו באינטרנט הם פורנוגרפיים באופיים. על פי מחקר שנעשה על ידי Deeptrace, חברת בינה מלאכותית, מתוך מדגם של כ-15,000 סרטונים מזויפים עמוקים שצולמו בספטמבר 2019, כ-95% מהם היו פורנוגרפיים באופיים. השלכה מטרידה של עובדה זו היא שככל שהטכנולוגיה הופכת קלה יותר לשימוש, מקרים של פורנו נקמה מזויף עלולים לעלות.

עם זאת, לא כל הזיופים העמוקים הם פורנוגרפיים באופיים. ישנם שימושים לגיטימיים יותר לטכנולוגיית Deepfake. טכנולוגיית Deep Fake של אודיו יכולה לעזור לאנשים לשדר את הקולות הרגילים שלהם לאחר שהם ניזוקו או אבדו עקב מחלה או פציעה. ניתן להשתמש בזיופים עמוקים גם להסתרת פניהם של אנשים שנמצאים במצבים רגישים שעלולים להיות מסוכנים, ועדיין מאפשרים לקרוא את השפתיים וההבעות שלהם. טכנולוגיית Deepfake עשויה לשמש כדי לשפר את הדיבוב בסרטים בשפה זרה, לסייע בתיקון של מדיה ישנה ופגומה, ואפילו ליצור סגנונות חדשים של אמנות.

Deepfakes ללא וידאו

בעוד שרוב האנשים חושבים על סרטונים מזויפים כשהם שומעים את המונח "דיפפייק", סרטונים מזויפים הם בשום אופן לא הסוג היחיד של מדיה מזויפת המיוצרים בטכנולוגיית deepfake. טכנולוגיית Deepfake משמשת ליצירת זיופי תמונות ושמע גם כן. כפי שהוזכר קודם לכן, משתמשים ב-GAN לעתים קרובות ליצירת תמונות מזויפות. נהוג לחשוב שהיו מקרים רבים של פרופילי לינקדאין ופייסבוק מזויפים שבהם נוצרו תמונות פרופיל באמצעות אלגוריתמים מזויפים עמוקים.

אפשר ליצור גם זיופים עמוקים של אודיו. רשתות עצביות עמוקות מאומנות לייצר שיבוטים/עורות קול של אנשים שונים, כולל סלבריטאים ופוליטיקאים. דוגמה מפורסמת אחת ל-Deepfake אודיו היא כאשר חברת AI Dessa עשה שימוש במודל AI, נתמך על ידי אלגוריתמים שאינם בינה מלאכותית, כדי ליצור מחדש את קולו של מנחה הפודקאסט ג'ו רוגן.

כיצד לזהות Deepfakes

ככל שהזיופים העמוקים יהפכו יותר ויותר מתוחכמים, ההבחנה ביניהם ממדיה אמיתית תהפוך לקשה יותר ויותר. נכון לעכשיו, יש כמה סימנים מעידים אנשים יכולים לחפש כדי לברר אם סרטון וידאו הוא פוטנציאלי של זיוף עמוק, כמו סינכרון שפתיים לקוי, תנועה לא טבעית, הבהוב סביב קצה הפנים ועיוות של פרטים עדינים כמו שיער, שיניים או השתקפויות. סימנים פוטנציאליים נוספים של זיוף עמוק כוללים חלקים באיכות נמוכה יותר של אותו סרטון, ומיצמוץ לא סדיר של העיניים.

למרות שסימנים אלה עשויים לעזור לאחד לזהות זיוף עמוק כרגע, מכיוון שטכנולוגיית Deepfake משפרת האפשרות היחידה לזיהוי Deep Fake אמין עשויה להיות סוגים אחרים של AI המאומנים להבחין בין זיופים למדיה אמיתית.

חברות בינה מלאכותית, כולל רבות מחברות הטכנולוגיה הגדולות, חוקרות שיטות לגילוי זיופים עמוקים. בדצמבר האחרון, החל אתגר זיהוי עמוק של זיוף, שנתמך על ידי שלוש ענקיות טכנולוגיה: אמזון, פייסבוק ומיקרוסופט. צוותי מחקר מרחבי העולם עבדו על שיטות לגילוי זיופים עמוקים, והתחרו על פיתוח שיטות הזיהוי הטובות ביותר. קבוצות אחרות של חוקרים, כמו קבוצה של חוקרים משולבים מגוגל ו-Jigsaw, עובדות על סוג של "זיהוי פלילי פנים" שיכול לזהות סרטונים ששונו, הפיכת מערכי הנתונים שלהם לקוד פתוח ועידוד אחרים לפתח שיטות זיהוי עמוק מזויפות. דסה שהוזכרה לעיל עבדה על חידוד טכניקות זיהוי זיהומים עמוקים, בניסיון להבטיח שדגמי הזיהוי יעבדו על סרטונים עם זיוף עמוק שנמצאו בטבע (באינטרנט) ולא רק על מערכי הדרכה ובדיקות שהוכנו מראש, כמו מערך הנתונים של קוד פתוח Google סיפקה.

יש גם אסטרטגיות אחרות שנחקרים כדי להתמודד עם התפשטות של זיופים עמוקים. לדוגמה, בדיקת התאמה בין סרטונים למקורות מידע אחרים היא אסטרטגיה אחת. ניתן לבצע חיפושים עבור וידאו של אירועים שעשויים לצלם מזוויות אחרות, או שניתן לבדוק את פרטי הרקע של הסרטון (כמו דפוסי מזג אוויר ומיקומים) לאיתור אי-התאמות. מעבר לזה, מערכת ספרי חשבונות מקוונים של Blockchain יכלו לרשום סרטונים כאשר הם נוצרו בהתחלה, להחזיק את האודיו והתמונות המקוריים שלהם כך שתמיד ניתן לבדוק את הסרטונים הנגזרים למניפולציה.

בסופו של דבר, חשוב שייווצרו שיטות אמינות לאיתור זיופים עמוקים וששיטות זיהוי אלה יעמדו בקצב ההתקדמות החדשה ביותר בטכנולוגיית זיוף עמוק. למרות שקשה לדעת בדיוק מה יהיו ההשפעות של זיופים עמוקים, אם אין שיטות מהימנות לזיהוי זיופים עמוקים (וצורות אחרות של מדיה מזויפת), מידע מוטעה עלול להשתולל ולפגוע באמון של אנשים בחברה ובמוסדות.

ההשלכות של Deepfakes

מהן הסכנות של מתן אפשרות לזיוף עמוק להתרבות ללא מעצורים?

אחת הבעיות הגדולות ביותר שזיופים עמוקים יוצרים כיום היא פורנוגרפיה ללא הסכמה, שנוצרה על ידי שילוב של פרצופים של אנשים עם סרטונים ותמונות פורנוגרפיות. אתיקאי בינה מלאכותית חוששים שזיופים עמוקים יראו שימוש רב יותר ביצירת פורנו נקמה מזויף. מעבר לכך, זיופים עמוקים יכולים לשמש כדי להציק ולפגוע במוניטין של כמעט כל אחד, מכיוון שהם יכולים לשמש כדי להכניס אנשים לתרחישים שנויים במחלוקת ומתפשרים.

חברות ומומחי אבטחת סייבר הביעו דאגה לגבי השימוש בזיופים עמוקים כדי להקל על הונאות, הונאה וסחיטה. לכאורה, אודיו מזויף עמוק היה משמש כדי לשכנע עובדים של חברה להעביר כסף לרמאים

יתכן שלזיופים עמוקים יכולים להיות השפעות מזיקות אפילו מעבר לאלו המפורטות לעיל. זיופים עמוקים עלולים לשחוק את האמון של אנשים בתקשורת באופן כללי, ולהקשות על אנשים להבחין בין חדשות אמיתיות לחדשות מזויפות. אם סרטונים רבים באינטרנט מזויפים, קל יותר לממשלות, חברות וגופים אחרים להטיל ספק במחלוקות לגיטימיות ובשיטות לא אתיות.

כשמדובר בממשלות, זיופים עמוקים עשויים אפילו להוות איומים על פעולת הדמוקרטיה. דמוקרטיה מחייבת שאזרחים יהיו מסוגלים לקבל החלטות מושכלות לגבי פוליטיקאים על סמך מידע אמין. מידע מוטעה מערער תהליכים דמוקרטיים. לדוגמה, נשיא גבון, עלי בונגו, הופיע בסרטון שניסה להרגיע את אזרחי גבון. ההנחה הייתה שהנשיא לא טוב במשך תקופה ארוכה של זמן, והופעתו הפתאומית בפנים סרטון מזויף כנראה הניע ניסיון הפיכה. הנשיא דונלד טראמפ טען כי הקלטת אודיו שלו מתרברב בכך שהוא תופס נשים באיברי המין היה מזויף, למרות שתיאר זאת גם כ"דיבור בחדר ההלבשה". גם הנסיך אנדרו טענה שתמונה שסופקה על ידי עורכת הדין של אמילי מאיטיליס הייתה מזויפת, אם כי עורך הדין התעקש על האותנטיות שלו.

בסופו של דבר, בעוד שיש שימושים לגיטימיים לטכנולוגיית Deepfake, ישנם נזקים פוטנציאליים רבים שיכולים לנבוע משימוש לרעה בטכנולוגיה זו. מסיבה זו, חשוב ביותר ששיטות לקביעת האותנטיות של מדיה ייווצרו ויתוחזקו.