Connect with us

ื—ืฉื™ืคืช ืขืจื™ื›ื•ืช AI ืงื˜ื ื•ืช ืืš ืžืฉืžืขื•ืชื™ื•ืช ื‘ื•ื•ื™ื“ืื• ืืžื™ืชื™

ื”ื–ื•ื•ื™ืช ืฉืœ Anderson

ื—ืฉื™ืคืช ืขืจื™ื›ื•ืช AI ืงื˜ื ื•ืช ืืš ืžืฉืžืขื•ืชื™ื•ืช ื‘ื•ื•ื™ื“ืื• ืืžื™ืชื™

mm
Montage of illustrations from the paper 'Detecting Localized Deepfake Manipulations Using Action Unit-Guided Video Representations' (https://arxiv.org/pdf/2503.22121)

בשנת 2019, דובר בית הנבחרים האמריקני, ננסי פלוסי, הייתה המטרה של התקפה מכוונת וישנה יחסית של סוג דיפ-פייק, כאשר וידאו אמיתי שלה עורך כדי לגרום לה להיראות שיכור – אירוע בלתי אמיתי שחולק מיליוני פעמים לפני שהאמת עליו יצאה לאור (ואולי אפילו לאחר שנגרם נזק מסוים להון הפוליטי שלה על ידי אלו שלא התעדכנו בסיפור).

אף על פי שהטעיה הזו דרשה רק עריכה אודיו-ויזואלית פשוטה, ולא AI, היא נותרה דוגמה מרכזית לכך ששינויים עדינים בפלט האודיו-ויזואלי האמיתי יכולים להיות בעלי השפעה הרסנית.

באותה תקופה, סצנת הדיפ-פייק הובלה על ידי מערכות החזרה האוטומטיות המבוססות על אוטו-אנקודר, שהופיעו לראשונה בסוף 2017, ולא השתפרו משמעותית באיכות מאז. מערכות מוקדמות אלו היו מוכרחות להתמודד עם שינויים קטנים אך משמעותיים, או לרדוף אחרי נושאי מחקר מודרניים כגון עריכת ביטוי.

… (התרגום המלא)

ื›ื•ืชื‘ ืขืœ ืœืžื™ื“ืช ืžื›ื•ื ื”, ืžื•ืžื—ื” ืชื—ื•ื ื‘ืกื™ื ืชื–ื” ืฉืœ ืชืžื•ื ื•ืช ืื ื•ืฉื™ื•ืช. ืœืฉืขื‘ืจ ืจืืฉ ืชื•ื›ืŸ ืžื—ืงืจ ื‘- Metaphysic.ai.
ืืชืจ ืื™ืฉื™: martinanderson.ai
ืฆื•ืจ ืงืฉืจ: [email protected]
ื˜ื•ื•ื™ื˜ืจ: @manders_ai