Connect with us

ืขื“ ื›ืžื” ื•ื›ืžื” ื›ื”ื” ื™ื™ืœืš ื”-Deepfakes?

ืžื ื”ื™ื’ื™ ื“ืขื”

ืขื“ ื›ืžื” ื•ื›ืžื” ื›ื”ื” ื™ื™ืœืš ื”-Deepfakes?

mm

ככל שה-AI משתלב יותר עמוק בחיי היומיום, טכנולוגיית ה-Deepfakes הפכה לדאגה גוברת עבור רבים, במיוחד אלו שאוהבים לשתף רגעים אישיים ברשתות החברתיות. האם זה לילה עם חברים או פיקניק משפחתי בבהאמה, תמונות שמשותפות בפלטפורמות כמו Instagram, Facebook ו-Snapchat אינן בהכרח בטוחות מפני שימוש לרעה פוטנציאלי.

אישה צעירה מקוריאה פנתה לאחרונה לרשתות החברתיות כדי לבטא את מצוקתה על וידאו Deepfakes שנוצר כפעולת נקמה. בווידאו, היא נראתה כאילו היא לא לבושה. היא התחננה בתקיפות להסרת הווידאו המיוצר על ידי AI ודרשה מהיחיד להפסיק את הפצתו.

באוקטובר 2023, דמויות מפורסמות כמו Gayle King, מנחה CBS Mornings, השחקן Tom Hanks ואישיות YouTube MrBeast היו קורבנות של וידאו Deepfakes לא מורשים שהתפשטו ברחבי פלטפורמות המדיה החברתית. וידאו אחר המציג את העיתונאית של CNN Clarissa Ward ליד גבול ישראל-עזה עובד כדי לערער את דיווחיה.

הווידאו האלה, שנוצרו עם טכנולוגיית Deepfakes מתקדמת, הם בעלי היכולת להחליף אנשים בתוכן קיים. טבעם הריאליסטי מטריד, מה שגורם לרבים להאמין באותנטיות שלהם. זה כולל שירים מיוצרים על ידי AI המחקים כוכבים מפורסמים, חלקם הפכו ללהיטים.

אירועים כאלה עוררו דאגות גלובליות לגבי הפוטנציאל להונאה ציבורית, הטרדה וסחיטה, ומדגישים עוד יותר את הפוטנציאל הזדוני של Deepfakes.

למה טכנולוגיית Deepfakes מסוכנת יותר ממה שאתה חושב

עלייה במקרים מטרידים מצביעה על הדחיפות לצעדים פעילים נגד Deepfakes. כרגע, אין חוק אוניברסלי המתייחס ל-Deepfakes או לתוכן מיוצר על ידי AI לא מורשה, אפילו בארצות הברית. בעוד שלא ניתן להכחידם לחלוטין, ניתן לנקוט בצעדים מגינים.

עבור אלו שאינם מכירים, טכנולוגיית Deepfakes מנצלת AI כדי ליצור תמונות, וידאו או קטעי אודיו מזויפים אך ריאליסטיים. טכנולוגיה מוטעית זו זכתה לפרסום סביב 2017 כאשר משתמש אנונימי ב-Reddit הציג אלגוריתם ליצירת וידאו מזויף מציאותי.

אף על פי שתוכנן במקור לבידור, חינוך או אקטיביזם, התקדמות מהירה של AI, בשילוב עם יכולות Deepfakes, מציגה מגוון רחב של דאגות ביטחוניות ואתיות. זה כולל:

  1. הפרת פרטיות: דאגה עיקרית היא שימוש לא מורשה בדמותו של אדם. מקרים בולטים כוללים וידאו Deepfakes למבוגרים של ידוענים, המכתימים את תדמיתם. למשל, ב-2017, וידאו לא הולם שמציג את השחקנית Gal Gadot התפשט רחבת היקף.
  2. מידע כוזב ומניפולציה: Deepfakes יכולים לעוות את האמת, משפיעים על דעת הקהל. דוגמה בולטת היא וידאו Deepfakes המציג את הנשיא לשעבר Obama, שנוצר על ידי BuzzFeed ו-Jordan Peele. אף על פי שנועד כ-PSA נגד מידע כוזב, הוא מדגים את הפוטנציאל לשימוש לרעה בטכנולוגיה.
  1. מרמה וסחיטה: טכנולוגיה זו יכולה לייצר ראיות מזויפות או לרמות דרך שיכפול קול/תמונה. פושעים עשויים להשתמש ב-Deepfakes לסחיטה או אפילו למרמה פיננסית, כפי שנראה כאשר חברת אנרגיה בריטית הוטעתה להעביר סכום משמעותי, אולי דרך קול Deepfakes.
  2. אפליה ואפליה: Deepfakes יכולים לקיים או להגביר את הטרדות החברתיות, ולייצג באופן שגוי דמוגרפיות מסוימות.

Deepfakes: איומים על דמוקרטיה, מערכות יחסים וזהות

בעוד שטכנולוגיית Deepfakes בעצמה אינה בעלת מזיק, השימוש הלא נכון בה יכול להיות הרסני. היא יכולה לעוות תוצאות בחירות, להדק את היחסים האישיים, ולפגוע בזהות האישית, כפי שהוצג בתוכניות בידור כמו “DeepFake Love” ו-“Clickbait” של Netflix.

מחשבות סיום

Deepfakes משנים את התחום הדיגיטלי, פותחים דרכים חדשות ומציגים אתגרים אתיים. היעדר רגולציה גלובלית וכלים אפקטיביים לגילוי הופך את זה לנושא ביקורתי. בעוד שמודעות ציבורית וספרות מדיה הם חלקים חשובים מהפתרון, הם מהווים רק חלק מהפתרון.

חשוב לשאול: האם אנו רואים ב-Deepfakes פלאים טכנולוגיים או איומים על הרווחה האישית והחברתית? השיחה חייבת להמשיך, שכן מודעות קיבוצית ופעולה הם חיוניים במיתון ההשפעות השליליות של טכנולוגיית Deepfakes.

ืื ื™ Haris Amer, ื”ื‘ื—ื•ืจ ืฉืžื ื•ื•ื˜ ืืช ืกืคื™ื ืช ื”ืชื•ื›ืŸ ื‘- SaaSpartners ื•ืžื™ื™ืกื“ ืžืฉื•ืชืฃ ืฉืœ Exploreit. ืชืงื•ืข ื”ื™ื˜ื‘ ื‘ื›ืœ ื”ื“ื‘ืจื™ื ืฉืงืฉื•ืจื™ื ืœ- AI, ื•ืื•ื”ื‘ ืœื—ืคื•ืจ ืœืขื•ืžืง ื”ืคืจื˜ื™ื ืฉืœ ื‘ื™ื ื” ืžืœืื›ื•ืชื™ืช.