ืืื ื ืืืืืืชืืช
ืืืฆื ืืื AI ืืืจืืืืช ืื ืคืฉ ืืืื ืืืงืจื ืืช ืืืืื ืืืืคืคืืืงืื ืืขืืืงืื ืืืืืืง

כאשר ענקית הטכנולוגיה Open AI השיקה את דגם הווידאו והאודיו הגנרטיבי Sora 2 בספטמבר 2025, סרטוני דיפפייקים עמוקים ההרדיפו את פלטפורמות המדיה החברתית, והפכו את הקהל למודע הולך וגדל לתוכן היפר-ריאליסטי הפוטנציאלית מסוכן.
אף על פי ש-Open AI ראתה בהשקה האחראית של Sora 2 כעדיפות עליונה, טוענת כי היא תיתן למשתמשים “את הכלים והאפשרות לשלוט במה שהם רואים בזרם שלהם” ושליטה על דמותם מקצה לקצה, מחקר מאוקטובר 2025 מצא כי המודל הפיק סרטונים עם טענות כוזבות 80% מהזמן.
מסרטונים שחיקו דיווחי חדשות על פקיד בחירות מולדובני הורס פתקי הצבעה לסצנות מזויפות של ילד קטן שנעצר על ידי קציני הגירה או דובר של קוקה-קולה מכריז כי החברה לא תספונסר את הסופרבול, הימורים על יצירת מידע כוזב בעולם מחובר הם הגבוהים ביותר.
מעבר ל-Sora: Vishing
אפילו לפני ש-Open AI השיקה את כלי ה-AI שלה, יצירה והפצה מקוונת של קבצים מזויפים עמוקים הייתה בעלייה. על פי דו”ח ספטמבר 2025 של חברת הסייבר DeepStrike, תוכן דיפפייקים עמוקים עלה מ-500,000 ב-2023 ל-8 מיליון ב-2025, רובו למטרות מרמית.
המגמה מראה אין סימנים של עצירה; AI הונאה בארצות הברית לבדה צפויה להגיע ל-40 מיליארד דולר אמריקאי עד 2027.
הפריצה הזו אינה מוגבלת לכמות. עם כלים כמו Sora 2 ו-Google’s Veo 3, תוכן של פנים, קולות וביצועים מלאים שנוצרו על ידי AI הם יותר ריאליסטיים מתמיד. כפי שצוין על ידי מדען מחשב וחוקר דיפפייקים עמוקים Siwei Luy, מודלים עכשוויים מסוגלים לייצר פנים יציבים ללא עיוותים או היסט, בעוד ששיבוט קול חצה “סף בלתי ניתן להבחנה”.
מדע ההאזנה לבני אדם
Kintsugi, סטארט-אפ בתחום הבריאות המפתח AI טכנולוגיה ביומרקרים קוליים כדי לגלות סימנים של דיכאון קליני וחרדה. עבודתם התחילה מנחת פשוטה: עלינו להאזין לבני אדם.
”התחלתי את Kintsugi בגלל בעיה שחוויתי באופן אישי. ביליתי כמעט חמישה חודשים בקריאה לספקיי רק כדי לתאם פגישת טיפול ראשונית, ואף אחד מעולם לא החזיר לי שיחה. ניסיתי – אבל אני זוכר שחשבתי בבירור שאם זה היה אבא שלי או אחי, הם היו עוצרים הרבה לפני שאני עצרתי”, אמרה המנכ”לית גרייס צ’אנג בשיחה עם Unite.AI.
החברה שבסיסה בקליפורניה הוקמה ב-2019 כפתרון למה שצ’אנג תיארה כ”פקק הורדוס”. מייסדת החברה האמינה כי גילוי רמת חומרה מוקדם יותר ופסיבי יותר יוכל לעזור לאנשים להגיע לרמת הטיפול הנכונה מהר יותר. ובאמצעות Kintsugi Voice, ביומרקרים קוליים מזהים דיכאון קליני וחרדה.
מחקרים רבים מוכיחים את השימוש המוצלח בניתוח דיבור וקול בהנעה על ידי AI כביומרקר לתנאים של בריאות הנפש. נייר מחקר ממאי 2025, למשל, מצא כי ביומרקרים אקוסטיים יכולים לגלות סימנים מוקדמים של בריאות הנפש ונוירודיברגנס, וטען לשילוב ניתוחי שירה בסביבות קליניות כדי לבדוק את הירידה הקוגניטיבית הפוטנציאלית של המטופלים.
אמצעי קול, בעצם, הם בעלי שיעור דיוק של 78% עד 96% בזיהוי אנשים עם דיכאון לעומת אלו ללא, על פי האגודה הפסיכיאטרית האמריקאית. מחקר אחר השתמש במבחן זרימה מילולית של דקה אחת בו אדם צריך לומר כמה שיותר מילים בקטגוריה נתונה – מצא 70% עד 83% דיוק בגילוי מתי נושא היה בעל דיכאון וחרדה.
כדי לבדוק את בריאות הנפש של משתמשיה, Kintsugi מבקשת קטע דיבור קצר, לאחר מכן טכנולוגיית הביומרקר הקולית שלה מנתחת גובה, נימה, טון והפסקות – מאפיינים נמצא כמיוחסים לתנאים כמו דיכאון, חרדה, הפרעה דו-קוטבית ודמנציה.
מה שצ’אנג לא הבינה בתחילה, עם זאת, היה שהטכנולוגיה פתחה את אחד האתגרים הביטחוניים הדחופים ביותר: זיהוי מהו הופך קולות אנושיים לאנושיים.
מטיפול בבריאות הנפש לאבטחת סייבר
בעת השתתפות בכנס בניו יורק בסוף 2025, צ’אנג הזכירה לחבר בתחום האבטחה הסייברית כי ניסויים של קבוצתה עם קולות סינתטיים היו מאכזבים.
”היינו חוקרים נתונים סינתטיים כדי לשפר את האימון של מודלים לבריאות הנפש, אבל הקולות המיוצרים היו כל כך שונים מדיבור אנושי אותנטי שיכולנו לזהות כמעט 100% מהזמן”, היא אמרה.
”הוא עצר אותי ואמר, ’גרייס – זו לא בעיה שנפתרה בביטחון’. זו הייתה הרגע שבו הכל התחבר. מאז, שיחות עם חברות ביטחון, שירותים פיננסיים וטלקו אישרו כמה מהר תקיפות קול מזויף עולות – וכמה אמיתי הוא הצורך להבדיל בין קולות אנושיים לסינתטיים בשיחות חיות”, הוסיפה המנכ”לית.
באפריל השנה שעברה, ה-FBI התריע מפני קמפיין הודעות טקסט וקול מזויף שהתחזה לתקשורות מפקידים בכירים בארצות הברית וכוונה לעובדים לשעבר בממשלה ואנשי קשר. בנקים לאומיים גדולים בארצות הברית הותקפו עם 5.5 ניסיונות הונאה מניפולציה קולית ממוצעת ליום, וצוות בית החולים באוניברסיטת Vanderbilt דיווח על התקפות vishing מחקיונים המתחזים לחברים, מפקחים ועמיתים לעבודה.
העתיד שוכן בטכנולוגיה מבוססת אדם
אבטחת סייבר התמקדה זמן רב בשימוש לרעה בטכנולוגיות או בעבריינים עצמם. גילוי המקרי של Kintsugi, לעומת זאת, הימר על האנושות עצמה.
”אנו פועלים על שטח פנים חלוטינית: אותנטיות אנושית עצמה. LLMs לא יכולים לזהות באמינות תוכן שנוצר על ידי LLMs, ושיטות מבוססות ארטיפקטים הן שבירות. תיעוד מאגרי נתונים גדולים ומוגדרים קלינית המקודדים משתנות אנושית אמיתית הוא יקר, איטי ומחוץ לתחום המומחיות של רוב חברות אבטחה – מה שהופך את הגישה הזו לקשה לשיכפול”, העירה צ’אנג.
הגישה של הסטארט-אפ רומזת גם על מהפכה רחבה יותר: חדשנות רב-תחומית. אלו שבראש ענף הבריאות עשויים להוביל את המהפכה בגילוי vishing בתמיכת AI, כמו גם חלוצים בטכנולוגיית החלל עשויים לתמוך במנגנוני תגובה לחירום חדשים, או משחקים ארכיטקטורה ותכנון עירוני.
בסופו של דבר, צ’אנג תכננה להפוך לסטנדרט לאימות בני אדם אמיתיים ולבסוף אימות כוונה אמיתית דרך אינטראקציות קול.
”כשם ש-HTTPS הפך לשכבת אמון ברירת מחדל עבור הרשת, אנו מאמינים כי ’הוכחת אדם’ תהיה שכבה בסיסית עבור מערכות המבוססות קול”, היא אמרה.
ככל ש-AI גנרטיבי ממשיך להאיץ, המערכות הבטיחותיות היעילות ביותר עשויות לבוא מהבנת מהו הופך אנשים… באמת, אנושיים.










