سوات قائدین
ڈیپ فیکس اور مصنوعی میڈیا کے نئے دور میں تشریف لے جانا

"جعلی خبر" یاد ہے؟ اس وقت اس اصطلاح کو اس قدر وسیع پیمانے پر استعمال کیا گیا ہے (اور اس کے ساتھ زیادتی کی گئی ہے) کہ یہ یاد رکھنا مشکل ہو سکتا ہے کہ اس کا ابتدائی طور پر کیا حوالہ دیا گیا تھا۔ لیکن تصور کی ایک بہت ہی مخصوص اصل ہے۔ دس سال پہلے، صحافیوں نے سیاست دانوں اور مشہور شخصیات کے بارے میں جھوٹے، اکثر عجیب و غریب دعوے کرنے والی مبینہ "خبروں" کی سائٹس کی آمد کے بارے میں خطرے کی گھنٹی بجانا شروع کردی۔ بہت سے لوگ فوری طور پر بتا سکتے ہیں کہ یہ سائٹیں ناجائز تھیں۔
لیکن بہت سے لوگوں کے پاس اس کو پہچاننے کے لیے اہم آلات کی کمی تھی۔ نتیجہ ایک علمی بحران کی پہلی ہلچل تھی جو اب انٹرنیٹ کو اپنی لپیٹ میں لے رہا ہے - جو کہ اس کے عروج کے ساتھ اپنے سب سے خوفناک مظہر کو پہنچ گیا ہے۔ deepfakes.
یہاں تک کہ قابل گزرنے والے ڈیپ فیک کے آگے، ماضی کی "جعلی خبروں" کی ویب سائٹیں بھی اچھی لگتی ہیں۔ اس سے بھی بدتر بات یہ ہے کہ وہ لوگ بھی جو خود کو میڈیا کی خواندگی کے نسبتاً اعلیٰ درجے کے حامل ہونے کا یقین رکھتے ہیں، بے وقوف بنائے جانے کا خطرہ ہے۔ مصنوعی میڈیا کے استعمال سے بنایا گیا ہے۔ گہری سیکھنے الگورتھم اور پیدا کرنے والا AI ہمارے معاشرے کی بنیادوں کو تباہ کرنے کی صلاحیت رکھتے ہیں۔ ڈیلوئٹ کے مطابق، صرف اس سال وہ جعلی لین دین اور دھوکہ دہی کی دیگر اقسام کے ذریعے کاروبار کو $250 ملین سے زیادہ کا نقصان پہنچا سکتے ہیں۔ دریں اثنا، ورلڈ اکنامک فورم نے ڈیپ فیکس کو "اے آئی کے سب سے زیادہ پریشان کن استعمالوں میں سے ایک" قرار دیا ہے، جس میں الٹرا پرسنلائزڈ (اور الٹرا پرسنلائزڈ) کے نئے اسٹرینز کی سہولت کے لیے "ایجنڈا سے چلنے والے، ریئل ٹائم اے آئی چیٹ بوٹس اور اوتار" کی صلاحیت کی طرف اشارہ کیا گیا ہے۔ مؤثر) ہیرا پھیری
اس مسئلے پر WEF کا تجویز کردہ جواب ایک سمجھدار ہے: وہ ایک "صفر اعتماد ذہنیت"ایک ایسا جو ڈیجیٹل میڈیا کے ساتھ ہر تصادم پر شکوک و شبہات کی ایک ڈگری لاتا ہے۔ اگر ہم آگے بڑھنے والے مستند اور مصنوعی کے درمیان فرق کرنا چاہتے ہیں — خاص طور پر عمیق آن لائن ماحول میں — تو ایسی ذہنیت تیزی سے ضروری ہوگی۔
ڈیپ فیک بحران سے نمٹنے کے لیے دو طریقے
بڑھ چڑھ کر مقابلہ کرنا بے چینی میری رائے میں، مصنوعی ذرائع ابلاغ کے ذریعہ پیدا ہونے والے دو الگ الگ طریقوں کی ضرورت ہوگی۔
پہلے میں توثیق شامل ہے: روزمرہ انٹرنیٹ استعمال کرنے والوں کو یہ تعین کرنے کا ایک آسان طریقہ فراہم کرنا کہ آیا وہ جس ویڈیو کو دیکھ رہے ہیں وہ واقعی مستند ہے۔ اس طرح کے ٹولز پہلے سے ہی انشورنس جیسی صنعتوں میں بڑے پیمانے پر موجود ہیں، جس کی وجہ سے خراب اداکاروں کے جھوٹے دعوے دائر کرنے کی صلاحیت موجود ہے جس کی وجہ سے ڈاکٹروں کی ویڈیوز، تصاویر اور دستاویزات شامل ہیں۔ ان ٹولز کو ڈیموکریٹائز کرنا — انہیں آزاد اور آسان رسائی بنانا — اس لڑائی میں ایک اہم پہلا قدم ہے، اور ہم پہلے ہی اس محاذ پر اہم تحریک دیکھ رہے ہیں۔
دوسرا مرحلہ فطرت میں کم تکنیکی ہے، اور اس طرح ایک چیلنج زیادہ ہے: یعنی بیداری پیدا کرنا اور تنقیدی سوچ کی مہارت کو فروغ دینا۔ اصل "جعلی خبروں" کے اسکینڈل کے بعد، 2015 میں، ملک بھر میں غیر منفعتی اداروں نے میڈیا کی خواندگی کے پروگرام بنائے اور بہترین طریقوں کو پھیلانے کے لیے کام کیا، اکثر مقامی شہری اداروں کے ساتھ جوڑا بنا کر روزمرہ کے شہریوں کو جھوٹ کی نشاندہی کرنے کے لیے بااختیار بنایا جاتا ہے۔ بلاشبہ، پرانے اسکول کی "جعلی خبریں" انتہائی جدید ڈیپ فیکس کے ساتھ بچوں کا کھیل ہے، اسی لیے ہمیں اس محاذ پر اپنی کوششوں کو دوگنا کرنے اور ہر سطح پر تعلیم میں سرمایہ کاری کرنے کی ضرورت ہے۔
اعلی درجے کی ڈیپ فیکس کو جدید تنقیدی سوچ کی ضرورت ہوتی ہے۔
یقیناً، ان تعلیمی اقدامات کو شروع کرنا کسی حد تک آسان تھا جب سوال میں موجود غلط معلومات متن پر مبنی تھیں۔ جعلی خبروں کی سائٹس کے ساتھ، دھوکہ دہی کی واضح نشانیاں اکثر واضح ہوتی ہیں: جنکی ویب ڈیزائن، بڑے پیمانے پر ٹائپنگ، عجیب و غریب سورسنگ۔ ڈیپ فیکس کے ساتھ، نشانیاں بہت زیادہ لطیف ہوتی ہیں اور پہلی نظر میں ان کا نوٹس لینا اکثر ناممکن ہوتا ہے۔
اس کے مطابق، ہر عمر کے انٹرنیٹ صارفین کو ڈیپ فیک انڈیکیٹرز کے لیے ڈیجیٹل ویڈیو کی جانچ پڑتال کے لیے خود کو مؤثر طریقے سے دوبارہ تربیت دینے کی ضرورت ہے۔ اس کا مطلب ہے کہ متعدد عوامل پر پوری توجہ دینا۔ ویڈیو کے لیے، اس کا مطلب غیر حقیقی نظر آنے والے دھندلے علاقے اور سائے ہو سکتے ہیں۔ غیر فطری نظر آنے والی چہرے کی حرکات اور تاثرات؛ بہت کامل جلد ٹن؛ لباس اور نقل و حرکت میں متضاد پیٹرن؛ ہونٹ کی مطابقت پذیری کی خرابیاں؛ نہ ختم ہونے والا۔ آڈیو کے لیے، اس کا مطلب ایسی آوازیں ہو سکتی ہیں جو بہت قدیم آواز (یا واضح طور پر ڈیجیٹائزڈ) ہیں، انسانی جذباتی لہجے کی کمی، تقریر کے عجیب و غریب نمونے، یا غیر معمولی جملہ بازی۔
مختصر مدت میں، اس قسم کی خود تربیت انتہائی مفید ہو سکتی ہے۔ اپنے آپ سے بار بار پوچھنے سے، کیا یہ مشکوک نظر آتا ہے؟، ہم نہ صرف ڈیپ فیکس کا پتہ لگانے کی اپنی صلاحیت کو بلکہ عمومی طور پر اپنی تنقیدی سوچ کی مہارت کو بھی تیز کرتے ہیں۔ اس نے کہا، ہم تیزی سے ایک ایسے مقام پر پہنچ رہے ہیں جہاں پر بہترین تربیت یافتہ آنکھ بھی بیرونی مدد کے بغیر حقیقت کو افسانے سے الگ نہیں کر سکے گی۔ بصری بتاتا ہے کہ مذکورہ بالا بے ضابطگیوں کو تکنیکی طور پر ہموار کر دیا جائے گا، اس طرح کہ مکمل طور پر تیار کردہ کلپس حقیقی مضمون سے الگ نہیں ہو سکیں گے۔ ہمارے پاس جو چیز باقی رہ جائے گی وہ ہے ہماری حالات کی وجدان — اپنے آپ سے سوالات کرنے کی ہماری صلاحیت جیسے کہ کیا فلاں فلاں سیاستدان یا مشہور شخصیت واقعی ایسا کہے گی؟ کیا اس ویڈیو کا مواد قابل فہم ہے؟
یہ اسی تناظر میں ہے کہ اے آئی کا پتہ لگانے والے پلیٹ فارم بہت ضروری ہو گئے ہیں۔ کھلی آنکھوں کو گہری جعلی شناخت کے مقاصد کے لیے غیر متعلقہ قرار دینے کے ساتھ، یہ پلیٹ فارم حقیقت کے حتمی ثالث کے طور پر کام کر سکتے ہیں - علمی انتشار کے خلاف حفاظتی راستے۔ جب کوئی ویڈیو حقیقی نظر آتی ہے لیکن کسی نہ کسی طرح مشکوک معلوم ہوتی ہے — جیسا کہ آنے والے مہینوں اور سالوں میں زیادہ سے زیادہ ہوتا رہے گا — یہ پلیٹ فارمز ہمیں جو کچھ بھی دیکھ رہے ہیں اس کی بنیادی سچائی کی تصدیق کر کے ہمیں حقائق کی بنیاد رکھ سکتے ہیں۔ بالآخر، اس طاقتور ٹیکنالوجی کے ساتھ، واحد چیز جو ہمیں بچا سکتی ہے وہ خود AI ہے۔ ہمیں آگ سے آگ سے لڑنے کی ضرورت ہے — جس کا مطلب ہے کہ ٹیکنالوجی کی بدترین بدسلوکی کو جڑ سے اکھاڑ پھینکنے کے لیے اچھا AI استعمال کرنا۔
واقعی، ان مہارتوں کے حصول کو کسی بھی طرح سے مذموم یا منفی عمل کی ضرورت نہیں ہے۔ زیرو ٹرسٹ مائنڈ سیٹ کو فروغ دینے کے بجائے آپ کی تنقیدی سوچ، وجدان اور بیداری کو تیز کرنے کا ایک موقع سمجھا جا سکتا ہے۔ اپنے آپ سے، بار بار، کچھ اہم سوالات پوچھ کر — کیا یہ معنی رکھتا ہے؟ کیا یہ مشتبہ ہے؟—آپ نہ صرف جعلی میڈیا بلکہ دنیا کی بڑی تحریروں کا مقابلہ کرنے کی اپنی صلاحیت کو بڑھا رہے ہیں۔ اگر ڈیپ فیک دور میں چاندی کی پرت ہے، تو یہ ہے۔ ہمیں اپنے لیے سوچنے اور اپنی روزمرہ کی زندگیوں میں زیادہ تجرباتی بننے پر مجبور کیا جا رہا ہے — اور یہ صرف ایک اچھی چیز ہو سکتی ہے۔