ہمارے ساتھ رابطہ

AI اور مالیاتی جرائم کی روک تھام: کیوں بینکوں کو متوازن نقطہ نظر کی ضرورت ہے۔

سوات قائدین

AI اور مالیاتی جرائم کی روک تھام: کیوں بینکوں کو متوازن نقطہ نظر کی ضرورت ہے۔

mm

AI بینکوں کے لیے ایک دو رخی سکہ ہے: جب کہ یہ زیادہ موثر کارروائیوں کے لیے بہت سے امکانات کو کھول رہا ہے، یہ بیرونی اور اندرونی خطرات کا باعث بھی بن سکتا ہے۔

مالی مجرم تیار کرنے کے لیے ٹیکنالوجی کا فائدہ اٹھا رہے ہیں۔ ڈیف فیک ویڈیوز, آوازیں اور جعلی دستاویزات جو ماضی کے کمپیوٹر اور انسانی شناخت حاصل کر سکتے ہیں، یا ای میل کی دھوکہ دہی کی سرگرمیوں کو سپرچارج کر سکتے ہیں۔ ایک حالیہ کے مطابق، صرف امریکہ میں، جنریٹو اے آئی سے دھوکہ دہی کے نقصانات کو 32 فیصد سالانہ ترقی کی شرح تک بڑھانے کی توقع ہے، جو کہ 40 تک 2027 بلین امریکی ڈالر تک پہنچ جائے گی۔ ڈیلوئٹ کی طرف سے رپورٹ.

شاید، پھر، بینکوں کا ردعمل یہ ہونا چاہیے کہ وہ خود کو اور بھی بہتر ٹولز سے مسلح کریں، مالی جرائم کی روک تھام کے لیے AI کا استعمال کریں۔ مالیاتی ادارے درحقیقت انسداد مالیاتی جرائم (AFC) کی کوششوں میں AI کو تعینات کرنا شروع کر رہے ہیں – لین دین کی نگرانی کرنے، مشکوک سرگرمیوں کی رپورٹیں تیار کرنے، خودکار فراڈ کا پتہ لگانے اور مزید بہت کچھ کرنے کے لیے۔ ان میں درستگی میں اضافہ کرتے ہوئے عمل کو تیز کرنے کی صلاحیت ہے۔

مسئلہ یہ ہے کہ جب بینک انسانی فیصلے کے ساتھ AI کے نفاذ کو متوازن نہیں کرتے ہیں۔ لوپ میں انسان کے بغیر، AI کو اپنانا تعمیل، تعصب اور نئے خطرات سے مطابقت کو متاثر کر سکتا ہے۔

ہم مالیاتی شعبے میں AI کو اپنانے کے لیے ایک محتاط، ہائبرڈ نقطہ نظر پر یقین رکھتے ہیں، جس کے لیے انسانی ان پٹ کی ضرورت ہوتی رہے گی۔

قواعد پر مبنی اور AI سے چلنے والے AFC سسٹمز کے درمیان فرق

روایتی طور پر، AFC - اور خاص طور پر اینٹی منی لانڈرنگ (AML) سسٹمز - قواعد و ضوابط کے جواب میں تعمیل کرنے والی ٹیموں کے مقرر کردہ مقررہ اصولوں کے ساتھ کام کرتے ہیں۔ لین دین کی نگرانی کے معاملے میں، مثال کے طور پر، یہ قواعد مخصوص پہلے سے طے شدہ معیار، جیسے کہ لین دین کی رقم کی حد یا جغرافیائی خطرے کے عوامل کی بنیاد پر لین دین کو پرچم لگانے کے لیے لاگو کیے جاتے ہیں۔

AI مالی جرائم کے خطرے کی اسکریننگ کا ایک نیا طریقہ پیش کرتا ہے۔ مشین لرننگ ماڈلز کو ڈیٹا سیٹس کی ایک سیریز کی بنیاد پر مشتبہ نمونوں کا پتہ لگانے کے لیے استعمال کیا جا سکتا ہے جو مسلسل ارتقاء میں ہیں۔ یہ نظام لین دین، تاریخی ڈیٹا، کسٹمر کے رویے، اور سیاق و سباق کے ڈیٹا کا تجزیہ کرتا ہے تاکہ کسی بھی مشکوک چیز کی نگرانی کی جا سکے، جبکہ وقت کے ساتھ سیکھتے ہوئے، موافقت پذیر اور ممکنہ طور پر زیادہ مؤثر جرائم کی نگرانی کی پیشکش کی جاتی ہے۔

تاہم، جب کہ قواعد پر مبنی نظام پیش گوئی اور آسانی سے قابل سماعت ہوتے ہیں، AI سے چلنے والے نظام مبہم فیصلہ سازی کے عمل کی وجہ سے ایک پیچیدہ "بلیک باکس" عنصر متعارف کراتے ہیں۔ بعض رویے کو مشکوک قرار دینے کے لیے اے آئی سسٹم کے استدلال کا پتہ لگانا مشکل ہے، اس لیے کہ بہت سارے عناصر اس میں ملوث ہیں۔ یہ دیکھ سکتا ہے کہ AI پرانے معیار کی بنیاد پر کسی خاص نتیجے پر پہنچتا ہے، یا حقیقت میں غلط بصیرت فراہم کرتا ہے، بغیر اس کا فوری طور پر پتہ لگایا جا سکتا ہے۔ یہ مالیاتی ادارے کی ریگولیٹری تعمیل کے لیے بھی مسائل پیدا کر سکتا ہے۔

ممکنہ ریگولیٹری چیلنجز

مالیاتی اداروں کو سخت ریگولیٹری معیارات پر عمل کرنا ہوگا، جیسے کہ EU اے ایم ایل ڈی۔ اور امریکہ کی بینک سیکیری ایکٹ، جو واضح، قابل شناخت فیصلہ سازی کا حکم دیتا ہے۔ AI سسٹمز، خاص طور پر گہری سیکھنے والے ماڈلز کی تشریح کرنا مشکل ہو سکتا ہے۔

AI کو اپناتے ہوئے جوابدہی کو یقینی بنانے کے لیے، بینکوں کو محتاط منصوبہ بندی، مکمل جانچ، خصوصی تعمیل فریم ورک اور انسانی نگرانی کی ضرورت ہے۔ انسان خودکار فیصلوں کی توثیق کر سکتے ہیں، مثال کے طور پر، جھنڈے والے لین دین کے پیچھے استدلال کی تشریح کر کے، اسے ریگولیٹرز کے لیے قابلِ وضاحت اور قابلِ دفاع بنا کر۔

مالیاتی ادارے بھی استعمال کرنے کے دباؤ میں ہیں۔ قابل وضاحت AI۔ (XAI) ٹولز AI سے چلنے والے فیصلوں کو ریگولیٹرز اور آڈیٹرز کے لیے قابل فہم بنانے کے لیے۔ XAI ایک ایسا عمل ہے جو انسانوں کو ایک AI سسٹم کے آؤٹ پٹ اور اس کے بنیادی فیصلہ سازی کو سمجھنے کے قابل بناتا ہے۔

مجموعی نظریہ کے لیے انسانی فیصلہ درکار ہے۔

AI کو اپنانا خودکار نظاموں کے ساتھ مطمئن ہونے کا راستہ نہیں دے سکتا۔ انسانی تجزیہ کار سیاق و سباق اور فیصلے لاتے ہیں جس کا AI میں فقدان ہے، جس سے پیچیدہ یا مبہم معاملات میں فیصلہ سازی کی اجازت ملتی ہے، جو AFC کی تحقیقات میں ضروری رہتا ہے۔

AI پر انحصار کے خطرات میں غلطیوں کا امکان (مثلاً غلط مثبت، غلط منفی) اور تعصب شامل ہیں۔ AI غلط مثبتات کا شکار ہو سکتا ہے اگر ماڈلز کو اچھی طرح سے ٹیون نہیں کیا گیا ہے، یا انہیں متعصب ڈیٹا پر تربیت دی گئی ہے۔ جب کہ انسان بھی تعصب کا شکار ہیں، لیکن AI کا اضافی خطرہ یہ ہے کہ نظام کے اندر تعصب کی نشاندہی کرنا مشکل ہو سکتا ہے۔

مزید برآں، AI ماڈلز اس ڈیٹا پر چلتے ہیں جو انہیں دیا جاتا ہے - وہ تاریخی رجحانات سے باہر یا حقیقی دنیا کی بصیرت پر مبنی ناول یا نایاب مشکوک نمونوں کو نہیں پکڑ سکتے۔ AI کے ساتھ قواعد پر مبنی نظام کی مکمل تبدیلی AFC کی نگرانی میں اندھی جگہ چھوڑ سکتی ہے۔

تعصب، ابہام یا نیاپن کے معاملات میں، AFC کو ایک سمجھدار نظر کی ضرورت ہے جو AI فراہم نہیں کر سکتا۔ اس کے ساتھ ہی، اگر ہم انسانوں کو اس عمل سے ہٹاتے ہیں، تو یہ آپ کی ٹیموں کی مالیاتی جرائم کے نمونوں، اسپاٹ پیٹرن کو سمجھنے اور ابھرتے ہوئے رجحانات کی نشاندہی کرنے کی صلاحیت کو بری طرح روک سکتا ہے۔ بدلے میں، یہ کسی بھی خودکار نظام کو اپ ٹو ڈیٹ رکھنا مشکل بنا سکتا ہے۔

ایک ہائبرڈ نقطہ نظر: قواعد پر مبنی اور AI سے چلنے والی AFC کا امتزاج

مالیاتی ادارے AI ٹولز کے ساتھ قواعد پر مبنی نقطہ نظر کو یکجا کر سکتے ہیں تاکہ ایک کثیر پرت والا نظام بنایا جا سکے جو دونوں طریقوں کی طاقت کا فائدہ اٹھائے۔ ایک ہائبرڈ نظام AI کے نفاذ کو طویل مدت میں زیادہ درست بنائے گا، اور ابھرتے ہوئے مالی جرائم کے خطرات سے نمٹنے میں شفافیت کی قربانی کے بغیر زیادہ لچکدار بنائے گا۔

ایسا کرنے کے لیے، ادارے AI ماڈلز کو جاری انسانی تاثرات کے ساتھ مربوط کر سکتے ہیں۔ اس لیے ماڈلز کی انکولی تعلیم نہ صرف ڈیٹا پیٹرن کی بنیاد پر بڑھے گی، بلکہ انسانی ان پٹ پر بھی جو اسے بہتر اور متوازن کرتی ہے۔

تمام AI سسٹم برابر نہیں ہیں۔ AI ماڈلز کو آپ کی AFC ٹیموں کے ذریعہ شناخت کردہ ریگولیٹری تبدیلیوں اور نئے خطرے کی انٹیلی جنس پر مبنی باقاعدہ اپ ڈیٹس کے ساتھ، درستگی، انصاف پسندی اور تعمیل کا جائزہ لینے کے لیے مسلسل جانچ سے گزرنا چاہیے۔

خطرے اور تعمیل کے ماہرین کو AI میں تربیت دی جانی چاہیے، یا ٹیم کے لیے ایک AI ماہر کی خدمات حاصل کی جانی چاہئیں، تاکہ یہ یقینی بنایا جا سکے کہ AI کی ترقی اور تعیناتی کو مخصوص چوکیوں کے اندر انجام دیا جائے۔ انہیں AI کے لیے مخصوص تعمیل کا فریم ورک بھی تیار کرنا چاہیے، جس سے تعمیل کرنے والے ماہرین کے لیے ابھرتے ہوئے شعبے میں ریگولیٹری عملداری کا راستہ قائم کرنا چاہیے۔

AI کو اپنانے کے حصے کے طور پر، یہ ضروری ہے کہ تنظیم کے تمام عناصر کو نئے AI ماڈلز کی صلاحیتوں کے بارے میں آگاہ کیا جائے جن کے ساتھ وہ کام کر رہے ہیں، بلکہ ان کی خامیوں (جیسے ممکنہ تعصب) کے بارے میں بھی آگاہ کیا جائے، تاکہ ان کو صلاحیتوں کے بارے میں مزید جاننے والا بنایا جا سکے۔ غلطیاں

سیکیورٹی اور ڈیٹا کے معیار کو محفوظ رکھنے کے لیے آپ کی تنظیم کو کچھ دیگر اسٹریٹجک غور و فکر بھی کرنا چاہیے۔ اعلیٰ معیار، محفوظ ڈیٹا انفراسٹرکچر میں سرمایہ کاری کرنا اور اس بات کو یقینی بنانا ضروری ہے کہ وہ درست اور متنوع ڈیٹا سیٹس پر تربیت یافتہ ہوں۔

AI بینکوں کے لیے ایک خطرہ اور ایک دفاعی آلہ ہے اور رہے گا۔ لیکن انہیں اس طاقتور نئی ٹیکنالوجی کو درست طریقے سے ہینڈل کرنے کی ضرورت ہے تاکہ مسائل کو حل کرنے کی بجائے پیدا ہونے سے بچایا جا سکے۔

گیبریلا بسین ٹیک فرسٹ مالیاتی جرائم کی روک تھام کی تنظیم میں سی ای او ہیں۔ ٹریپٹس2000 سے ایک نورڈک مارکیٹ لیڈر۔ اس کے پاس 20 سال سے زیادہ کا تجربہ ہے جس میں مورگن اسٹینلے اور تھامسن رائٹرز سمیت تنظیموں میں کاروبار کی پیمائش اور خطرات کا انتظام کیا گیا ہے۔