سوات قائدین
تخلیقی AI کے دور میں اوپن سورس پر دوبارہ غور کرنا

اوپن سورس ماڈل – ایک سافٹ ویئر ڈویلپمنٹ اخلاق جس میں ماخذ کوڈ کو عوامی دوبارہ تقسیم یا ترمیم کے لیے آزادانہ طور پر دستیاب کیا جاتا ہے – طویل عرصے سے اختراع کے لیے ایک اتپریرک رہا ہے۔ آئیڈیل 1983 میں اس وقت پیدا ہوا جب رچرڈ سٹال مین، ایک سافٹ ویئر ڈویلپر، فریٹز پر اپنے بند سورس پرنٹر کے بلیک باکس کی نوعیت سے مایوس ہو گیا۔
اس کے وژن نے مفت سافٹ ویئر کی تحریک کو جنم دیا، جس نے اوپن سورس ایکو سسٹم کے لیے راہ ہموار کی جو آج کے انٹرنیٹ اور سافٹ ویئر کی جدت کو زیادہ طاقت دیتا ہے۔
لیکن یہ 40 سال پہلے تھا۔
آج، جنریٹو AI، اپنے منفرد تکنیکی اور اخلاقی چیلنجوں کے ساتھ، "کھلے پن" کے معنی کو نئی شکل دے رہا ہے، یہ مطالبہ کرتا ہے کہ ہم اوپن سورس پیراڈائم پر نظر ثانی کریں اور اس پر نظر ثانی کریں - اسے ترک کرنے کے لیے نہیں، بلکہ اسے ڈھالنے کے لیے۔
AI اور اوپن سورس فریڈمز
اوپن سورس سافٹ ویئر کی چار بنیادی آزادی - کرنے کی صلاحیت چلائیں، مطالعہ کریں، ترمیم کریں، اور دوبارہ تقسیم کریں۔ کوئی بھی سافٹ ویئر کوڈ - کئی طریقوں سے تخلیقی AI کی نوعیت سے متصادم ہے:
- رن: AI ماڈلز کو اکثر بہت زیادہ انفراسٹرکچر اور کمپیوٹیشنل اخراجات کی ضرورت ہوتی ہے، جو محدود تک رسائی حاصل وسائل کی کمی کی وجہ سے۔
- مطالعہ اور ترمیم کریں: AI ماڈل ناقابل یقین حد تک پیچیدہ ہیں، لہذا ان کو سمجھنا اور تبدیل کرنا کوڈ اور ڈیٹا دونوں تک رسائی کے بغیر جو اسے بتاتا ہے ایک اہم چیلنج ہے۔
- دوبارہ تقسیم: بہت سے AI ماڈلز دوبارہ تقسیم کو محدود کریں ڈیزائن کے لحاظ سے، خاص طور پر وہ لوگ جن کے پاس تربیت یافتہ وزن اور پلیٹ فارم فراہم کنندہ کے ملکیتی ڈیٹاسیٹس ہیں۔
ان بنیادی اصولوں کا کٹاؤ بدنیتی پر مبنی ارادے کی وجہ سے نہیں ہے بلکہ جدید AI سسٹمز کی سراسر پیچیدگی اور لاگت کی وجہ سے ہے۔ درحقیقت، حالیہ برسوں میں جدید ترین AI ماڈلز کی تربیت کے مالی مطالبات میں ڈرامائی طور پر اضافہ ہوا ہے - OpenAI کے GPT-4 نے مبینہ طور پر تربیت کے اخراجات اٹھائے ہیں۔ $ 78 ملین تک, عملے کی تنخواہوں کو چھوڑ کرکل اخراجات کے ساتھ متجاوز 100 ڈالر ڈالر.
"اوپن سورس" AI کی پیچیدگی
واقعی کھلے AI ماڈل کے لیے انفرنس سورس کوڈ، ٹریننگ سورس کوڈ، ماڈل وزن اور ٹریننگ ڈیٹا کی مکمل شفافیت درکار ہوگی۔ تاہم، "اوپن" کے طور پر لیبل لگائے گئے بہت سے ماڈلز صرف انفرنس کوڈ یا جزوی وزن جاری کریں گے، جبکہ دیگر محدود لائسنسنگ پیش کرتے ہیں یا تجارتی استعمال کو مکمل طور پر محدود کرتے ہیں۔
یہ غیر جانبدارانہ کشادگی کھلے ذریعہ کے اصولوں کا بھرم پیدا کرتی ہے، جبکہ عملی طور پر کم پڑتی ہے۔
غور کریں کہ اوپن سورس انیشی ایٹو (OSI) کے ایک تجزیے سے معلوم ہوا ہے کہ کئی مقبول بڑے زبان کے ماڈلز اوپن سورس ہونے کا دعویٰ - بشمول Llama2 اور Llama 3.x (Meta کے ذریعے تیار کردہ)، Grok (X)، Phi-2 (Microsoft)، اور Mixtral (Mistral AI) - ساختی طور پر اوپن سورس اصولوں سے مطابقت نہیں رکھتے۔
پائیداری اور ترغیب کے چیلنجز
زیادہ تر اوپن سورس سافٹ ویئر کمپیوٹ کے لحاظ سے زیادہ لاگت والے انفراسٹرکچر کے بجائے رضاکارانہ یا گرانٹ سے چلنے والی کوششوں پر بنایا گیا تھا۔ دوسری طرف، AI ماڈلز، تربیت اور دیکھ بھال کے لیے مہنگے ہوتے ہیں، اور اخراجات میں اضافہ ہی متوقع ہے۔ Anthropic کے سی ای او، Dario Amodei نے پیش گوئی کی ہے کہ آخرکار اس کی قیمت اتنی ہی ہو سکتی ہے ارب 100 ڈالر ایک جدید ماڈل کو تربیت دینے کے لیے۔
ایک پائیدار فنڈنگ ماڈل یا ترغیباتی ڈھانچے کے بغیر، ڈویلپرز کو بند سورس یا غیر تجارتی لائسنس کے ذریعے رسائی کو محدود کرنے یا مالی تباہی کے خطرے کے درمیان انتخاب کا سامنا کرنا پڑتا ہے۔
"اوپن وزن" اور لائسنسنگ کے بارے میں غلط فہمیاں
AI ماڈل کی رسائی تیزی سے گڑبڑ ہو گئی ہے، بہت سے پلیٹ فارم خود کو "اوپن" کے طور پر مارکیٹنگ کرتے ہوئے ایسی پابندیاں لگاتے ہیں جو بنیادی طور پر حقیقی اوپن سورس اصولوں سے متصادم ہیں۔ یہ "ہاتھ کی نرمی" متعدد طریقوں سے ظاہر ہوتی ہے:
- "کھلے وزن" کا لیبل لگا ہوا ماڈل تجارتی استعمال کو مکمل طور پر ممنوع قرار دے سکتا ہے، انہیں عوام کے دریافت کرنے اور تیار کرنے کے لیے عملی کاروباری ٹولز سے زیادہ علمی تجسس کے طور پر برقرار رکھ سکتا ہے۔
- کچھ فراہم کنندگان پہلے سے تربیت یافتہ ماڈلز تک رسائی کی پیشکش کرتے ہیں لیکن جوش کے ساتھ اپنے تربیتی ڈیٹاسیٹس اور طریقہ کار کی حفاظت کرتے ہیں، جس سے ان کے نتائج کو بامعنی طور پر دوبارہ پیش کرنا یا اس کی تصدیق کرنا ناممکن ہو جاتا ہے۔
- بہت سے پلیٹ فارم دوبارہ تقسیم پر پابندیاں عائد کرتے ہیں جو ڈویلپرز کو اپنی کمیونٹیز کے لیے ماڈلز بنانے یا بہتر کرنے سے روکتے ہیں، چاہے وہ کوڈ تک مکمل طور پر "رسائی" کر سکیں۔
ان مثالوں میں، "تحقیق کے لیے کھلا" صرف "کاروبار کے لیے بند" کے لیے دوہری بات ہے۔ نتیجہ وینڈر لاک اِن کی ایک مضحکہ خیز شکل ہے، جہاں تنظیمیں ایسے پلیٹ فارمز میں وقت اور وسائل لگاتی ہیں جو کھلے عام قابل رسائی دکھائی دیتے ہیں، صرف ایپلی کیشنز کو پیمانے یا تجارتی بنانے کی کوشش کرتے وقت اہم حدود کا پتہ لگانے کے لیے۔
نتیجے میں پیدا ہونے والی الجھن صرف ڈویلپرز کو مایوس نہیں کرتی ہے۔ یہ فعال طور پر AI ماحولیاتی نظام میں اعتماد کو کمزور کرتا ہے۔ یہ اسٹیک ہولڈرز کے درمیان غیر حقیقی توقعات کا تعین کرتا ہے جو معقول طور پر یہ فرض کرتے ہیں کہ "اوپن" AI کا موازنہ اوپن سورس سافٹ ویئر کمیونٹیز سے کیا جا سکتا ہے، جہاں شفافیت، ترمیم کے حقوق اور تجارتی آزادی کو برقرار رکھا جاتا ہے۔
قانونی وقفہ
GenAI کی تیز رفتار ترقی پہلے سے ہی مناسب قانونی فریم ورک کی ترقی کو آگے بڑھا رہی ہے، جس سے املاک دانش کے چیلنجوں کا ایک پیچیدہ جال بن رہا ہے جو پہلے سے موجود خدشات کو گھیرے ہوئے ہے۔
تربیتی ڈیٹا کے استعمال پر پہلا بڑا قانونی میدان جنگ۔ ڈیپ لرننگ ماڈل انٹرنیٹ سے بڑے ڈیٹا سیٹس کا ذریعہ بناتے ہیں، جیسے کہ عوامی طور پر دستیاب تصاویر اور ویب صفحات کا متن۔ اس بڑے پیمانے پر ڈیٹا اکٹھا کرنے نے املاک دانش کے حقوق کے بارے میں شدید بحث کو جنم دیا ہے۔ ٹیک کمپنیوں کا کہنا ہے کہ ان کے AI سسٹم کاپی رائٹ والے مواد کا مطالعہ کرتے ہیں اور ان سے سیکھتے ہیں تاکہ نیا، تبدیلی آمیز مواد تخلیق کیا جا سکے۔ تاہم، کاپی رائٹ کے مالکان کا دعویٰ ہے کہ یہ AI کمپنیاں غیر قانونی طور پر ان کے کاموں کی کاپی کرتی ہیں، جس سے مسابقتی مواد تیار ہوتا ہے جس سے ان کی روزی روٹی کو خطرہ ہوتا ہے۔
AI سے تیار کردہ مشتق کاموں کی ملکیت ایک اور قانونی ابہام کی نمائندگی کرتی ہے۔ کسی کو بھی اس بات کا یقین نہیں ہے کہ AI سے تیار کردہ مواد کی درجہ بندی کیسے کی جائے، سوائے امریکی کاپی رائٹ آفس کے، جس میں کہا گیا ہے کہ "اگر AI مکمل طور پر مواد تیار کرتا ہے، تو اسے کاپی رائٹ کے ذریعے محفوظ نہیں کیا جا سکتا۔"
GenAI کے ارد گرد قانونی غیر یقینی صورتحال - خاص طور پر کاپی رائٹ کی خلاف ورزی، AI سے تیار کردہ کاموں کی ملکیت، اور تربیتی ڈیٹا میں غیر لائسنس یافتہ مواد کے بارے میں - اور بھی زیادہ بھرا ہوا ہے کیونکہ بنیادی AI ماڈلز جیو پولیٹیکل اہمیت کے ٹولز کے طور پر ابھرتے ہیں: اعلیٰ AI صلاحیتوں کو فروغ دینے کے لیے دوڑ لگانے والی قومیں، IP پروٹیکشن کے ساتھ ڈیٹا تک رسائی کی طرف کم مائل ہو سکتی ہیں۔ نقصان
AI دور میں اوپن سورس کو کیا بننا چاہیے۔
GenAI ٹرین پہلے ہی اسٹیشن سے نکل چکی ہے اور سست ہونے کے کوئی آثار نہیں دکھاتے ہیں۔ ہم ایک ایسا مستقبل بنانے کی امید کرتے ہیں جہاں AI بدعت کو روکنے کے بجائے حوصلہ افزائی کرتا ہے۔ اس صورت میں، ٹیک لیڈرز کو ایک ایسے فریم ورک کی ضرورت ہے جو محفوظ اور شفاف تجارتی استعمال کو یقینی بنائے، ذمہ دارانہ جدت کو فروغ دے، ڈیٹا کی ملکیت اور لائسنسنگ کو ایڈریس کرے، اور "اوپن" اور "مفت" میں فرق کرے۔
ایک ابھرتا ہوا تصور، اوپن کمرشل سورس لائسنس، غیر تجارتی استعمال کے لیے مفت رسائی، تجارتی استعمال کے لیے لائسنس یافتہ رسائی، اور ڈیٹا کی اصلیت اور ملکیت کے اعتراف اور احترام کی تجویز دے کر آگے کا راستہ پیش کر سکتا ہے۔
اس نئی حقیقت کو اپنانے کے لیے، اوپن سورس کمیونٹی کو AI کے لیے مخصوص اوپن لائسنسنگ ماڈلز تیار کرنے، ان ماڈلز کو فنڈ دینے کے لیے پبلک پرائیویٹ پارٹنرشپ بنانے، اور شفافیت، حفاظت اور اخلاقیات کے لیے قابل اعتماد معیارات قائم کرنے چاہییں۔
اوپن سورس نے ایک بار دنیا کو بدل دیا۔ جنریٹو AI اسے دوبارہ تبدیل کر رہا ہے۔ کھلے پن کے جذبے کو برقرار رکھنے کے لیے، ہمیں ایک جامع اور پائیدار ماحولیاتی نظام کی تشکیل کے لیے درپیش چیلنجوں سے نمٹنے کے لیے AI کے منفرد تقاضوں کو تسلیم کرتے ہوئے اس کے قانون کے خط کو تیار کرنا چاہیے۔