ڈیپ سیک کا اوپن اے آئی کی نقل؟

ڈیپ سیک-آر1 کی تربیتی ابتداؤں کا انکشاف

حال ہی میں کاپی لیکس، جو کہ AI ڈیٹیکشن اور گورننس میں مہارت رکھنے والی ایک فرم ہے، کی جانب سے کی جانے والی تحقیق نے اس سوال کا حتمی جواب دیا ہے کہ آیا DeepSeek-R1 نے OpenAI کے ماڈل پر تربیت حاصل کی: ہاں۔ DeepSeek، ایک AI سے چلنے والا چیٹ بوٹ جو مفت دستیاب ہے، اپنی ظاہری شکل، احساس اور فعالیت میں ChatGPT سے حیرت انگیز مماثلت رکھتا ہے۔

فنگر پرنٹنگ تکنیک: مصنف AI کی شناخت

AI سے تیار کردہ متن کی ابتدا پر روشنی ڈالنے کے لیے، محققین نے ایک جدید ٹیکسٹ فنگر پرنٹنگ ٹول تیار کیا۔ یہ ٹول کسی دیے گئے متن کے ٹکڑے کو تیار کرنے والے مخصوص AI ماڈل کا تعین کرنے کے لیے ڈیزائن کیا گیا ہے۔ محققین نے AI سے تیار کردہ ہزاروں نمونوں کے ایک وسیع ڈیٹاسیٹ کا استعمال کرتے ہوئے اس ٹول کو احتیاط سے تربیت دی۔ اس کے بعد، انہوں نے اسے معروف AI ماڈلز کا استعمال کرتے ہوئے آزمایا، اور نتائج غیر واضح تھے۔

حیران کن مماثلت: DeepSeek-R1 اور OpenAI

ٹیسٹنگ سے ایک زبردست اعداد و شمار سامنے آئے: DeepSeek-R1 کے ذریعہ تیار کردہ 74.2 فیصد متن OpenAI کے آؤٹ پٹ کے ساتھ اسلوبیاتی مماثلت رکھتے ہیں۔ یہ مضبوط تعلق اس بات کی سختی سے نشاندہی کرتا ہے کہ DeepSeek نے اپنی تربیتی مرحلے کے دوران OpenAI کے ماڈل کو شامل کیا۔

نقطہ نظر میں ایک تضاد: مائیکروسافٹ کا Phi-4

ایک متضاد نقطہ نظر فراہم کرنے کے لیے، مائیکروسافٹ کے Phi-4 ماڈل پر غور کریں۔ اسی ٹیسٹنگ میں، Phi-4 نے کسی بھی معروف ماڈل کے ساتھ 99.3 فیصد ‘اختلاف’ کا مظاہرہ کیا۔ یہ نتیجہ آزاد تربیت کا ایک زبردست ثبوت ہے، جس کا مطلب ہے کہ Phi-4 کو موجودہ ماڈلز پر انحصار کیے بغیر تیار کیا گیا تھا۔ Phi-4 کی آزاد فطرت اور DeepSeek کی OpenAI سے زبردست مماثلت کے درمیان واضح تضاد مؤخر الذکر کی ظاہری نقل یا کاپی کو واضح کرتا ہے۔

اخلاقی اور املاک دانش کے خدشات

یہ انکشاف DeepSeek-R1 کی OpenAI کے ماڈل سے قریبی مماثلت کے بارے میں سنگین خدشات کو جنم دیتا ہے۔ ان خدشات میں کئی اہم شعبے شامل ہیں، بشمول:

  • ڈیٹا سورسنگ: DeepSeek-R1 کو تربیت دینے کے لیے استعمال ہونے والے ڈیٹا کی ابتدا ایک اہم سوال بن جاتی ہے۔
  • املاک دانش کے حقوق: OpenAI کے املاک دانش کے حقوق کی ممکنہ خلاف ورزی ایک اہم تشویش ہے۔
  • شفافیت: DeepSeek کے تربیتی طریقہ کار کے بارے میں شفافیت کا فقدان اخلاقی سوالات کو جنم دیتا ہے۔

تحقیقی ٹیم اور طریقہ کار

یہ اہم تحقیق کاپی لیکس ڈیٹا سائنس ٹیم نے کی، جس کی سربراہی یہوناتن بٹن، شائی نیسان اور ایلاد بٹن نے کی۔ ان کا طریقہ کار ‘متفقہ جیوری’ کے نقطہ نظر پر مرکوز تھا۔ اس نقطہ نظر میں تین الگ الگ پتہ لگانے والے نظام شامل تھے، جن میں سے ہر ایک کو AI سے تیار کردہ متن کی درجہ بندی کرنے کا کام سونپا گیا تھا۔ ایک حتمی فیصلہ صرف اس وقت کیا گیا جب تینوں نظام متفق ہوں۔

آپریشنل اور مارکیٹ کے مضمرات

اخلاقی اور املاک دانش کے خدشات سے ہٹ کر، غور کرنے کے لیے عملی آپریشنل مضمرات بھی ہیں۔ موجودہ ماڈلز پر غیر ظاہر شدہ انحصار کئی مسائل کا باعث بن سکتا ہے:

  • تعصبات کا استحکام: اصل ماڈل کے اندر موجود تعصبات کو برقرار رکھا جا سکتا ہے۔
  • محدود تنوع: آؤٹ پٹس کا تنوع محدود ہو سکتا ہے، جو جدت کو روکتا ہے۔
  • قانونی اور اخلاقی خطرات: غیر متوقع قانونی یا اخلاقی نتائج پیدا ہو سکتے ہیں۔

مزید برآں، DeepSeek کے ایک انقلابی، کم لاگت والے تربیتی طریقہ کار کے دعوے، اگر OpenAI کی ٹیکنالوجی کی غیر مجاز کشید پر مبنی پائے جاتے ہیں، تو مارکیٹ پر اہم اثرات مرتب ہو سکتے ہیں۔ اس نے NVIDIA کے ایک دن میں 593 بلین ڈالر کے بڑے نقصان میں حصہ ڈالا ہو سکتا ہے اور ممکنہ طور پر DeepSeek کو غیر منصفانہ مسابقتی فائدہ فراہم کیا ہے۔

ایک سخت نقطہ نظر:متعدد درجہ بندی کرنے والوں کو یکجا کرنا

تحقیقی طریقہ کار نے ایک انتہائی سخت نقطہ نظر اپنایا، جس میں تین جدید AI درجہ بندی کرنے والوں کو ضم کیا گیا۔ ان درجہ بندی کرنے والوں میں سے ہر ایک کو چار نمایاں AI ماڈلز سے متن کے نمونوں پر احتیاط سے تربیت دی گئی تھی:

  1. Claude
  2. Gemini
  3. Llama
  4. OpenAI

یہ درجہ بندی کرنے والے اسلوبیاتی باریکیوں کی شناخت کے لیے ڈیزائن کیے گئے تھے، بشمول:

  • جملے کی ساخت: جملوں کے اندر الفاظ اور فقروں کا انتظام۔
  • الفاظ: الفاظ کا انتخاب اور ان کی تعدد۔
  • فقرہ بندی: اظہار کا مجموعی انداز اور لہجہ۔

‘متفقہ جیوری’ کا نظام: درستگی کو یقینی بنانا

‘متفقہ جیوری’ کا نظام طریقہ کار کا ایک اہم عنصر تھا، جو غلط مثبتات کے خلاف ایک مضبوط چیک کو یقینی بناتا ہے۔ اس نظام کا تقاضا تھا کہ تینوں درجہ بندی کرنے والے آزادانہ طور پر کسی درجہ بندی پر متفق ہوں اس سے پہلے کہ اسے حتمی سمجھا جائے۔ اس سخت معیار کے نتیجے میں 99.88 فیصد کی غیر معمولی درستگی کی شرح اور صرف 0.04 فیصد کی انتہائی کم غلط مثبت شرح ہوئی۔ اس نظام نے معروف اور نامعلوم AI ماڈلز دونوں سے متن کی درست شناخت کرنے کی اپنی صلاحیت کا مظاہرہ کیا۔

AI ڈیٹیکشن سے آگے: ماڈل سے متعلق مخصوص انتساب

کاپی لیکس کے چیف ڈیٹا سائنٹسٹ شائی نیسان نے کہا، “اس تحقیق کے ساتھ، ہم عام AI ڈیٹیکشن سے آگے بڑھ چکے ہیں جیسا کہ ہم جانتے تھے اور ماڈل سے متعلق مخصوص انتساب میں داخل ہو چکے ہیں، ایک ایسی پیش رفت جو بنیادی طور پر AI مواد تک ہمارے نقطہ نظر کو تبدیل کرتی ہے۔”

ماڈل انتساب کی اہمیت

نیسان نے اس صلاحیت کی اہمیت پر مزید زور دیا: “یہ صلاحیت متعدد وجوہات کی بناء پر بہت اہم ہے، بشمول مجموعی شفافیت کو بہتر بنانا، اخلاقی AI تربیتی طریقوں کو یقینی بنانا، اور سب سے اہم بات، AI ٹیکنالوجیز کے املاک دانش کے حقوق کا تحفظ کرنا اور امید ہے کہ ان کے ممکنہ غلط استعمال کو روکنا۔”

مزید گہرائی میں جانا: DeepSeek کے نقطہ نظر کے مضمرات

اس تحقیق کے نتائج کے دور رس مضمرات ہیں جو اس فوری سوال سے آگے بڑھتے ہیں کہ آیا DeepSeek نے OpenAI کے ماڈل کی نقل کی ہے۔ آئیے ان میں سے کچھ مضمرات کو مزید تفصیل سے دیکھتے ہیں:

جدت کا وہم

اگر DeepSeek کی تربیت OpenAI کے ماڈل پر بہت زیادہ انحصار کرتی ہے، تو یہ اس کی جدت کی حقیقی حد کے بارے میں سوالات اٹھاتا ہے۔ اگرچہ DeepSeek نے اپنے چیٹ بوٹ کو ایک نئی تخلیق کے طور پر پیش کیا ہو، لیکن بنیادی ٹیکنالوجی ابتدائی طور پر دعویٰ کیے جانے سے کم اہم ہو سکتی ہے۔ یہ ان صارفین اور سرمایہ کاروں کو گمراہ کر سکتا ہے جو یہ سمجھتے ہیں کہ وہ واقعی ایک منفرد AI سسٹم کے ساتھ بات چیت کر رہے ہیں۔

AI لینڈ اسکیپ پر اثر

دوسرے ماڈلز پر تربیت یافتہ AI ماڈلز کو وسیع پیمانے پر اپنانے سے AI لینڈ اسکیپ پر یکسانیت کا اثر پڑ سکتا ہے۔ اگر بہت سے AI سسٹم بالآخر چند بنیادی ماڈلز سے اخذ کیے گئے ہیں، تو یہ فیلڈ میں نقطہ نظر اور نقطہ نظر کے تنوع کو محدود کر سکتا ہے۔ یہ جدت کو روک سکتا ہے اور ایک کم متحرک اور مسابقتی AI ایکو سسٹم کا باعث بن سکتا ہے۔

زیادہ شفافیت کی ضرورت

یہ معاملہ AI ماڈلز کی تیاری اور تعیناتی میں زیادہ شفافیت کی فوری ضرورت کو اجاگر کرتا ہے۔ صارفین اور اسٹیک ہولڈرز یہ جاننے کے حقدار ہیں کہ AI سسٹم کو کیسے تربیت دی جاتی ہے اور کون سے ڈیٹا ذرائع استعمال کیے جاتے ہیں۔ یہ معلومات ان سسٹمز کے ممکنہ تعصبات، حدود اور اخلاقی مضمرات کا جائزہ لینے کے لیے بہت اہم ہے۔

ریگولیشن کا کردار

DeepSeek کیس AI انڈسٹری کے زیادہ ریگولیشن کی ضرورت کے بارے میں بحث کو بھی ہوا دے سکتا ہے۔ حکومتوں اور ریگولیٹری اداروں کو اس بات کو یقینی بنانے کے لیے اقدامات پر غور کرنے کی ضرورت پڑ سکتی ہے کہ AI ڈویلپرز اخلاقی رہنما خطوط پر عمل کریں، املاک دانش کے حقوق کا تحفظ کریں، اور شفافیت کو فروغ دیں۔

AI ڈویلپمنٹ کا مستقبل

DeepSeek کے تربیتی طریقوں کے ارد گرد تنازعہ AI ڈویلپمنٹ کے مستقبل کے بارے میں ایک وسیع تر بحث کے لیے ایک محرک کا کام کر سکتا ہے۔ یہ بہترین طریقوں، اخلاقی غور و فکر، اور AI سسٹمز کی تخلیق میں اصلیت کی اہمیت کا از سر نو جائزہ لینے کا اشارہ دے سکتا ہے۔

ذمہ دار AI ڈویلپمنٹ کا مطالبہ

DeepSeek کیس ذمہ دار AI ڈویلپمنٹ کی اہمیت کی یاد دہانی کا کام کرتا ہے۔ یہ اس کی ضرورت کو واضح کرتا ہے:

  • اصلیت: AI ڈویلپرز کو موجودہ ماڈلز پر بہت زیادہ انحصار کرنے کے بجائے واقعی نئے ماڈل بنانے کی کوشش کرنی چاہیے۔
  • شفافیت: AI سسٹمز کو تیار کرنے کے لیے استعمال ہونے والے تربیتی ڈیٹا اور طریقہ کار کو صارفین اور اسٹیک ہولڈرز کے سامنے ظاہر کیا جانا چاہیے۔
  • اخلاقی غور و فکر: AI ڈویلپمنٹ کو اخلاقی اصولوں کی رہنمائی کرنی چاہیے، بشمول انصاف، جوابدہی، اور املاک دانش کے حقوق کا احترام۔
  • تعاون: AI کمیونٹی کے اندر کھلا تعاون اور علم کا اشتراک جدت کو فروغ دینے اور موجودہ تعصبات کی نقل کو روکنے میں مدد کر سکتا ہے۔

آگے کا راستہ: ایک متنوع اور اخلاقی AI مستقبل کو یقینی بنانا

حتمی مقصد ایک متنوع اور اخلاقی AI ایکو سسٹم بنانا ہونا چاہیے جہاں جدت پھلتی پھولتی ہے اور صارفین ان سسٹمز پر بھروسہ کر سکتے ہیں جن کے ساتھ وہ بات چیت کرتے ہیں۔ اس کے لیے ذمہ دار AI ڈویلپمنٹ کے طریقوں، شفافیت، اور اس تیزی سے ابھرتی ہوئی ٹیکنالوجی کے اخلاقی مضمرات کے بارے میں جاری بات چیت کے عزم کی ضرورت ہے۔ DeepSeek کیس ایک قیمتی سبق کے طور پر کام کرتا ہے، جو موجودہ ماڈلز پر بہت زیادہ انحصار کرنے کے ممکنہ نقصانات کو اجاگر کرتا ہے اور AI کی ترقی کے حصول میں اصلیت اور اخلاقی غور و فکر کی اہمیت پر زور دیتا ہے۔ AI کا مستقبل ان انتخابوں پر منحصر ہے جو ہم آج کرتے ہیں، اور یہ بہت ضروری ہے کہ ہم سب کے لیے فائدہ مند اور مساوی مستقبل کو یقینی بنانے کے لیے ذمہ دار ترقی کو ترجیح دیں۔
Copyleaks کی تحقیقات کے نتائج نے AI ڈویلپمنٹ کے ایک اہم پہلو پر روشنی ڈالی ہے، اور یہ ضروری ہے کہ پوری انڈسٹری اس تجربے سے سیکھے تاکہ ایک زیادہ شفاف، اخلاقی اور اختراعی مستقبل کو فروغ دیا جا سکے۔