ایک حد عبور: جدید AI ماڈلز نے ٹیورنگ ٹیسٹ پاس کیا

مصنوعی ذہانت کا منظرنامہ مسلسل بدل رہا ہے، جس میں ایسے سنگ میل عبور کیے جا رہے ہیں جو کبھی سائنس فکشن کے دائرے تک محدود تھے۔ حال ہی میں ایک ایسی پیشرفت ہوئی ہے جس نے ٹیک کمیونٹی اور اس سے آگے ہلچل مچا دی ہے: دو جدید ترین AI ماڈلز کے بارے میں رپورٹ کیا گیا ہے کہ انہوں نے کامیابی سے Turing Test کی پیچیدگیوں کو عبور کر لیا ہے۔ یہ مشہور معیار، جسے 20ویں صدی کے وسط میں ذہین برطانوی ریاضی دان Alan Turing نے وضع کیا تھا، طویل عرصے سے مشین انٹیلیجنس کے لیے ایک تصوراتی ماؤنٹ ایورسٹ کے طور پر کھڑا رہا ہے – اس بات کا پیمانہ کہ آیا کوئی مشین اتنی قائل کرنے والی گفتگو کر سکتی ہے کہ وہ انسان سے ناقابلِ شناخت ہو جائے۔ یہ خبر کہ OpenAI کا GPT-4.5 اور Meta کا Llama-3.1 ماڈلز مبینہ طور پر اس چوٹی تک پہنچ گئے ہیں، AI کے ارتقاء میں ایک ممکنہ طور پر اہم لمحے کا اشارہ دیتی ہے، جو انسانی ادراک اور مصنوعی صلاحیت کے درمیان بڑھتی ہوئی دھندلی سرحدوں کا از سر نو جائزہ لینے پر مجبور کرتی ہے۔

تاریخی تجربہ: ڈیزائن اور حیران کن نتائج

یہ دعویٰ کہ ان AI سسٹمز نے Turing Test پاس کیا ہے، University of California San Diego میں Cameron R. Jones اور Benjamin K. Bergen کی تحقیق سے سامنے آیا ہے۔ ان کا مطالعہ، جو فی الحال ہم مرتبہ جائزے کی جانچ پڑتال کا منتظر ہے، ایک ایسی طریقہ کار پر مبنی تھا جو Turing کی اصل تجویز کی روح پر سختی سے عمل پیرا ہونے کے لیے ڈیزائن کیا گیا تھا جبکہ جدید سختی کو بھی شامل کیا گیا تھا۔ سادہ، دو فریقوں والے ٹیسٹوں کی حدود کو تسلیم کرتے ہوئے، Jones اور Bergen نے ایک زیادہ چیلنجنگ تین فریقوں والے تعامل کا ماڈل نافذ کیا۔

اس سیٹ اپ میں، ایک انسانی شریک (پوچھ گچھ کرنے والا) بیک وقت پانچ منٹ کی مدت کے لیے الگ الگ، متن پر مبنی گفتگو میں مصروف رہا۔ ایک گفتگو کا ساتھی دوسرا انسان تھا، جبکہ دوسرا AI سسٹم تھا۔ اہم بات یہ ہے کہ پوچھ گچھ کرنے والا اس بات سے بے خبر تھا کہ کون کون ہے۔ پانچ منٹ کے تبادلے کے بعد، پوچھ گچھ کرنے والے کا کام واضح تھا: مشین کی شناخت کرنا۔ یہ ڈھانچہ براہ راست موازنہ پر مجبور کرتا ہے اور اسے صرف یہ پوچھنے سے زیادہ مضبوط تشخیص سمجھا جاتا ہے کہ آیا AI تنہائی میں انسان لگتا ہے۔

اس بات کو یقینی بنانے کے لیے کہ نتائج کسی مخصوص آبادیاتی گروپ کی وجہ سے متاثر نہ ہوں، محققین نے اپنے سیٹ اپ کو دو الگ الگ آبادیوں پر آزمایا:

  1. انڈرگریجویٹ طلباء، جو ایک نوجوان آبادیاتی گروپ کی نمائندگی کرتے ہیں جو عام طور پر ڈیجیٹل کمیونیکیشن سے واقف ہیں۔
  2. پرولفک ورکرز (آن لائن پلیٹ فارمز سے بھرتی کیے گئے)، جو آبادی کے ایک وسیع تر حصے کی نمائندگی کرتے ہیں جو متنوع آن لائن تعاملات کے عادی ہیں۔

اس محتاط نقطہ نظر سے حاصل ہونے والے نتائج حیران کن تھے۔

  • OpenAI کا GPT-4.5 قابل ذکر حد تک قائل کرنے والا ثابت ہوا۔ جب خاص طور پر ایک مخصوص شخصیت اپنانے کی ہدایت دی گئی (اس پر بعد میں مزید بات ہوگی)، تو یہ صرف قائل کرنے والا ہی نہیں تھا؛ یہ اس میں شامل حقیقی انسانوں سے زیادہ قائل کرنے والا تھا۔ پوچھ گچھ کرنے والوں نے GPT-4.5 کو 73% مواقع پر انسانی شریک کے طور پر شناخت کیا۔ یہ اعداد و شمار نہ صرف روایتی 50% پاس کی حد سے نمایاں طور پر تجاوز کرتے ہیں بلکہ اس شرح سے بھی زیادہ ہیں جس پر پوچھ گچھ کرنے والوں نے حقیقی انسانی شراکت داروں کی صحیح شناخت کی۔
  • Meta کا Llama-3.1-405B، ایک اور جدید ترین بڑا لسانی ماڈل، نے بھی متاثر کن کارکردگی کا مظاہرہ کیا۔ اس نے انسان کے طور پر شناخت ہونے میں 56% کامیابی کی شرح حاصل کی، جو مؤثر طریقے سے اس بنیادی کارکردگی سے مطابقت رکھتی ہے جس کی توقع کی جاتی ہے اگر انتخاب بے ترتیب ہوتے (تقریباً 50%) اور انسانی گفتگو کے نمونوں کی نقل کرنے کی مضبوط صلاحیت کا مظاہرہ کیا۔

یہ اعلیٰ کامیابی کی شرحیں تجربے میں شامل بنیادی اور کنٹرول ماڈلز کی کارکردگی کے بالکل برعکس ہیں:

  • GPT-4o، ایک قابل لیکن ممکنہ طور پر کم جدید OpenAI ماڈل، کی جیت کی شرح صرف 21% تھی۔
  • ELIZA، 1960 کی دہائی میں تیار کیا گیا ایک ابتدائی چیٹ بوٹ، ایک کنٹرول کے طور پر کام کرتا تھا۔ اس کی شمولیت اس بات کی تصدیق کے لیے اہم تھی کہ پوچھ گچھ کرنے والے واقعی غیر انسانی ردعمل کی تمیز کر سکتے ہیں جب انہیں کم جدید نظام کا سامنا کرنا پڑتا ہے۔ جیسا کہ توقع تھی، ELIZA نے خراب کارکردگی کا مظاہرہ کیا، زیادہ تر وقت اسے غیر انسانی کے طور پر صحیح شناخت کیا گیا (صرف 23% جیت کی شرح، جو بنیادی طور پر شور کی سطح یا شریک کی غلطی کی پیمائش کرتی ہے)۔

GPT-4.5 اور Llama-3.1 کی کارکردگی کا GPT-4o اور ELIZA کے مقابلے میں نمایاں فرق حالیہ AI کی ترقی میں ہونے والی پیشرفت کو واضح کرتا ہے۔ محققین کا دعویٰ ہے کہ ان کا مطالعہ ‘پہلا مضبوط ثبوت فراہم کرتا ہے کہ کوئی بھی نظام اصل تین فریقوں والا Turing ٹیسٹ پاس کرتا ہے’، یہ دعویٰ، ہم مرتبہ جائزے کے زیر التواء، AI کی تاریخ میں ایک اہم لمحے کی نشاندہی کرتا ہے۔

شخصیت اور پرامپٹنگ کا اہم کردار

تاہم، AI کی فتح کی داستان ایک اہم انتباہ کے ساتھ آتی ہے، جو سرخیوں کے اعداد و شمار کے پیچھے کی باریک حقیقت کو اجاگر کرتی ہے۔ GPT-4.5 اور Llama-3.1 کی متاثر کن کامیابی کی شرحیں ان کی موروثی، ‘آؤٹ آف دی باکس’ صلاحیتوں کے ذریعے نہیں حاصل کی گئیں۔ اس کے بجائے، انسانی پوچھ گچھ کرنے والوں کو دھوکہ دینے کی ان کی صلاحیت مخصوص ہدایات – پرامپٹس – پر بہت زیادہ منحصر تھی جو انہیں تعاملات شروع ہونے سے پہلے دی گئی تھیں۔

محققین نے AI ماڈلز کو ایک احتیاط سے متعین شخصیت اپنانے کی ہدایت دی: ایک نوجوان، قدرے شرمیلا فرد جو انٹرنیٹ کلچر کے بارے میں جانتا ہے۔ یہ مخصوص کردار سازی ان کی کامیابی کی کلید معلوم ہوتی ہے۔ جب وہی جدید AI ماڈلز (GPT-4.5 اور Llama-3.1) کو بغیر اس شخصیت کے پرامپٹ کے ٹیسٹ سے گزارا گیا، تو ان کی کارکردگی نمایاں طور پر گر گئی۔ انسانی پوچھ گچھ کرنے والوں نے انہیں مشینوں کے طور پر بہت زیادہ آسانی سے شناخت کر لیا۔

یہ دریافت کئی وجوہات کی بناء پر انتہائی اہم ہے:

  1. یہ پرامپٹ انجینئرنگ کی طاقت کو واضح کرتی ہے: مؤثر پرامپٹس تیار کرنے کی صلاحیت بڑے لسانی ماڈلز کی صلاحیتوں سے فائدہ اٹھانے کے لیے تیزی سے مرکزی حیثیت اختیار کر رہی ہے۔ یہ مطالعہ ظاہر کرتا ہے کہ پرامپٹنگ صرف AI سے صحیح معلومات حاصل کرنے کے بارے میں نہیں ہے؛ یہ اس کے رویے، لہجے اور ظاہری شخصیت کو ایک مخصوص سیاق و سباق کے مطابق ڈھالنے کے بارے میں بھی ہے۔ یہاں کامیابی کو اتنی ہی مہارت سے پرامپٹنگ کا ثبوت سمجھا جا سکتا ہے جتنا کہ بنیادی AI فن تعمیر کا۔
  2. یہ سوالات اٹھاتی ہے کہ ‘پاس کرنے’ کا کیا مطلب ہے: اگر کوئی AI صرف اس وقت Turing Test پاس کر سکتا ہے جب اسے خاص طور پر ایک خاص قسم کے انسان کی طرح کام کرنے کی تربیت دی گئی ہو، تو کیا یہ واقعی Turing کے اصل چیلنج کی روح پر پورا اترتا ہے؟ یا یہ صرف ماڈل کی لچک اور واضح اسٹیج ہدایات دیے جانے پر جدید نقالی کی اس کی صلاحیت کو ظاہر کرتا ہے؟
  3. یہ موافقت کو ایک کلیدی خصوصیت کے طور پر اجاگر کرتی ہے: جیسا کہ Jones اور Bergen اپنے مقالے میں نوٹ کرتے ہیں، ‘یہ دلیل دی جا سکتی ہے کہ وہ آسانی جس کے ساتھ LLMs کو مختلف منظرناموں کے مطابق اپنے رویے کو ڈھالنے کے لیے پرامپٹ کیا جا سکتا ہے، انہیں اتنا لچکدار بناتی ہے: اور بظاہر انسان کے طور پر پاس ہونے کے قابل بناتی ہے۔’ یہ موافقت بلاشبہ ایک طاقتور خصوصیت ہے، لیکن یہ توجہ موروثی ‘ذہانت’ سے قابل پروگرام کارکردگی کی طرف منتقل کرتی ہے۔

شخصیت پر انحصار یہ بتاتا ہے کہ موجودہ AI، یہاں تک کہ اپنی جدید ترین شکل میں بھی، شاید ایک عمومی، موروثی ‘انسان جیسی’ خوبی کا مالک نہیں ہے بلکہ ہدایت دیے جانے پر مخصوص انسان جیسے ماسک اپنانے میں مہارت رکھتا ہے۔

نقالی سے آگے: حقیقی ذہانت پر سوال

محققین خود اپنے نتائج کی تشریح کو معتدل کرنے میں محتاط ہیں۔ اس مخصوص گفتگو کے ٹیسٹ کو پاس کرنا، یہاں تک کہ سخت حالات میں بھی، خود بخود حقیقی مشین ذہانت، شعور، یا سمجھ کے آغاز کے مترادف نہیں سمجھا جانا چاہیے۔ Turing Test، اگرچہ تاریخی طور پر اہم ہے، بنیادی طور پر ایک محدود سیاق و سباق (ایک مختصر متن کی گفتگو) میں رویے کی ناقابلِ شناختگی کا جائزہ لیتا ہے۔ یہ ضروری نہیں کہ گہری علمی صلاحیتوں جیسے استدلال، عقل سلیم، اخلاقی فیصلے، یا حقیقی خود آگاہی کی جانچ کرے۔

جدید بڑے لسانی ماڈلز (LLMs) جیسے GPT-4.5 اور Llama-3.1 کو انٹرنیٹ سے کھرچے گئے متن اور کوڈ پر مشتمل ناقابل تصور حد تک وسیع ڈیٹا سیٹس پر تربیت دی جاتی ہے۔ وہ نمونوں کی شناخت کرنے، ایک ترتیب میں اگلے لفظ کی پیش گوئی کرنے، اور ایسا متن تیار کرنے میں مہارت رکھتے ہیں جو شماریاتی طور پر انسانی مواصلات سے مشابہت رکھتا ہو۔ جیسا کہ ٹیک ایجوکیشن کمپنی Waye کی بانی Sinead Bovell نے بجا طور پر سوال کیا، ‘کیا یہ مکمل طور پر حیران کن ہے کہ… AI بالآخر ہمیں ‘انسان کی طرح آواز نکالنے’ میں شکست دے گا جب اسے کسی بھی ایک شخص کے پڑھنے یا دیکھنے سے زیادہ انسانی ڈیٹا پر تربیت دی گئی ہے؟’

یہ نقطہ نظر بتاتا ہے کہ AI ضروری نہیں کہ انسان کی طرح ‘سوچ’ رہا ہو بلکہ پیٹرن میچنگ اور تقلید کی ایک ناقابل یقین حد تک جدید شکل تعینات کر رہا ہے، جسے کھربوں الفاظ کی نمائش سے بہتر بنایا گیا ہے جو لاتعداد انسانی گفتگوؤں، مضامین اور تعاملات کی نمائندگی کرتے ہیں۔ لہذا ٹیسٹ میں کامیابی اس کے تربیتی ڈیٹا کے سراسر حجم اور وسعت کی عکاسی کر سکتی ہے بجائے اس کے کہ انسان جیسی ادراک کی طرف کوئی بنیادی چھلانگ ہو۔

نتیجتاً، بہت سے ماہرین، بشمول مطالعہ کے مصنفین، دلیل دیتے ہیں کہ Turing Test، اگرچہ ایک قیمتی تاریخی نشان ہے، اب AI میں بامعنی پیشرفت کی پیمائش کے لیے سب سے موزوں معیار نہیں ہو سکتا۔ ایک بڑھتا ہوا اتفاق رائے ہے کہ مستقبل کی تشخیصات کو زیادہ مطالبہ کرنے والے معیارات پر توجہ مرکوز کرنی چاہیے، جیسے:

  • مضبوطاستدلال: AI کی پیچیدہ مسائل حل کرنے، منطقی نتائج اخذ کرنے، اور وجہ اور اثر کو سمجھنے کی صلاحیت کا جائزہ لینا۔
  • اخلاقی صف بندی: اس بات کا جائزہ لینا کہ آیا AI کے فیصلہ سازی کے عمل انسانی اقدار اور اخلاقی اصولوں سے ہم آہنگ ہیں۔
  • عقل سلیم: AI کی طبعی اور سماجی دنیا کے بارے میں مضمر علم پر گرفت کی جانچ کرنا جسے انسان قدرتی طور پر سمجھتے ہیں۔
  • نئے حالات کے مطابق موافقت: یہ پیمائش کرنا کہ AI اپنے تربیتی ڈیٹا سے نمایاں طور پر مختلف منظرناموں کا سامنا کرنے پر کتنی اچھی کارکردگی کا مظاہرہ کرتا ہے۔

بحث ‘کیا یہ ہماری طرح بات کر سکتا ہے؟’ سے ‘کیا یہ ہماری طرح استدلال، سمجھ، اور ذمہ داری سے برتاؤ کر سکتا ہے؟’ کی طرف منتقل ہو رہی ہے۔

تاریخی تناظر اور پچھلی کوششیں

ایک ایسی مشین بنانے کی جستجو جو Turing Test پاس کر سکے، کئی دہائیوں سے کمپیوٹر سائنسدانوں اور عوام کو مسحور کرتی رہی ہے۔ یہ حالیہ مطالعہ پہلی بار نہیں ہے جب کامیابی کے دعوے سامنے آئے ہیں، حالانکہ پچھلی مثالیں اکثر شکوک و شبہات یا اہلیت کے ساتھ ملی ہیں۔

شاید سب سے مشہور سابقہ دعویٰ Eugene Goostman چیٹ بوٹ 2014 میں شامل تھا۔ اس پروگرام کا مقصد ایک 13 سالہ یوکرینی لڑکے کی نقالی کرنا تھا۔ Alan Turing کی موت کی 60 ویں برسی کے موقع پر ایک مقابلے میں، Goostman پانچ منٹ کی گفتگو کے دوران 33% ججوں کو قائل کرنے میں کامیاب رہا کہ وہ انسان ہے۔ اگرچہ اسے وسیع پیمانے پر Turing Test ‘پاس’ کرنے کے طور پر رپورٹ کیا گیا، یہ دعویٰ متنازعہ تھا۔ بہت سے لوگوں نے دلیل دی کہ 33% کامیابی کی شرح اکثر ضروری سمجھی جانے والی 50% حد سے کم تھی (حالانکہ Turing نے خود کبھی کوئی قطعی فیصد متعین نہیں کیا تھا)۔ مزید برآں، ناقدین نے نشاندہی کی کہ ایک غیر مقامی انگریزی بولنے والے نوجوان کی نقالی کرنے سے گرامر کی غلطیاں اور علم کے خلاء زیادہ قابل معافی لگ سکتے ہیں، ممکنہ طور پر دھوکہ دہی کے لیے معیار کو کم کر دیا گیا ہے۔

Jones اور Bergen کے مطالعے میں ELIZA کی شمولیت قیمتی تاریخی بنیاد فراہم کرتی ہے۔ 1960 کی دہائی میں MIT میں Joseph Weizenbaum کے ذریعہ تیار کردہ، ELIZA سادہ پیٹرن میچنگ اور کلیدی الفاظ کی تبدیلی کا استعمال کرتے ہوئے کام کرتا تھا، اکثر صارف کے بیانات کو سوالات کے طور پر واپس منعکس کرتا تھا (مثلاً، صارف: ‘میں اداس محسوس کر رہا ہوں۔’ ELIZA: ‘آپ اداس کیوں محسوس کر رہے ہیں؟’)۔ اس کی سادگی کے باوجود، کچھ صارفین نے مشہور طور پر اس سے انسان جیسی سمجھ منسوب کی۔ حالیہ، زیادہ سخت تین فریقوں والے ٹیسٹ میں اس کی خراب کارکردگی (23% جیت کی شرح) اس بات کی تصدیق کرتی ہے کہ تجرباتی ڈیزائن ابتدائی نقالی اور جدید LLMs کی جدید گفتگو کی صلاحیتوں کے درمیان فرق کرنے کے لیے کافی حساس تھا۔ ELIZA سے GPT-4.5 تک کا سفر کمپیوٹیشنل طاقت، الگورتھمک نفاست، اور ڈیٹا کی دستیابی میں ایک بہت بڑی چھلانگ کی نمائندگی کرتا ہے۔

انسانی عنصر: پوچھ گچھ کی حکمت عملی اور تاثرات

UC San Diego کا مطالعہ اس بارے میں بھی دلچسپ بصیرت پیش کرتا ہے کہ انسان گفتگو میں مصنوعی پن کو کیسے پہچاننے کی کوشش کرتے ہیں۔ پوچھ گچھ کرنے والوں کی حکمت عملیوں کے تجزیے سے عام طریقوں کا انکشاف ہوا:

  • چھوٹی باتوں میں مشغول ہونا (61% گیمز): روزمرہ کی سرگرمیوں، مشاغل، یا معمولی ذاتی تفصیلات پر بحث کرنا ایک متواتر حربہ ہے، شاید اس مفروضے پر مبنی کہ AI روزمرہ کے انسانی تجربے کی باریکیوں سے نمٹنے میں جدوجہد کر سکتا ہے یا ایک قائل کرنے والی ذاتی تاریخ کا فقدان ہو سکتا ہے۔
  • سماجی اور جذباتی خصوصیات کی جانچ پڑتال (50%): پوچھ گچھ کرنے والوں نے اکثر احساسات، آراء، ہمدردی، یا سماجی سمجھ سے متعلق ردعمل حاصل کرنے کی کوشش کی، یہ وہ شعبے ہیں جو روایتی طور پر منفرد طور پر انسانی سمجھے جاتے ہیں۔
  • عجیب پن کے ساتھ جانچنا: کچھ مؤثر ترین حکمت عملیوں میں معمول کی گفتگو سے انحراف شامل تھا۔ اس میں ردعمل کا اندازہ لگانے کے لیے کوئی عجیب یا غیر متوقع بات کہنا شامل تھا، AI کی نیاپن یا مضحکہ خیزی کو احسن طریقے سے سنبھالنے کی صلاحیت کی جانچ کرنا۔
  • ‘جیل بریکنگ’ کی کوشش: زیادہ تکنیکی طور پر ماہر پوچھ گچھ کرنے والوں نے AI کے حفاظتی پروٹوکول کو نظرانداز کرنے یا اسے مشین کے طور پر اپنی بنیادی نوعیت کو ظاہر کرنے پر مجبور کرنے کے لیے مخصوص پرامپٹس یا سوالات استعمال کرنے کی کوشش کی۔

یہ حکمت عملی بتاتی ہیں کہ انسان اکثر سمجھی جانے والی جذباتی گہرائی، ذاتی داستان میں مستقل مزاجی، اور گفتگو کے غیر متوقع موڑ سے نمٹنے کی صلاحیت پر انسانیت کے نشانات کے طور پر انحصار کرتے ہیں۔

دلچسپ بات یہ ہے کہ GPT-4.5 کی کامیابی، خاص طور پر حقیقی انسانوں کے مقابلے میں بھی اس کی اعلیٰ درجہ بندی، نے اختراعی مفکر John Nosta کو یہ کہنے پر مجبور کیا، ‘ہم مصنوعی ذہانت سے نہیں ہار رہے ہیں۔ ہم مصنوعی ہمدردی سے ہار رہے ہیں۔’ یہ تبصرہ AI کی بڑھتی ہوئی مہارت کی طرف اشارہ کرتا ہے نہ صرف زبان کے نمونوں کی نقل کرنے میں بلکہ انسانی تعامل کی اثر انگیز خصوصیات کی نقالی کرنے میں بھی – ظاہری سمجھ، تشویش، یا مشترکہ احساس کا اظہار کرنا، چاہے یہ الگورتھمک طور پر تیار کیے گئے ہوں بجائے اس کے کہ حقیقی طور پر محسوس کیے گئے ہوں۔ ہمدردانہ آواز والے ردعمل پیدا کرنے کی صلاحیت AI کی صداقت کے بارے میں انسانوں کو قائل کرنے میں ایک طاقتور ذریعہ معلوم ہوتی ہے۔

وسیع تر مضمرات: معیشت، معاشرہ، اور مستقبل

GPT-4.5 اور Llama-3.1 جیسے ماڈلز کے ذریعے Turing Test کے معیار کو کامیابی سے عبور کرنا، یہاں تک کہ پرامپٹنگ کی شرط کے ساتھ، تعلیمی یا تکنیکی دائروں سے کہیں زیادہ مضمرات رکھتا ہے۔ یہ AI میں گفتگو کی روانی اور رویے کی موافقت کی اس سطح کا اشارہ دیتا ہے جو زندگی کے مختلف پہلوؤں کو نمایاں طور پر نئی شکل دے سکتی ہے۔

معاشی خلل: AI کی انسانوں کی طرح بات چیت کرنے کی صلاحیت ملازمتوں کے خاتمے کے بارے میں مزید خدشات کو جنم دیتی ہے۔ وہ کردار جو مواصلات، کسٹمر سروس، مواد کی تخلیق، اور یہاں تک کہ صحبت یا کوچنگ کی بعض شکلوں پر بہت زیادہ انحصار کرتے ہیں، ممکنہ طور پر ان AI سسٹمز کے ذریعے خودکار یا نمایاں طور پر تبدیل کیے جا سکتے ہیں جو قدرتی اور مؤثر طریقے سے گفتگو کر سکتے ہیں۔

سماجی خدشات: AI نقالی کی بڑھتی ہوئی نفاست انسانی تعلقات اور سماجی اعتماد کے لیے چیلنجز پیدا کرتی ہے۔

  • کیا انتہائی قائل کرنے والے AI چیٹ بوٹس کے ساتھ وسیع پیمانے پر تعامل حقیقی انسانی تعلق کی قدر میں کمی کا باعث بن سکتا ہے؟
  • ہم شفافیت کو کیسے یقینی بناتے ہیں، تاکہ لوگ جان سکیں کہ آیا وہ کسی انسان کے ساتھ بات چیت کر رہے ہیں یا AI کے ساتھ، خاص طور پر حساس سیاق و سباق جیسے سپورٹ سروسز یا آن لائن تعلقات میں؟
  • گھوٹالوں، غلط معلومات کی مہموں، یا بدنیتی پر مبنی سماجی انجینئرنگ کے لیے انتہائی قابل یقین ‘ڈیپ فیک’ شخصیات بنانے کے لیے غلط استعمال کا امکان نمایاں طور پر بڑھ جاتا ہے۔

ایجنٹک AI کا عروج: یہ پیشرفت Agentic AI کے وسیع تر رجحان سے ہم آہنگ ہیں – ایسے نظام جو نہ صرف پرامپٹس کا جواب دینے کے لیے ڈیزائن کیے گئے ہیں بلکہ خود مختاری سے اہداف کا تعاقب کرنے، کام انجام دینے، اور ڈیجیٹل ماحول کے ساتھ تعامل کرنے کے لیے بنائے گئے ہیں۔ Microsoft, Adobe, Zoom, اور Slack جیسی کمپنیاں فعال طور پر AI ایجنٹس تیار کر رہی ہیں جن کا مقصد ورچوئل ساتھیوں کے طور پر کام کرنا ہے، میٹنگز کا شیڈول بنانے اور دستاویزات کا خلاصہ کرنے سے لے کر پراجیکٹس کا انتظام کرنے اور صارفین کے ساتھ بات چیت کرنے تک کے کاموں کو خودکار بنانا ہے۔ ایک AI جو گفتگو میں انسان کے طور پر قائل کرنے کے قابل ہو، مؤثر اور مربوط AI ایجنٹس بنانے کے لیے ایک بنیادی عنصر ہے۔

احتیاط کی آوازیں: صف بندی اور غیر متوقع نتائج

AI کی ترقی کے ارد گرد جوش و خروش کے درمیان، ممتاز آوازیں احتیاط پر زور دیتی ہیں، حفاظت اور اخلاقی تحفظات کی اہم اہمیت پر زور دیتی ہیں۔ Florida Atlantic University میں Center for the Future Mind کی بانی ڈائریکٹر Susan Schneider نے ان طاقتور چیٹ بوٹس کی صف بندی کے حوالے سے تشویش کا اظہار کیا۔ ‘بہت افسوس کی بات ہے کہ یہ AI چیٹ بوٹس مناسب طریقے سے منسلک نہیں ہیں،’ انہوں نے خبردار کیا، ممکنہ خطرات کو اجاگر کرتے ہوئے اگر AI کی ترقی ان نظاموں کو محفوظ طریقے سے اور انسانی اقدار کے مطابق چلانے کو یقینی بنانے کی ہماری صلاحیت سے آگے نکل جائے۔

Schneider ایک ایسے مستقبل کی پیش گوئی کرتی ہیں جو چیلنجوں سے بھرا ہو گا اگر صف بندی کو ترجیح نہ دی گئی: ‘پھر بھی، میں پیش گوئی کرتی ہوں: وہ صلاحیتوں میں اضافہ کرتے رہیں گے اور یہ ایک ڈراؤنا خواب ہو گا – ابھرتی ہوئی خصوصیات، ‘گہری جعلی’، چیٹ بوٹ سائبر وارز۔’

  • ابھرتی ہوئی خصوصیات سے مراد غیر متوقع رویے یا صلاحیتیں ہیں جو جدید AI جیسے پیچیدہ نظاموں میں پیدا ہو سکتی ہیں، جو شاید ان کے تخلیق کاروں نے واضح طور پر پروگرام یا متوقع نہ کی ہوں۔
  • ‘گہری جعلی’ تصاویر یا ویڈیوز میں ہیرا پھیری سے آگے بڑھ کر ممکنہ طور پر مکمل طور پر من گھڑت، انٹرایکٹو شخصیات کو شامل کر سکتی ہیں جو بڑے پیمانے پر دھوکہ دہی کے لیے استعمال ہوتی ہیں۔
  • ‘چیٹ بوٹ سائبر وارز’ ایسے منظرناموں کا تصور کرتی ہیں جہاں AI سسٹمز کو ایک دوسرے کے خلاف یا انسانی نظاموں کے خلاف بدنیتی پر مبنی مقاصد کے لیے تعینات کیا جاتا ہے، جیسے بڑے پیمانے پر غلط معلومات یا خودکار سماجی ہیرا پھیری۔

یہ احتیاطی نقطہ نظر اکثر Ray Kurzweil (جن کا Schneider حوالہ دیتی ہیں) جیسے مستقبل پرستوں سے وابستہ زیادہ پرامید تصورات سے بالکل برعکس ہے، جو مشہور طور پر ایک ایسے مستقبل کی پیش گوئی کرتے ہیں جو تیزی سے ترقی کرتی ہوئی AI کے ذریعے، زیادہ تر مثبت طور پر، تبدیل ہو جائے گا جو ایک تکنیکی واحدیت کا باعث بنے گی۔ یہ بحث مصنوعی ذہانت کی ترقی کے اگلے مراحل سے نمٹنے میں شامل گہری غیر یقینی صورتحال اور اعلیٰ داؤ کو واضح کرتی ہے۔ انسانی گفتگو کی قائل کرنے والی نقالی کرنے کی صلاحیت ایک قابل ذکر تکنیکی کارنامہ ہے، لیکن یہ اخلاقی، سماجی، اور وجودی سوالات کا ایک پنڈورا باکس بھی کھولتی ہے جو اس نئے دور میں مزید قدم رکھتے ہوئے محتاط غور و فکر کا مطالبہ کرتے ہیں۔