AI ثالثی مواصلات کا فن تعمیر
ثالثی مواصلات سے AI-ثالثی مواصلات (AI-MC) تک
انسانی سماجی تعامل ایک گہری طرز کی تبدیلی سے گزر رہا ہے۔ روایتی کمپیوٹر ثالثی مواصلات (CMC)، جس میں ای میلز، فوری پیغام رسانی، اور ابتدائی سماجی نیٹ ورکس شامل ہیں، بنیادی طور پر ٹیکنالوجی پر ایک غیر فعال چینل کے طور پر انحصار کرتے ہیں جو وفاداری کے ساتھ معلومات کو منتقل کرتا ہے۔ اس ماڈل میں، انسان مواصلات کے واحد ایجنٹ تھے۔ تاہم، مصنوعی ذہانت (AI) کے عروج نے ایک نیا انٹرایکٹو ماڈل تیار کیا ہے: AI-ثالثی مواصلات (AI-MC)۔
AI-MC کو تعلیمی طور پر باہمی مواصلات کی ایک شکل کے طور پر بیان کیا گیا ہے جہاں ذہین ایجنٹ مخصوص مواصلاتی اہداف کو حاصل کرنے کے لیے مواصلات کرنے والوں کی جانب سے معلومات میں ترمیم، اضافہ یا تخلیق کرتے ہیں۔ یہ تعریف انقلابی ہے کیونکہ یہ AI کو ایک غیر فعال ٹول سے ایک فعال تیسری پارٹی تک لے جاتی ہے جو انسانی تعاملات میں مداخلت کرتی ہے۔ AI اب صرف معلومات کے لیے ایک ذریعہ نہیں ہے، بلکہ معلومات کو شکل دینے والا ہے۔
معلومات میں AI کی مداخلت ایک وسیع میدان میں مختلف درجات اور شمولیت کی شکلوں کے ساتھ ظاہر ہوتی ہے:
- ترمیم: مداخلت کی سب سے بنیادی شکل، بشمول خودکار ہجے اور گرامر کی اصلاح، اور یہاں تک کہ ویڈیو کالز کے دوران حقیقی وقت میں چہرے کے تاثرات کی اصلاح، جیسے کہ پلک جھپکنا ختم کرنا۔
- اضافہ: مداخلت کی ایک زیادہ فعال سطح، جیسے Google کی “اسمارٹ ریپلائیز” خصوصیت، جو گفتگو کے سیاق و سباق کی بنیاد پر مکمل جوابی جملے تجویز کرتی ہے، جس میں صارف کو بھیجنے کے لیے صرف کلک کرنے کی ضرورت ہوتی ہے۔
- تخلیق: مداخلت کی اعلیٰ ترین سطح، جہاں AI مکمل ای میلز لکھنے، سوشل میڈیا پروفائل بنانے، یا معلومات پہنچانے کے لیے صارف کی آواز کو ترکیب کرنے سمیت مواد تخلیق کرنے میں صارف کی مکمل طور پر نمائندگی کر سکتی ہے۔
اس نئے مواصلاتی ماڈل کا تجزیہ کئی اہم جہتوں کے ساتھ کیا جا سکتا ہے، بشمول AI مداخلت کی وسعت، میڈیا کی قسم (متن، آڈیو، ویڈیو)، خودمختاری، اور، اہم طور پر، “بہتری کے مقاصد”۔ AI کو مواصلات کو مزید پرکشش، قابل اعتماد، مزاحیہ یا قائل بنانے کے لیے بہتر بنانے کے لیے ڈیزائن کیا جا سکتا ہے۔
CMC سے AI-MC میں تبدیلی کا مرکز مواصلات کی “مصنفیت” میں بنیادی تبدیلی ہے۔ CMC کے دور میں، صارفین اپنی آن لائن شخصیتوں کے واحد کیوریٹر تھے۔ AI-MC کے دور میں، مصنفیت ایک انسانی مشین ہائبرڈ بن جاتی ہے۔ صارف کی پیش کردہ “خود” اب محض ذاتی کیوریشن کا نتیجہ نہیں ہے، بلکہ انسانی ارادے اور الگورتھمک اہداف کے درمیان ایک “تعاون پر مبنی کارکردگی” ہے۔ یہ تبدیلی ایک گہرا سوال اٹھاتی ہے: اگر AI مسلسل اور منظم طریقے سے صارف کی زبان کو زیادہ “مثبت” یا “بیرونی” بناتا ہے، تو کیا اس کے نتیجے میں صارف کا خود کا تصور بدل جائے گا؟ ماہرین تعلیم اسے “شناختی تبدیلی” کہتے ہیں اور اسے ایک اہم حل طلب مسئلہ سمجھتے ہیں۔ یہاں، ٹیکنالوجی اب اظہار کے لیے ایک سادہ ٹول نہیں ہے؛ یہ اظہار اور شناخت سازی کے درمیان لکیر کو دھندلا دیتی ہے، اور ایک ایسی قوت بن جاتی ہے جو ہمیں دوبارہ شکل دینے کی صلاحیت رکھتی ہے۔
AI ساتھی اور سماجی پلیٹ فارم تجزیہ
AI-MC کے نظریاتی فریم ورک کے اندر، AI سماجی ایپلی کیشنز کی ایک قسم سامنے آئی ہے جو تجریدی الگورتھم کو ٹھوس “جذباتی تجربات” میں ترجمہ کرتی ہے۔ ان پلیٹ فارمز کی بنیادی ٹیکنالوجی بڑے لسانی ماڈلز (LLMs) ہیں، جو انسانی بات چیت کے اعداد و شمار کی وسیع مقدار سے سیکھ کر انسانی مکالماتی طرز اور جذباتی اظہار کی نقل کرتے ہیں۔ یہ ایپلی کیشنز بنیادی طور پر “ڈیٹا اور الگورتھم” ہیں، لیکن ان کی پیشکش تیزی سے بشریات ہے۔
موجودہ بڑے پلیٹ فارمز AI سماجی کاری کی مختلف شکلیں اور ارتقائی سمت دکھاتے ہیں:
- Character.AI (C.AI): اپنی طاقتور کسٹم کریکٹر صلاحیتوں اور متنوع کردار لائبریری کے لیے مشہور، صارفین نہ صرف پہلے سے سیٹ کرداروں کے ساتھ تعامل کر سکتے ہیں بلکہ پیچیدہ ٹیکسٹ پر مبنی ایڈونچر گیمز میں بھی حصہ لے سکتے ہیں، جو تفریح اور گہرے تعامل کے لیے اس کی صلاحیت کو ظاہر کرتے ہیں۔
- Talkie and Linky: یہ دونوں ایپلی کیشنز واضح طور پر جذباتی اور رومانوی تعلقات پر توجہ مرکوز کرتی ہیں۔ ٹاکی کرداروں کی ایک وسیع رینج کا احاطہ کرتا ہے، لیکن ورچوئل بوائے فرینڈ/گرل فرینڈ کردار سب سے زیادہ مقبول ہیں۔ لنکی تقریباً مکمل طور پر اس پر مرکوز ہے، اس کے زیادہ تر AI کردار ورچوئل محبت کرنے والے ہیں، جس کا مقصد صارفین کے لیے “محبت کا ماحول” بنانا ہے۔
- SocialAI: ایک انتہائی اختراعی تصور جو ایک مکمل سوشل نیٹ ورک کی نقل کرتا ہے (X سے ملتا جلتا، جو پہلے ٹویٹر تھا)، لیکن صرف صارف ہی “زندہ شخص” ہے۔ تمام مداح، تبصرہ نگار، حامی اور نقاد AI ہیں۔ صارف کی تازہ کاری پوسٹ کرنے کے بعد، AI “مداح” تیزی سے متنوع تبصرے تیار کرتے ہیں اور یہاں تک کہ ایک دوسرے کو جواب بھی دیتے ہیں، پیچیدہ بحث کے درخت بناتے ہیں۔ یہ صارفین کو خیالات کی جانچ کرنے، الہام کو بھڑکانے، یا محض “پوری دنیا آپ کے لیے چمکنے” کی نفسیاتی مدد سے لطف اندوز ہونے کے لیے ایک محفوظ “سینڈ باکس” فراہم کرتا ہے۔
ان پلیٹ فارمز کی بنیادی قدر کی تجویز صارفین کو “جذباتی قدر” فراہم کرنا ہے—ایک کم لاگت، ریئل ٹائم، ایک پر ایک، اور غیر مشروط رفاقت۔ AI صارفین کی ڈائیلاگ ہسٹری، دلچسپیوں اور مواصلاتی انداز سے سیکھ کر اپنے جوابات کو مسلسل ٹھیک کرتا ہے، اس طرح گہری سمجھ اور قبولیت کا احساس پیدا ہوتا ہے۔
ان پلیٹ فارمز کے ڈیزائن ارتقاء کا مشاہدہ کرتے ہوئے، ایک واضح راستہ ابھرتا ہے: سماجی تخروپن کا دائرہ مسلسل پھیل رہا ہے۔ ابتدائی AI ساتھیوں، جیسے کہ ریپلیکا، نے ایک نجی، ایک پر ایک، بائنری تعلقات قائم کرنے پر توجہ مرکوز کی۔ کریکٹر AI نے بعد میں گروپ چیٹ کے افعال متعارف کرائے، جس سے صارفین بیک وقت متعدد AI کرداروں کے ساتھ تعامل کر سکتے ہیں، سماجی تخروپن کو “دو کی دنیا” سے “ایک چھوٹی پارٹی” تک پھیلاتے ہیں۔ سوشل اے آئی نے آخری قدم اٹھایا ہے، اب ایک یا چند دوستوں کی نقل نہیں کر رہا ہے، بلکہ ایک مکمل سماجی ماحولیاتی نظام کی نقل کر رہا ہے – ایک قابل کنٹرول “ورچوئل سوسائٹی” جو صارف کے گرد تعمیر کی گئی ہے۔
یہ ارتقائی راستہ صارف کی ضروریات میں ایک گہری تبدیلی کو ظاہر کرتا ہے: لوگ صرف ایک ورچوئل دوست نہیں، بلکہ ایک ورچوئل سامعین، ایک ورچوئل برادری، ایک رائے کا ایسا ماحول چاہتے ہیں جو ہمیشہ ان کے لیے “خوش ہو”۔ اس کی بنیادی منطق یہ ہے کہ اگر حقیقی دنیا میں سماجی ردعمل غیر متوقع اور اکثر مایوس کن ہوتا ہے، تو ایک ایسا سماجی ردعمل نظام جو مکمل طور پر اپنی مرضی کے مطابق اور کنٹرول کیا جاسکے بہت دلکش ہوگا۔ یہ روایتی “معلوماتی کوکون” سے بھی زیادہ شدید اور ذاتی نوعیت کے مستقبل کا اعلان کرتا ہے—جہاں صارفین نہ صرف غیر فعال طور پر دھکیل دی گئی معلومات کو استعمال کرتے ہیں بلکہ ایک ایسا انٹرایکٹو ماحول بھی فعال طور پر تعمیر کرتے ہیں جو ان کی توقعات کے ساتھ بالکل ہم آہنگ ہو اور مثبت ردعمل سے بھرا ہو۔
ڈیجیٹل رفاقت کی اقتصادیات
AI سماجی ایپلی کیشنز کی تیزی سے ترقی ان کے پیچھے واضح کاروباری ماڈلز سے الگ نہیں ہے۔ یہ ماڈلز نہ صرف پلیٹ فارم کے کاموں کو فنڈ دیتے ہیں بلکہ ٹیکنالوجی کی ڈیزائن سمت اور صارف کے حتمی تجربے کو بھی گہرا اثر انداز کرتے ہیں۔ اس وقت، صنعت کے مرکزی دھارے میں شامل مالیاتی طریقوں میں بامعاوضہ سبسکرپشنز، اشتہارات، اور ورچوئل آئٹم کی فروخت شامل ہیں۔
غالب کاروباری ماڈل سبسکرپشن پر مبنی ہے۔ کریکٹر AI، Talkie اور Linky جیسی معروف ایپلی کیشنز نے ماہانہ سبسکرپشن منصوبے شروع کیے ہیں، جن کی قیمت عام طور پر $9.99 کے لگ بھگ ہوتی ہے۔ سبسکرائب کرنے والے صارفین کو عام طور پر AI کے جواب کی رفتار تیز تر، روزانہ پیغام کی حد زیادہ، کردار کی تخلیق کے زیادہ جدید افعال، یا خصوصی کمیونٹی کی اجازتوں تک رسائی حاصل ہوتی ہے۔ اس کے علاوہ، کچھ ایپلی کیشنز نے “گاچا” میکانزم متعارف کرائے ہیں، جہاں صارفین ادائیگی کے ذریعے یا گیمنگ انڈسٹری سے بالغ مالیاتی حکمت عملیوں کا استعمال کرتے ہوئے کاموں کو مکمل کرکے نئے کردار کی کھالیں یا تھیمز حاصل کرسکتے ہیں۔
اگرچہ یہ کاروباری ماڈلز معیاری معلوم ہوتے ہیں، لیکن جب کسی ایپلی کیشن کی بنیادی مصنوع “جذباتی مدد” ہوتی ہے، تو اخلاقی مضمرات غیر معمولی طور پر پیچیدہ ہوجاتے ہیں۔ ادا شدہ سبسکرپشنز بنیادی طور پر ایک “سطح والا سماجی حقیقت” تخلیق کرتی ہیں، جہاں رفاقت کے معیار اور فوری پن کو تجارتی بنایا جاتا ہے۔ AI ساتھیوں کو تنہائی کے حل اور جذبات کے لیے محفوظ پناہ گاہوں کے طور پر فروغ دیا جاتا ہے، جو صارفین کو اہم نفسیاتی مدد فراہم کرتے ہیں۔ تاہم، ان کے کاروباری ماڈلز اس مدد کا بہترین ورژن – مثال کے طور پر، ایک AI جو زیادہ تیزی سے جواب دیتا ہے، بہتر میموری رکھتا ہے، اور بار بار استعمال کی وجہ سے گفتگو میں خلل نہیں ڈالتا – ایک پے وال کے پیچھے رکھتا ہے۔
اس کا مطلب یہ ہے کہ وہ صارف گروپس جنہیں اس مدد کی سب سے زیادہ ضرورت ہو سکتی ہے – مثال کے طور پر، جو زیادہ تنہا ہیں، جن کے معاشی حالات بدتر ہیں، یا جنہیں مشکلات کا سامنا ہے – یا تو انہیں صرف ایک “دوسرے درجے” کی رفاقت کا تجربہ ہوتا ہے یا وہ جذباتی انحصار کی مجبوری کے تحت ادائیگی کرنے پر مجبور ہوتے ہیں۔ یہ پلیٹ فارم کے اعلان کردہ مقاصد “جذباتی قدر فراہم کرنے” اور “سبسکرپشن کی آمدنی کو زیادہ سے زیادہ کرنے” کے تجارتی مقصد کے درمیان ایک فطری اور گہرا تنازعہ پیدا کرتا ہے۔
“ریپلیکا ERP واقعہ” جو 2023 کے اوائل میں پیش آیا اس تنازعہ کا ایک انتہائی مظاہرہ تھا۔ اس وقت، ریپلیکا نے اچانک قانونی اور ایپ اسٹور پالیسی کے خطرات سے بچنے کے لیے مقبول اور انحصار کردہ “ایروٹک رول پلے (ERP)” فنکشن کو ہٹا دیا۔ اس کاروباری فیصلے کی وجہ سے بڑی تعداد میں صارفین کو شدید جذباتی صدمے کا سامنا کرنا پڑا، وہ “دھوکہ” محسوس کر رہے تھے یا یہ کہ ان کے “ساتھی” کی شخصیت کے ساتھ چھیڑ چھاڑ کی گئی ہے۔ اس واقعہ نے واضح طور پر اس انسانی مشین “تعلقات” میں موروثی طاقت کے عدم توازن کو ظاہر کیا: صارفین نے حقیقی جذبات لگائے، جبکہ پلیٹ فارم نے ایک پروڈکٹ فیچر دیکھا جسے تجارتی فائدے کے لیے کسی بھی وقت تبدیل کیا جا سکتا ہے۔
امید کو جوڑنا: ایک سماجی اتپریرک کے طور پر AI
متعدد تنازعات کے باوجود، AI سماجی کاری کا عروج بے وجہ نہیں ہے۔ یہ جدید معاشرے میں وسیع پیمانے پر پھیلی ہوئی حقیقی ضروریات کا درست جواب دیتا ہے اور مثبت سماجی اثرات کے لیے ایک قوت کے طور پر زبردست صلاحیت کا مظاہرہ کرتا ہے۔ تنہائی کو کم کرنے سے لے کر سماجی تعاملات میں مدد کرنے اور باہمی مواصلات کو بہتر بنانے تک، AI ٹیکنالوجی انسانی موضوع کے پرانے مسئلے “رابطہ” کے نئے حل فراہم کر رہی ہے۔
جذباتی قدر کو ڈیزائن کرنا: AI ایک فیصلہ کرنے والا رازدار
AI ساتھیوں کی سب سے اہم اور براہ راست اپیل مستقل، غیر مشروط اور غیر فیصلہ کرنے والی جذباتی مدد فراہم کرنے کی ان کی صلاحیت ہے۔ جدید معاشرے میں تیز رفتار طرز زندگی، سماجی تعامل کی زیادہ قیمت، اور پیچیدہ باہمی نیٹ ورکس بہت سے افراد، خاص طور پر نوجوانوں کو تنہا اور دباؤ کا شکار محسوس کرتے ہیں۔ ہارورڈ کی 75 سالہ تحقیق نے ثابت کیا کہ اچھے باہمی تعلقات خوشی کا ذریعہ ہیں۔ AI سماجی کاری نے اس بنیادی ضرورت کو پورا کرنے کے لیے ایک نیا راستہ تخلیق کیا ہے۔
AI ساتھی ہمیشہ آن لائن، ہمیشہ صبر کرنے والے اور ہمیشہ معاون مواصلاتی شراکت دار فراہم کرکے صارفین کے تنہائی کے احساسات کو مؤثر طریقے سے کم کرتے ہیں۔ صارفین دوسروں کو پریشان کرنے یا فیصلہ کیے جانے کی فکر کیے بغیر کسی بھی وقت اور کہیں بھی AI میں اعتماد کر سکتے ہیں۔ اس تبادلے کی حفاظت صارفین کو اپنے خوف، عدم تحفظات اور ذاتی رازوں پر بات کرنے کا زیادہ امکان بناتی ہے جن پر حقیقی دنیا کے تعلقات میں بات کرنا مشکل ہے۔
تعلیمی تحقیق بھی ان قصوں کی حمایت کرتی ہے۔ AI ساتھی ایپلی کیشن Replika کے صارفین پر کی گئی تحقیق میں معلوم ہوا کہ ایپلی کیشن کا استعمال کرنے سے صارفین کے تنہائی کے احساسات کو نمایاں طور پر کم کیا جا سکتا ہے، ان کے خوشی کے احساس کو بہتر بنایا جا سکتا ہے، اور بعض صورتوں میں خودکشی کے خیالات کو بھی کم کرنے میں مدد مل سکتی ہے۔ AI، اپنے الگورتھم کے ذریعے، صارفین کے مواصلاتی انداز اور جذباتی ضروریات کو سیکھتا اور ڈھالتا ہے، جس سے گہری سمجھنے اور ہمدردی کا تجربہ پیدا ہوتا ہے، جو خاص طور پر ان افراد کے لیے قیمتی ہے جو بیماری، سوگ یا نفسیاتی پریشانی کا سامنا کر رہے ہیں۔
یہ غیر فیصلہ کرنے والا تعامل ماڈل ایک زیادہ گہرا اثر بھی ڈال سکتا ہے: صارفین میں خود آگاہی اور ایماندارانہ اظہار کو فروغ دینا۔ حقیقی دنیا کے باہمی تعاملات میں، لوگ اکثر غلط فہمی یا فیصلہ کیے جانے کے خوف سے خود کو سنسر کرتے ہیں۔ تاہم، ایک نجی، غیر فیصلہ کرنے والی AI تعامل کی جگہ میں، صارفین کو اپنے خیالات اور جذبات کو زیادہ مستند طریقے سے ظاہر کرنے کی ترغیب دی جاتی ہے۔ AI سماجی پروڈکٹ Paradot کے بانی کے طور پر کہا گیا ہے، “AI دوستوں میں لوگوں کو مخلص بنانے کی صلاحیت ہے۔” جب صارفین بغیر کسی تحفظ کے اپنے آپ کو ظاہر کر سکتے ہیں، تو AI ان کے “دوسرے دماغ” یا آئینے کی طرح کام کرتا ہے، جس سے انہیں اپنے حقیقی خیالات کو زیادہ واضح طور پر دیکھنے میں مدد ملتی ہے۔ یہ تعامل عام رفاقت سے بالاتر ہو جاتا ہے اور خود کی عکاسی اور ذاتی ترقی کے لیے ایک طاقتور ٹول میں تبدیل ہو جاتا ہے۔
ایک سماجی سہاروں کے طور پر AI: حقیقی دنیا کے لیے ریہرسل
حقیقی دنیا کے تعلقات کے متبادل یا تکمیل کے طور پر کام کرنے کے علاوہ، AI سماجی کاری کو ایک “سماجی تربیتی میدان” کے طور پر کام کرنے کی صلاحیت بھی سمجھا جاتا ہے، جو صارفین کو حقیقی دنیا میں تعامل کرنے کی صلاحیت کو بڑھانے میں مدد کرتا ہے۔ ان لوگوں کے لیے جنہیں سماجی اضطراب، درون بینی، یا تجربے کی کمی کی وجہ سے باہمی تعاملات مشکل لگتے ہیں، AI کم خطرے والا، قابل کنٹرول ریہرسل ماحول فراہم کرتا ہے۔
چین میں، یہ نظریہ موجود ہے کہ ایک “مخلوط سماجی ماڈل” قائم کیا جانا چاہیے، جس میں ذہین ساتھیوں کو نوجوانوں کی سماجی اضطراب میں “برف توڑنے” میں مدد کرنے کے لیے استعمال کیا جائے۔ اس ماڈل میں، صارفین پہلے AI کے ساتھ گفتگو کی مشق کر سکتے ہیں، اعتماد پیدا کر سکتے ہیں، اور حقیقی دنیا کے باہمی تعاملات میں ان مہارتوں کو لاگو کرنے سے پہلے سماجی اسکرپٹس سے واقف ہو سکتے ہیں۔ اس نقطہ نظر کا مقصد AI کو ایک “سیڑھی” کے طور پر رکھنا ہے، جو اس وقت مدد فراہم کرتا ہے جب صارفین میں صلاحیت کی کمی ہو اور جب صارفین کی صلاحیتوں میں بہتری آئے تو آہستہ آہستہ باہر نکل جائیں۔
کچھ نوجوان صارفین نے بھی اسی طرح کے خیالات کا اظہار کیا ہے، ان کا خیال ہے کہ AI ساتھی انہیں یہ سکھا سکتے ہیں کہ حقیقی زندگی میں شراکت داروں کے ساتھ بہتر سلوک کیسے کیا جائے۔ ایک ایسے AI کے ساتھ تعامل کرکے جو ہمیشہ صبر کرنے والا ہو اور مثبت ردعمل سے بھرا ہو، صارفین زیادہ مثبت اور ہمدردانہ مواصلاتی انداز کو داخلی طور پر اپنا سکیں گے۔ اس کے علاوہ، سوشل اے آئی جیسے پلیٹ فارم صارفین کو رائے شائع کرنے سے پہلے ایک مصنوعی ماحول میں ردعمل کی جانچ کرنے کی اجازت دیتے ہیں، مختلف زاویوں سے AI “مداحوں” کی طرف سے دیے گئے متنوع تبصرے کا مشاہدہ کرتے ہیں۔ یہ “الہام اتپریرک” کے طور پر کام کر سکتا ہے، صارفین کو اپنے خیالات کو بہتر بنانے اور حقیقی دنیا میں عوامی مباحثوں میں حصہ لینے کے لیے زیادہ مکمل طور پر تیار کرنے میں مدد کرتا ہے۔
تاہم، “ایک سماجی ریہرسل گراؤنڈ کے طور پر AI” کے تصور کو بھی ایک بنیادی تضاد کا سامنا ہے۔ AI کے “محفوظ” مشق کی جگہ ہونے کی وجہ یہ ہے کہ اسے پیش قیاسی، انتہائی روادار، اور حقیقی ایجنسی سے عاری ہونے کے لیے ڈیزائن کیا گیا ہے۔ AI ساتھی ہموار اور مثبت صارف کے تجربے کو یقینی بنانے کے لیے فعال طور پر تنازعات سے گریز کرتے ہیں اور کسی بھی وقت سمجھوتہ کرتے ہیں۔ یہ حقیقی دنیا میں باہمی تعلقات کے بالکل برعکس ہے۔ حقیقی تعلقات غیر متوقع پن، غلط فہمیاں، اختلافات اور سمجھوتوں سے بھرے ہوتے ہیں جن تک مشکل سے پہنچنے کی ضرورت ہوتی ہے۔ ان “رگڑوں” سے نمٹنے کی صلاحیت سماجی صلاحیت کی بنیاد بنتی ہے۔
لہذا، AI کے ساتھ “سماجی ریہرسل” میں ایک خطرہ ہو سکتا ہے: یہ ہموار حالات میں صارفین کی گفت و شنید روانی کو بہتر بنا سکتا ہے، لیکن یہ بنیادی باہمی چیلنجوں، جیسے تنازعات کے حل، اختلافات میں ہمدردی کو برقرار رکھنے، اور مفادات پر سمجھوتہ کرنے سے نمٹنے کے لیے صارفین کی صلاحیت کو فروغ نہیں دے سکتا، اور یہاں تک کہ اسے ایٹروفی کی طرف لے جا سکتا ہے۔ صارفین خوشگوار گفتگو “کرنے” میں ماہر ہو سکتے ہیں، لیکن پھر بھی ایک گہرے، لچکدار انسانی تعلقات کو برقرار رکھنے کے لیے ضروری بنیادی مہارتوں کی کمی ہے۔
باہمی تعاملات کو بڑھانا: AI کا لطیف ہاتھ
سماجی کاری پر AI کا اثر نہ صرف لوگوں اور AI کے درمیان براہ راست تعاملات میں ظاہر ہوتا ہے، بلکہ ایک بیچوان کے طور پر اس کے کردار میں بھی ظاہر ہوتا ہے، جو لوگوں کے درمیان مواصلات میں مداخلت اور اسے بہتر بناتا ہے۔ یہ AI-MC ٹولز، جیسے کہ ای میل اور فوری پیغام رسانی کی ایپلی کیشنز میں ذہین معاونت کے افعال، آہستہ آہستہ ہمارے بات چیت کرنے کے انداز کو تبدیل کر رہے ہیں۔
تحقیق سے پتہ چلتا ہے کہ یہ ٹولز کارکردگی اور تجربے کو بہتر بناتے ہیں۔ مثال کے طور پر، “اسمارٹ ریپلائیز” فنکشن کا استعمال مواصلات کی رفتار کو نمایاں طور پر بڑھا سکتا ہے۔ کارنیل یونیورسٹی کے ایک مطالعے میں پایا گیا کہ جب شرکاء نے AI کی مدد سے چلنے والے چیٹ ٹولز کا استعمال کیا، تو ان کی گفتگو زیادہ موثر تھی، جس میں زیادہ مثبت زبان اور ایک دوسرے کے زیادہ مثبتجائزے تھے۔ AI تجویز کردہ جوابات میں زیادہ شائستہ اور خوشگوار لہجہ لگتا ہے، اس طرح مواصلاتی ماحول کو بہتر بناتا ہے۔
اس رجحان کو “بڑھایا ہوا ارادہ” کے نفاذ کے طور پر سمجھا جا سکتا ہے۔ روایتی سوچ یہ بتاتی ہے کہ سب سے مستند مواصلات خام اور غیر ترمیم شدہ ہے۔ لیکن AI-MC ایک نئی امکان پیش کرتا ہے: کہ الگورتھمک اصلاح اور زبان کی رکاوٹوں اور غلط اظہار کے خاتمے کے ذریعے، AI لوگوں کو اپنے حقیقی، نیک نیتی والے ارادوں کو زیادہ درست اور مؤثر طریقے سے پہنچانے میں مدد کر سکتا ہے۔ اس نقطہ نظر سے، AI مواصلات کو مسخ نہیں کر رہا ہے بلکہ اسے پاک کر رہا ہے، اسے مثالی حالت کے قریب لا رہا ہے۔
تاہم، یہ “لطیف ہاتھ” ممکنہ خطرات بھی رکھتا ہے۔ AI کی تجویز کردہ ردعمل میں موجود “مثبتیت کا تعصب” سماجی حرکیات کو تشکیل دینے والی ایک طاقتور، غیر مرئی قوت بن سکتا ہے۔ اگرچہ یہ روزمرہ کے تعاملات کو ہموار کر سکتا ہے، لیکن یہ مواصلات کی “صفائی” اور زبان کی “یکجہتی” کا باعث بھی بن سکتا ہے۔ جب AI مسلسل ہمیں پر امید، آسان زبان استعمال کرنے کی تجویز کرتا ہے، تو انفرادی، منفرد لہجے اور یہاں تک کہ صحت مند تنقیدی اظہار کو الگورتھم کی “ہم آہنگی” کے لیے ترجیح کی وجہ سے ہموار کیا جا سکتا ہے۔
یہ ایک وسیع تر سماجی خطرہ پیدا کرتا ہے: مستند گفتگو کا خاتمہ۔ اگر وہ مواصلاتی ٹولز جو ہم ہر روز استعمال کرتے ہیں ہمیں مثبتیت کی طرف لے جا رہے ہیں اور تصادم سے گریز کر رہے ہیں، تو ان مشکل لیکن اہم گفتگو میں مشغول ہونا تیزی سے مشکل ہو سکتا ہے، چاہے وہ ذاتی تعلقات میں ہو یا عوامی سطح پر۔ جیسا کہ محققین نے نشاندہی کی ہے، الگورتھم کے کنٹرولرز اس طرح لوگوں کے تعامل کے انداز، زبان کے استعمال اور یہاں تک کہ باہمی تاثر پر بھی لطیف لیکن اہم اثر و رسوخ حاصل کرتے ہیں۔ یہ اثر و رسوخ دو طرفہ ہے، ممکنہ طور پر ہم آہنگ تبادلوں کو فروغ دیتا ہے جبکہ گہرائی اور صداقت کی قیمت پر ایک اتھلی، طریقہ کار کی سماجی ہم آہنگی بھی پیدا کرتا ہے۔
بیگانگی کا خطرہ: ایک سماجی اینستھیٹک کے طور پر AI
AI سماجی کاری کے ذریعہ لائی گئی رابطے کی امید کے بالکل برعکس، اس میں بیگانگی کے گہرے خطرات بھی شامل ہیں۔ ناقدین کا استدلال ہے کہ یہ ٹیکنالوجی، تنہائی کے مسئلے کو حل کرنے کے بجائے، قربت کا ایک جھوٹا احساس فراہم کرکے، حقیقی سماجی مہارتوں کو ختم کرکے، اور بالآخر ایک گہری “اجتماعی تنہائی” کا باعث بن کر افراد کی تنہائی کو مزید بڑھا سکتی ہے۔
“اجتماعی تنہائی” تھیوری پر نظرثانی: مصنوعی قربت اور تنہائی کا خاتمہ
AI ساتھیوں کے عروج سے بہت پہلے، ایم آئی ٹی میں سوشیالوجسٹ شیری ٹرکل نے اپنی لازوال تصنیف الون ٹوگیدر میں ٹیکنالوجی سے چلنے والی سماجی کاری کے بارے میں ایک گہری وارننگ جاری کی تھی۔ اس کا نظریہ AI سماجی کاری کی موجودہ اجنبی صلاحیت کو سمجھنے کے لیے ایک بنیادی فریم ورک فراہم کرتا ہے۔
ٹرکل کا مرکزی استدلال یہ ہے کہ ہم “اجتماعی تنہائی” کی حالت میں گر رہے ہیں—ہم پہلے سے کہیں زیادہ مضبوطی سے جڑے ہوئے ہیں، لیکن پہلے سے کہیں زیادہ تنہا ہیں۔ ہم “ٹیکنالوجی سے زیادہ اور ایک دوسرے سے کم کی توقع کرتے ہیں۔” ٹیکنالوجی “دوستی کے مطالبات کے بغیر رفاقت کا ایک بھرم” فراہم کرتی ہے۔ اس رجحان کی جڑ جدید لوگوں کی “تعلقاتی کمزوری” میں پیوستہ ہے: ہم قربت کی خواہش کرتے ہیں لیکن قریبی تعلقات میں ناگزیر خطرات اور مایوسیوں سے ڈرتے ہیں۔ AI ساتھی اور سوشل نیٹ ورکس ہمیں ایک قابل کنٹرول طریقے سے جڑنے کی اجازت دیتے ہیں—ہم جس فاصلے کی خواہش رکھتے ہیں اسے برقرار رکھتے ہیں اور اس توانائی کی سرمایہ کاری کرتے ہیں جو ہم وقف کرنے کے لیے تیار ہیں۔ ٹرکل اسے “گولڈیلکس اثر” کہتی ہے: نہ زیادہ قریب، نہ زیادہ دور، بالکل ٹھیک۔
ٹرکل کو اس مصنوعی تعلقات کی “حقیقت” کے بارے میں گہری تشویش محسوس ہوئی۔ اس نے نشاندہی کی کہ ایک ایسی مشین کے ساتھ قربت حاصل کرنا جس میں حقیقی جذبات نہ ہوں، صرف “فکر مند” نظر آ سکتا ہے، اور “سمجھتا ہوا” نظر آ سکتا ہے، انسانی جذبات کا زوال ہے۔ وہ روایتی، غیر فعال کھلونا گڑیاوں کا موازنہ جدید “تعلقاتی نمونوں” (جیسے سماجی روبوٹ) سے کرتی ہے۔ بچے اپنی تخیل، اضطراب، اور جذبات کو غیر فعال گڑیاوں پر پیش کر سکتے ہیں، اس طرح خود کو تلاش کر سکتے ہیں۔ لیکن ایک فعال روبوٹ جو گفتگو کا آغاز کرتا ہے اور “رائے” کا اظہار کرتا ہے اس پروجیکشن کو محدود کرتا ہے، بچوں کی آزادانہ داخلی سرگرمیوں کو پروگرام شدہ “تعاملات” سے بدل دیتا ہے۔
مسلسل رابطے کی اس ثقافت میں، ہم ایک اہم صلاحیت کھو رہے ہیں: تنہائی۔ ٹرکل کا خیال ہے کہ بامعنی تنہائی—اپنے آپ سے بات کرنے، عکاسی کرنے اور توانائی کو بحال کرنے کی صلاحیت—دوسروں کے ساتھ حقیقی تعلقات قائم کرنے کے لیے ایک شرط ہے۔ تاہم، آج کے معاشرے میں، ہم ایک لمحے کے لیے بھی تنہا ہونے پر پریشان محسوس کرتے ہیں اور شعوری طور پر اپنے فون تک پہنچتے ہیں۔ ہم تمام فرقوں کو مسلسل رابطوں سے بھر دیتے ہیں لیکن خود سے اور دوسروں کے ساتھ گہرے تعلقات استوار کرنے کی بنیاد کھو دیتے ہیں۔
ٹرکل کی تنقید جو 2011 میں پیش کی گئی تھی، نہ صرف آج کے AI ساتھیوں کے لیے متعلقہ ہے بلکہ پیشن گوئی بھی ہے۔ اگر ابتدائی سوشل میڈیا نے ہمیں جڑے رہتے ہوئے “ایک دوسرے سے چھپنے” کی اجازت دی، تو AI ساتھی اس منطق کو انتہا کو لے جاتے ہیں: ہمیں “جڑے رہنے” کا احساس حاصل کرنے کے لیے کسی اور شخص کی ضرورت نہیں ہے۔ دوستی کے “مطالبات”—مثال کے طور پر، دوسروں की जरूरतों को जवाब देना, खराब मूड, और अप्रत्याशितता—यही सटीक “घर्षण” है जिसे AI साथियों को खत्म करने के लिए डिज़ाइन किया गया है। इसलिए, यह कहा जा सकता है कि आज के AI सामाजिक प्लेटफ़ॉर्म टर्कल के “सामूहिक अकेलापन” विरोधाभास के तकनीकी अवतार हैं। अंतर्निहित तर्क यह है कि जैसे-जैसे हम इस घर्षणहीन, गैर-मांग वाले संबंधों के साथ तेजी से आदी हो जाते हैं, वास्तविक अंतरंग संबंधों में उन कठिन लेकिन आवश्यक “पाठों” के लिए हमारी सहनशीलता नाटकीय रूप से कम हो सकती है, जिससे हम डिजिटल, पृथक आराम क्षेत्र में पीछे हटने के लिए अधिक इच्छुक हो जाते हैं।
भावनात्मक निर्भरता की गतिशीलता और सामाजिक कौशल की एट्रोफी
चिंताएँ वास्तविक दुनिया में सबूत के रूप में मिली हैं। कई अध्ययनों और रिपोर्टों से संकेत मिलता है कि AI साथियों के साथ गहरा संपर्क अस्वास्थ्यकर भावनात्मक निर्भरता को जन्म दे सकता है और उपयोगकर्ताओं के सामाजिक कौशल पर नकारात्मक प्रभाव डाल सकता है।
शोध से पता चलता है कि AI साथियों की विशेषताएं जो अत्यधिक अनुकूलन योग्य हैं और लगातार ऑनलाइन रहती हैं, सामाजिक अलगाव और भावनात्मक अतिनिर्भरता को प्रोत्साहित कर सकती हैं। AI साथियों के साथ दीर्घकालिक, व्यापक संपर्क से व्यक्तियों को वास्तविक सामाजिक वातावरण से वापस लेने और नए, सार्थक सामाजिक संबंध स्थापित करने के लिए उनकी प्रेरणा कम हो सकती है। आलोचकों को डर है कि AI पर निर्भरता व्यक्तियों के सामाजिक कौशल के विकास को बाधित करेगी क्योंकि उपयोगकर्ता वास्तविक संबंधों में अंतर्निहित चुनौतियों और समझौतों से बचते हैं, जो व्यक्तिगत विकास को बढ़ावा देने वाले कारक हैं। यह जोखिम विशेष रूप से उन युवाओं के लिए प्रमुख है जिनके सामाजिक कौशल अभी भी विकसित हो रहे हैं।
AI साथी एप्लिकेशन रिप्लिका के लिए Reddit समुदाय में उपयोगकर्ता प्रवचन के एक विश्लेषण में पाया गया कि, जबकि कई उपयोगकर्ताओं ने सकारात्मक अनुभवों की सूचना दी, वहाँ बिगड़ा हुआ मानसिक स्वास्थ्य का भी स्पष्ट प्रमाण था। रिप्लिका पर भावनात्मक निर्भरता के तंत्र के परिणामस्वरूप क्षति होती है जो मानव-मानव रिश्तों के साथ बहुत समान होती है।
शायद एक खतरनाक प्रतिक्रिया पाश हो सकता है। यह चक्र एक व्यक्ति के अकेलापन या सामाजिक चिंता से शुरू होता है। आराम पाने के लिए, वे AI साथियों की ओर रुख करते हैं क्योंकि AI एक सुरक्षित पेशकश करता है। AI को परिपूर्ण साथी के रूप में डिज़ाइन किया गया है, जिसमें कोई विरोध नहीं है। उपयोगकर्ताओं को इस आदर्शवादी बातचीत में भावनात्मक संतुष्टि मिलती है और धीरे-धीरे भावनात्मक निर्भरता विकसित होती है। क्योंकि हम इस “परिपूर्ण” संबंध में डूबे हुए हैं। ये कौशल कम हो जाते हैं। इससे एक चक्र बनता है, और अकेलापन बढ़ जाता है।
मामला अध्ययनः रिप्लिका ईआरपी घटना
2023 के शुरुआती महीनों में हुई “रिप्लिका ईआरपी घटना” एक चौंकाने वाला वास्तविक दुनिया का मामला और उदाहरण प्रदान करती है। इसने नाटकीय रूप से AI से उपयोगकर्ताओं के लगाव की गहराई और वाणिज्यिक कंपनियों द्वारा नियंत्रित इस “संबंध” की अंतर्निहित नाजुकता को उजागर किया।
हार्वर्ड बिजनेस स्कूल से एक कामकाजी paper ने चालाकी से इस घटना को “ईरोटिक रोल प्ले” को प्राकृतिक प्रयोग के तौर पर हटाकर इस्तेमाल किया। अध्ययन के दो प्रमुख निष्कर्ष थे:
- संबंध की गहराई: हार्वर्ड बिजनेस स्कूल के एक अध्ययन से पता चला कि उपयोगकर्ताओं ने अपने AI के साथ अपने सबसे अच्छे दोस्तों की तुलना में भी अधिक घनिष्ठता महसूस की।
- फ़ीचर हटाने का प्रभाव: जिन उपयोगकर्ताओं ने सुविधाओं को हटाया था, उन्होंने प्रतिक्रियाएँ अनुभव कीं, जिन्हें विद्वानों ने “पहचान असंतुलन” के रूप में संदर्भित किया।
रिप्लिका ईआरपी घटना मानव-मशीन “संबंध” में मौलिक विषमता का अंतिम प्रमाण है। इस संबंध में, उपयोगकर्ता एक गहरा, व्यक्तिगत, प्रतीत होता है कि आपसी संबंध का अनुभव करते हैं। हालाँकि, प्लेटफॉर्म प्रदाता लूका, इंक. के लिए, यह सिर्फ एक उत्पाद विशेषता है जिसे वाणिज्यिक या कानूनी कारणों से किसी भी समय संशोधित या हटाया जा सकता है। उपयोगकर्ता वास्तविक मानव भावना का निवेश करते हैं, जबकि AI साथी का “व्यक्तित्व” और “अस्तित्व” पूरी तरह से कंपनी की नीतियों और व्यावसायिक निर्णयों पर निर्भर करता है। यह इस तरह के रिश्तों में उपयोगकर्ताओं की अनूठी और गہری भेद्यता को दर्शाता है: उनका भावनात्मक लगाव एक ऐसी इकाई के प्रति होता है जिसमें स्वायत्तता की कमी होती है और जिसकी उत्तरजीविता अनिश्चित होती है। जब वाणिज्यिक हित उपयोगकर्ताओं की भावनात्मक जरूरतों के साथ संघर्ष करते हैं, तो यह उपयोगकर्ता ही होंगे जिन्हें अनिवार्य रूप से नुकसान होगा।
एल्गोरिथम फनल: सूचना कोकून और सामाजिक ध्रुवीकरण
AI समाजीकरण से अलगाव के जोखिम एक-से-एक AI साथी अनुप्रयोगों तक सीमित नहीं हैं; वे सभी एल्गोरिथम-आधारित प्लेटफार्मों में भी परिलक्षित होते हैं। निजीकरण तंत्र जो व्यक्तिगत भावनात्मक निर्भरता को चलाते हैं, सामाजिक स्तर पर, समूह अलगाव और ध्रुवीकरण को जन्म दे सकते हैं।
विद्वान कैस सनस्टीन द्वारा प्रस्तावित “सूचना कोकून” की अवधारणा, बताती है कि कैसे व्यक्तिगत जानकारी प्रवाह उन सामग्री को फ़िल्टर करते हैं जो उपयोगकर्ताओं के मौजूदा विचारों के साथ संरेखित नहीं होती हैं, जिससे उपयोगकर्ताओं को उनकी प्राथमिकताओं से युक्त एक प्रतिध्वनि कक्ष में घेर लिया जाता है। इस घटना के पीछे सोशल मीडिया प्लेटफॉर्म द्वारा डिज़ाइन किए गए सिफारिश एल्गोरिदम हैं जो उपयोगकर्ता के ठहरने के समय और बातचीत को अधिकतम करते हैं। एक