آن ڈیوائس AI: صحافتی کاموں میں استعمال کا جائزہ

مصنوعی ذہانت کی دلکش آواز بلند تر ہوتی جا رہی ہے، جو صنعتوں میں کارکردگی اور تبدیلی کا وعدہ کرتی ہے۔ ایک خاص طور پر پرکشش امکان یہ ہے کہ طاقتور AI ماڈلز کو براہ راست ذاتی کمپیوٹرز پر چلایا جائے، جس سے کلاؤڈ پر انحصار، سبسکرپشن فیس، اور ڈیٹا پرائیویسی کے خدشات سے بچا جا سکے۔ Google، Meta، اور Mistral AI جیسی بڑی کمپنیوں نے نفیس Large Language Models (LLMs) کو ڈاؤن لوڈ کے لیے مفت دستیاب کر دیا ہے۔ لیکن کیا یہ رسائی عملی افادیت میں بدل جاتی ہے؟ کیا یہ ڈیجیٹل ذہن، جو ڈیسک ٹاپ یا لیپ ٹاپ کے سلیکون تک محدود ہیں، واقعی صحافتی تحریر جیسے پیچیدہ ورک فلوز کو بڑھا سکتے ہیں؟ یہ تحریر ایک وسیع تجربے کی تفصیلات بیان کرتی ہے جو بالکل اسی سوال کا جواب دینے کے لیے ڈیزائن کیا گیا تھا۔

منظر نامہ ترتیب دینا: مقامی AI تجربہ

کئی مہینوں کے دوران، مختلف مفت ڈاؤن لوڈ کے قابل LLMs کی حقیقی دنیا کی کارکردگی کا جائزہ لینے کے لیے ایک وقف شدہ کوشش کی گئی جو مکمل طور پر مقامی ہارڈویئر پر کام کرتے ہیں۔ جانچ پڑتال کے تحت ماڈلز کی فہرست متنوع تھی، جو اوپن سورس AI کے تیزی سے بدلتے ہوئے منظر نامے کی عکاسی کرتی ہے:

  • Google Gemma (خاص طور پر ورژن 3)
  • Meta Llama (ورژن 3.3)
  • Anthropic Claude (ورژن 3.7 Sonnet – اگرچہ عام طور پر کلاؤڈ پر مبنی ہے، اس کی شمولیت وسیع جانچ کی تجویز کرتی ہے)
  • Mistral AI سے متعدد تکرار (بشمول Mistral, Mistral Small 3.1, Mistral Nemo, اور Mixtral)
  • IBM Granite (ورژن 3.2)
  • Alibaba Qwen (ورژن 2.5)
  • DeepSeek R1 (ایک استدلالی تہہ جو اکثر Qwen یا Llama کے ڈسٹل ورژن پر لاگو ہوتی ہے)

بنیادی مقصد مہتواکانکشی لیکن عملی تھا: یہ تعین کرنا کہ کیا یہ مقامی طور پر چلنے والے AIs خام انٹرویو ٹرانسکرپٹس کو چمکدار، قابل اشاعت مضامین میں تبدیل کر سکتے ہیں۔ اس میں نہ صرف تکنیکی فزیبلٹی کا اندازہ لگانا شامل تھا – کیا ہارڈویئر بوجھ سنبھال سکتا ہے؟ – بلکہ معیاری آؤٹ پٹ بھی – کیا نتیجہ خیز متن قابل استعمال تھا؟ یہ شروع میں ہی واضح کرنا ضروری ہے کہ مکمل طور پر خودکار، اشاعت کے لیے تیار مضمون کا حصول مشکل ثابت ہوا۔ بنیادی مقصد اس مخصوص، مطالبہ کرنے والے استعمال کے کیس کے ذریعے موجودہ آن ڈیوائس AI کی حقیقی صلاحیتوں اور حدود کو سمجھنے کی طرف منتقل ہو گیا۔

منتخب کردہ طریقہ کار ایک خاطر خواہ پرامپٹ کے گرد مرکوز تھا۔ اس میں تقریباً 1,500 ٹوکنز (تقریباً 6,000 حروف یا متن کے دو مکمل صفحات) شامل تھے جو مطلوبہ مضمون کی ساخت، انداز اور لہجے کا تفصیل سے خاکہ پیش کرتے تھے۔ اس ہدایاتی سیٹ میں خود انٹرویو ٹرانسکرپٹ شامل کیا گیا تھا، جو ایک عام 45 منٹ کی گفتگو کے لیے اوسطاً 11,000 ٹوکنز تھا۔ اس مشترکہ ان پٹ کا سراسر سائز (اکثر 12,500 ٹوکنز سے زیادہ) عام طور پر بہت سے آن لائن AI پلیٹ فارمز کی مفت استعمال کی حدود سے تجاوز کر جاتا ہے۔ اس رکاوٹ نے مقامی تعیناتی کی تلاش کی منطق کو اجاگر کیا، جہاں پروسیسنگ ان پٹ سائز سے قطع نظر مفت رہتی ہے، صرف مشین کی صلاحیتوں سے محدود ہوتی ہے۔

ان ٹیسٹوں کو انجام دینے میں LM Studio کا استعمال شامل تھا، جو ایک مقبول کمیونٹی سافٹ ویئر ہے جو مقامی طور پر چلنے والے LLMs کے ساتھ تعامل کے لیے صارف دوست چیٹ بوٹ جیسا انٹرفیس فراہم کرتا ہے۔ LM Studio آسانی سے مختلف ماڈل ورژنز کو ڈاؤن لوڈ کرنے کے لیے فنکشنز کو مربوط کرتا ہے، حالانکہ ان مفت دستیاب ماڈلز کا بنیادی ذریعہ Hugging Face ریپوزٹری ہے، جو AI کمیونٹی کے لیے ایک مرکزی مرکز ہے۔

تکنیکی بھول بھلیوں میں گھومنا: ہارڈویئر، میموری، اور ماڈل سائز

مقامی AI پروسیسنگ کے سفر نے جلد ہی سافٹ ویئر اور ہارڈویئر کے درمیان ایک پیچیدہ تعامل کا انکشاف کیا۔ AI کے آؤٹ پٹ کا معیار اور رفتار ٹیسٹ مشین پر دستیاب وسائل سے گہرا تعلق رکھتے تھے – ایک Mac جو Apple Silicon M1 Max سسٹم-آن-چپ (SoC) اور فراخ 64 GB RAM سے لیس تھا۔ اہم بات یہ ہے کہ اس فن تعمیر میں Unified Memory Architecture (UMA) شامل ہے، جو 48 GB RAM کو پروسیسر کور (CPU)، گرافکس کور (GPU – ویکٹر ایکسلریشن کے لیے استعمال کیا جاتا ہے)، اور نیورل پروسیسنگ یونٹ کور (NPU – میٹرکس ایکسلریشن کے لیے استعمال کیا جاتا ہے) کے درمیان متحرک طور پر شیئر کرنے کی اجازت دیتا ہے۔

کئی کلیدی تکنیکی عوامل فیصلہ کن ثابت ہوئے:

  1. ماڈل پیرامیٹرز: LLMs کو اکثر ان کے پیرامیٹرز کی تعداد (اربوں میں، عام طور پر) سے ماپا جاتا ہے۔ بڑے ماڈلز عام طور پر زیادہ علم اور باریکی رکھتے ہیں۔ تاہم، انہیں نمایاں طور پر زیادہ میموری کی ضرورت ہوتی ہے۔
  2. کوانٹائزیشن (Quantization): اس سے مراد وہ درستگی ہے جو ماڈل کے پیرامیٹرز کو ذخیرہ کرنے کے لیے استعمال ہوتی ہے (مثلاً، 8-بٹ، 4-بٹ، 3-بٹ)۔ کم بٹ کی درستگی میموری فوٹ پرنٹ کو کافی حد تک کم کرتی ہے اور پروسیسنگ کی رفتار کو بڑھاتی ہے، لیکن اکثر درستگی اور آؤٹ پٹ کے معیار کی قیمت پر (غلطیاں، تکرار، یا بے معنی زبان متعارف کرواتی ہے)۔
  3. کانٹیکسٹ ونڈو (Context Window): یہ معلومات کی زیادہ سے زیادہ مقدار (پرامپٹ + ان پٹ ڈیٹا) کی وضاحت کرتا ہے جسے AI ایک وقت میں غور کر سکتا ہے، ٹوکنز میں ماپا جاتا ہے۔ مطلوبہ ونڈو کا سائز کام کے ذریعے طے کیا جاتا ہے؛ اس معاملے میں، بڑے پرامپٹ اور ٹرانسکرپٹ نے ایک خاطر خواہ ونڈو کی ضرورت پیدا کی۔
  4. دستیاب RAM: میموری کی مقدار براہ راست محدود کرتی ہے کہ کون سے ماڈلز (اور کس کوانٹائزیشن سطح پر) مؤثر طریقے سے لوڈ اور چلائے جا سکتے ہیں۔

میٹھی جگہ، جو تشخیص کے وقت ٹیسٹ مشین پر معیار اور فزیبلٹی کا بہترین توازن فراہم کرتی تھی، Google کے Gemma ماڈل کو 27 ارب پیرامیٹرز کے ساتھ استعمال کرتے ہوئے حاصل کی گئی، جسے 8 بٹس (ورژن ‘27B Q8_0’) پر کوانٹائز کیا گیا تھا۔ یہ کنفیگریشن 32,000 ٹوکن کانٹیکسٹ ونڈو کے اندر کام کرتی تھی، جو تقریباً 15,000 ٹوکن ان پٹ (ہدایات + ٹرانسکرپٹ) کو آرام سے سنبھالتی تھی۔ یہ مخصوص Mac ہارڈویئر پر چلتا تھا، 48 GB مشترکہ میموری کا استعمال کرتے ہوئے۔

ان بہترین حالات میں، پروسیسنگ کی رفتار 6.82 ٹوکنز فی سیکنڈ ماپی گئی۔ فعال ہونے کے باوجود، یہ فوری ہونے سے بہت دور ہے۔ آؤٹ پٹ کے معیار کو قربان کیے بغیر رفتار میں بہتری بنیادی طور پر تیز تر ہارڈویئر پر منحصر ہے – خاص طور پر، زیادہ کلاک اسپیڈ (GHz) والے SoCs یا پروسیسنگ کور (CPU, GPU, NPU) کی زیادہ تعداد۔

نمایاں طور پر زیادہ پیرامیٹرز والے ماڈلز (مثلاً، 32 ارب، 70 ارب) کو لوڈ کرنے کی کوشش جلد ہی میموری کی حد سے ٹکرا گئی۔ یہ بڑے ماڈلز یا تو مکمل طور پر لوڈ ہونے میں ناکام رہے یا شدید طور پر کٹے ہوئے، ناقابل استعمال آؤٹ پٹ پیدا کیے (جیسے پورے مضمون کے بجائے ایک پیراگراف)۔ اس کے برعکس، کم پیرامیٹرز والے ماڈلز کا استعمال، میموری کو آزاد کرتے ہوئے، تحریری معیار میں نمایاں کمی کا باعث بنا، جس کی خصوصیت تکرار اور ناقص طور پر بیان کردہ خیالات تھے۔ اسی طرح، زیادہ جارحانہ کوانٹائزیشن (پیرامیٹرز کو 3, 4, 5, یا 6 بٹس تک کم کرنا) نے رفتار کو بڑھایا لیکن آؤٹ پٹ کو شدید طور پر خراب کر دیا، جس سے گرامر کی غلطیاں اور یہاں تک کہ من گھڑت الفاظ بھی متعارف ہوئے۔

مطلوبہ کانٹیکسٹ ونڈو کا سائز، جو ان پٹ ڈیٹا سے طے ہوتا ہے، کام کے لیے بنیادی طور پر ناقابل گفت و شنید ہے۔ اگر ان پٹ ڈیٹا ایک ایسی ونڈو کا مطالبہ کرتا ہے جو، منتخب کردہ ماڈل سائز اور کوانٹائزیشن کے ساتھ مل کر، دستیاب RAM سے تجاوز کر جاتی ہے، تو واحد راستہ ایک چھوٹا ماڈل منتخب کرنا ہے، جو میموری کی حدود میں رہنے کے لیے حتمی نتیجے کے ممکنہ معیار سے لامحالہ سمجھوتہ کرتا ہے۔

معیار کی تلاش: جب ساخت مادے سے ملتی ہے (یا اس کی کمی)

کیا مقامی طور پر چلنے والا AI قابل استعمال مضامین تیار کرنے میں کامیاب ہوا؟ ہاں اور نہں. تیار کردہ متن اکثر حیرت انگیز طور پر اچھی ساخت کا مظاہرہ کرتے تھے۔ وہ عام طور پر درخواست کردہ فارمیٹ پر عمل پیرا ہوتے تھے، جس میں شامل ہیں:

  • ایک قابل شناخت زاویہ یا توجہ۔
  • موضوعاتی حصوں کے ذریعے ایک مربوط بہاؤ۔
  • ٹرانسکرپٹ سے مناسب طور پر رکھے گئے اقتباسات۔
  • دلچسپ سرخیاں اور اختتامی جملے۔

تاہم، تمام آزمائشی LLMs میں، بشمول DeepSeek R1 جیسے، جو خاص طور پر بہتر استدلال کے لیے ڈیزائن کیے گئے ہیں، ایک اہم خامی مستقل طور پر سامنے آئی: انٹرویو کے اندر معلومات کی مطابقت کو صحیح طریقے سے سمجھنے اور ترجیح دینے کی بنیادی نااہلی۔ AI ماڈلز نے مستقل طور پر گفتگو کے اہم نکتے کو نظر انداز کیا، ثانوی نکات یا ضمنی تفصیلات پر توجہ مرکوز کی۔

نتیجہ اکثر ایسے مضامین تھے جو گرامر کے لحاظ سے درست اور اچھی طرح سے منظم تھے لیکن بالآخر سطحی اور غیر دلچسپ تھے۔ کچھ مثالوں میں، AI واضح بات بیان کرنے کے لیے اہم، اچھی طرح سے بحث شدہ اقتباسات وقف کر دے گا – مثال کے طور پر، طویل تفصیل سے یہ بتانا کہ انٹرویو کی گئی کمپنی حریفوں کے ساتھ مارکیٹ میں کام کرتی ہے۔ اس نے لسانی قابلیت (مربوط جملے بنانا) اور حقیقی فہم (اہمیت اور سیاق و سباق کو سمجھنا) کے درمیان فرق کو اجاگر کیا۔

مزید برآں، اسٹائلسٹک آؤٹ پٹ ماڈلز کے درمیان کافی مختلف تھا:

  • Meta کا Llama 3.x: جانچ کے وقت، ایسے جملے تیار کیے جو اکثر پیچیدہ اور سمجھنے میں مشکل تھے۔
  • Mistral Models & Gemma: نے ‘مارکیٹنگ اسپیچ’ انداز کی طرف رجحان دکھایا، جس میں پرجوش صفتوں اور مثبت فریمنگ کا استعمال کیا گیا لیکن ٹھوس مواد اور مخصوص تفصیلات کی کمی تھی۔
  • Alibaba کا Qwen: حیرت انگیز طور پر، ٹیسٹ سیٹ اپ کی رکاوٹوں کے اندر، اس چینی ماڈل نے فرانسیسی میں (اصل تشخیصی ٹیم کی زبان) کچھ سب سے زیادہ جمالیاتی طور پر خوشگوار نثر تیار کی۔
  • Mixtral 8x7B: ابتدائی طور پر، یہ ‘ماہرین کا مرکب’ ماڈل (آٹھ چھوٹے، خصوصی 7-ارب پیرامیٹر ماڈلز کو ملا کر) امید افزا نظر آیا۔ تاہم، اسے 48 GB میموری کی حد میں فٹ کرنے کے لیے جارحانہ 3-بٹ کوانٹائزیشن کی ضرورت تھی، جس کی وجہ سے نحو کی اہم غلطیاں ہوئیں۔ ایک 4-بٹ کوانٹائزڈ ورژن (‘Q4_K_M’) نے ابتدائی طور پر ایک بہتر سمجھوتہ پیش کیا، لیکن LM Studio سافٹ ویئر میں بعد کی تازہ کاریوں نے اس کے میموری فوٹ پرنٹ میں اضافہ کیا، جس کی وجہ سے یہ کنفیگریشن بھی کٹے ہوئے نتائج پیدا کرنے لگی۔
  • Mistral Small 3.1: 8-بٹ کوانٹائزیشن پر 24 ارب پیرامیٹرز والا ایک حالیہ ماڈل ایک مضبوط مدمقابل کے طور پر ابھرا۔ اس کے آؤٹ پٹ کا معیار 27B Gemma ماڈل کے قریب پہنچ گیا، اور اس نے رفتار میں معمولی برتری پیش کی، 8.65 ٹوکنز فی سیکنڈ پر پروسیسنگ کی۔

یہ تغیر اس بات پر زور دیتا ہے کہ LLM کا انتخاب صرف سائز یا رفتار کے بارے میں نہیں ہے؛ بنیادی تربیتی ڈیٹا اور فن تعمیر اس کے تحریری انداز اور ممکنہ تعصبات کو نمایاں طور پر متاثر کرتے ہیں۔

ہارڈویئر فن تعمیر: مقامی AI کا گمنام ہیرو

تجربات نے ایک اہم، اکثر نظر انداز کیے جانے والے عنصر پر روشنی ڈالی: بنیادی ہارڈویئر فن تعمیر، خاص طور پر میموری تک رسائی کا طریقہ۔ Apple Silicon Mac پر دیکھی گئی اعلیٰ کارکردگی صرف RAM کی مقدار کی وجہ سے نہیں تھی بلکہ اہم طور پر اس کے Unified Memory Architecture (UMA) پر منحصر تھی۔

ایک UMA سسٹم میں، CPU، GPU، اور NPU کور سبھی فزیکل RAM کے ایک ہی پول کو شیئر کرتے ہیں اور بیک وقت ایک ہی میموری ایڈریس پر ڈیٹا تک رسائی حاصل کر سکتے ہیں۔ یہ مختلف پروسیسرز کے لیے وقف کردہ علیحدہ میموری پولز (مثلاً، CPU کے لیے سسٹم RAM اور ایک مجرد گرافکس کارڈ کے لیے وقف شدہ VRAM) کے درمیان ڈیٹا کاپی کرنے کی ضرورت کو ختم کرتا ہے۔

یہ LLMs کے لیے اتنا اہم کیوں ہے؟

  • کارکردگی: LLM پروسیسنگ میں مختلف قسم کے کورز میں شدید کمپیوٹیشن شامل ہوتی ہے۔ UMA ہموار ڈیٹا شیئرنگ کی اجازت دیتا ہے، ڈیٹا ڈپلیکیشن اور ٹرانسفر سے وابستہ لیٹنسی اور اوور ہیڈ کو کم کرتا ہے۔
  • میموری کا استعمال: UMA کے بغیر سسٹمز میں (جیسے ایک عام PC جس میں مجرد GPU ہوتا ہے)، ایک ہی ڈیٹا کو مرکزی سسٹم RAM (CPU کے لیے) اور GPU کے VRAM دونوں میں لوڈ کرنے کی ضرورت پڑ سکتی ہے۔ یہ مؤثر طریقے سے LLM کے لیے قابل استعمال میموری کو کم کرتا ہے۔

عملی مضمرات اہم ہیں۔ جبکہ ٹیسٹ Mac 48 GB مشترکہ UMA RAM کا استعمال کرتے ہوئے 27-ارب پیرامیٹر، 8-بٹ کوانٹائزڈ ماڈل کو آرام سے چلا سکتا تھا، UMA کے بغیر PC پر اسی طرح کی کارکردگی حاصل کرنے کے لیے کافی زیادہ کل RAM کی ضرورت پڑ سکتی ہے۔ مثال کے طور پر، 48 GB کل RAM والا PC جو CPU کے لیے 24 GB اور GPU کے لیے 24 GB میں تقسیم ہے، میموری پارٹیشننگ اور ڈیٹا ڈپلیکیشن اوور ہیڈ کی وجہ سے، شاید صرف ایک بہت چھوٹے 13-ارب پیرامیٹر ماڈل کو مؤثر طریقے سے چلا سکے۔

یہ فن تعمیراتی فائدہ اس ابتدائی برتری کی وضاحت کرتا ہے جو Apple Silicon چپس والے Macs نے مقامی AI اسپیس میں حاصل کی۔ اس کو تسلیم کرتے ہوئے، AMD جیسے حریفوں نے اپنی Ryzen AI Max SoC رینج (2025 کے اوائل میں متوقع) کا اعلان کیا جو اسی طرح کے یونیفائیڈ میموری اپروچ کو شامل کرنے کے لیے ڈیزائن کیا گیا ہے۔ ان ٹیسٹوں کے وقت، Intel کے Core Ultra SoCs، جبکہ CPU، GPU، اور NPU کو مربوط کرتے ہوئے، تمام کور اقسام میں مکمل طور پر یونیفائیڈ میموری تک رسائی کی اسی سطح کی خصوصیت نہیں رکھتے تھے۔ یہ ہارڈویئر امتیاز ہر اس شخص کے لیے ایک اہم غور و فکر ہے جو بڑے، زیادہ قابل LLMs کو مقامی طور پر چلانے کے بارے میں سنجیدہ ہے۔

پرامپٹ انجینئرنگ کا پیچیدہ رقص

AI سے انٹرویو کو مضمون میں تبدیل کرنے جیسا پیچیدہ کام انجام دینے کے لیے صرف طاقتور ہارڈویئر اور ایک قابل ماڈل سے زیادہ کی ضرورت ہوتی ہے؛ یہ نفیس ہدایات کا مطالبہ کرتا ہے – پرامپٹ انجینئرنگ کا فن اور سائنس۔ ابتدائی 1,500 ٹوکن پرامپٹ تیار کرنا جس نے AI کی رہنمائی کی، ایک اہم کام تھا۔

ایک مفید نقطہ آغاز ریورس انجینئرنگ میں شامل تھا: AI کو ایک مکمل، انسانی تحریر کردہ مضمون اس کے متعلقہ ٹرانسکرپٹ کے ساتھ فراہم کرنا اور پوچھنا کہ اس نتیجے کو حاصل کرنے کے لیے کیا پرامپٹ دیا جانا چاہیے تھا۔ کئی متنوع مثالوں میں AI کی تجاویز کا تجزیہ کرنے سے ہدایاتی سیٹ کے لیے ضروری عناصر کی نشاندہی کرنے میں مدد ملی۔

تاہم، AI سے تیار کردہ پرامپٹ تجاویز مستقل طور پر بہت مختصر تھیں اور ان میں ایک جامع مضمون کی تخلیق کی رہنمائی کے لیے ضروری تفصیلات کی کمی تھی۔ اصل کام ان ابتدائی AI فراہم کردہ لیڈز کو لینا اور ان پر تفصیل سے کام کرنا تھا، جس میں صحافتی ساخت، لہجے، انداز، اور اخلاقی تحفظات کے بارے میں گہرا ڈومین علم شامل تھا۔

کئی غیر بدیہی اسباق سامنے آئے:

  • خوبصورتی پر وضاحت: حیرت انگیز طور پر، پرامپٹ کو زیادہ فطری، رواں انداز میں لکھنے سے اکثر AI کی سمجھ کم ہو جاتی ہے۔ ماڈلز ابہام کے ساتھ جدوجہد کرتے تھے، خاص طور پر ضمیر (‘وہ’، ‘یہ’، ‘اس’)۔ سب سے مؤثر طریقہ کار میں مشین کی درستگی کے لیے انسانی پڑھنے کی اہلیت کو قربان کرنا شامل تھا، واضح طور پر مضامین کو دہرانا (‘مضمون کو چاہیے…’، ‘مضمون کا لہجہ ہونا چاہیے…’، ‘مضمون کا تعارف درکار ہے…’) تاکہ کسی بھی ممکنہ غلط تشریح سے بچا جا سکے۔
  • تخلیقی صلاحیت کی ناقابل گرفت نوعیت: لچک کی اجازت دینے کے مقصد سے محتاط پرامپٹ ڈیزائن کے باوجود، AI سے تیار کردہ مضامین میں مستقل طور پر ایک ‘خاندانی مشابہت’ تھی۔ انسانی تخلیقی صلاحیت اور اسٹائلسٹک تغیر کی وسعت کو ایک ہی پرامپٹ، یا یہاں تک کہ متعدد مسابقتی پرامپٹس کے اندر قید کرنا، غیر معمولی طور پر مشکل ثابت ہوا۔ حقیقی قسم کو صرف پرامپٹ ٹویکنگ سے زیادہ بنیادی تبدیلیوں کی ضرورت معلوم ہوتی تھی۔

پرامپٹ انجینئرنگ ایک بار کا کام نہیں بلکہ تطہیر، جانچ، اور مخصوص کاروباری منطق اور اسٹائلسٹک باریکیوں کو شامل کرنے کا ایک تکراری عمل ہے۔ اس کے لیے تکنیکی تفہیم اور گہرے موضوعاتی مہارت کے امتزاج کی ضرورت ہے۔

ورک لوڈ کی تبدیلی: AI پیراڈاکس کو کھولنا

تجربات بالآخر ایک اہم احساس تک پہنچے، جسے AI پیراڈاکس کہا جاتا ہے: اپنی موجودہ حالت میں، AI کے لیے صارف کے کچھ ورک لوڈ (مضمون کا مسودہ لکھنا) کو ممکنہ طور پر کم کرنے کے لیے، صارف کو اکثر زیادہ ابتدائی کام کرنا پڑتا ہے۔

بنیادی مسئلہ خام انٹرویو ٹرانسکرپٹ کے اندر مطابقت کا قابل اعتماد اندازہ لگانے میں AI کی نااہلی بنی رہی۔ ایک متعلقہ مضمون تیار کرنے کے لیے، صرف پوری ٹرانسکرپٹ فیڈ کرنا ناکافی تھا۔ ایک ضروری درمیانی قدم سامنے آیا: ٹرانسکرپٹ کی دستی طور پر پہلے سے پروسیسنگ۔ اس میں شامل تھا:

  1. غیر متعلقہ بات چیت، انحرافات، اور فالتو پن کو ہٹانا۔
  2. ممکنہ طور پر سیاق و سباق کے نوٹس شامل کرنا (چاہے حتمی مضمون کے لیے نہ ہوں) تاکہ AI کی سمجھ کی رہنمائی کی جا سکے۔
  3. احتیاط سے کلیدی حصوں کا انتخاب کرنا اور شاید دوبارہ ترتیب دینا۔

اس ٹرانسکرپٹ ‘کیوریشن’ کے لیے اہم انسانی وقت اور فیصلے کی ضرورت ہوتی ہے۔ AI سے پہلا مسودہ تیار کروا کر بچایا گیا وقت مؤثر طریقے سے ختم ہو گیا، یا اس سے بھی بڑھ گیا، اس کے ان پٹ ڈیٹا کو احتیاط سے تیار کرنے کے نئے کام سے۔ ورک لوڈ غائب نہیں ہوا؛ یہ محض براہ راست تحریر سے ڈیٹا کی تیاری اور پرامپٹ ریفائنمنٹ میں منتقل ہو گیا۔

مزید برآں، تفصیلی 1,500 ٹوکن پرامپٹ ایک قسم کے مضمون (مثلاً، پروڈکٹ لانچ کے بارے میں انٹرویو) کے لیے انتہائی مخصوص تھا۔ ایک صحافی روزانہ تیار کرنے والے مضامین کی متنوع رینج – اسٹارٹ اپ پروفائلز، اسٹریٹجک تجزیے، ایونٹ کوریج، کثیر ماخذ تحقیقات – کا احاطہ کرنے کے لیے ہر استعمال کے کیس کے لیے ایک علیحدہ، اتنی ہی تفصیلی پرامپٹ تیار کرنے، جانچنے اور برقرار رکھنے کی ضرورت ہوگی۔ یہ ایک خاطر خواہ پیشگی اور جاری انجینئرنگ سرمایہ کاری کی نمائندگی کرتا ہے۔

بدتر یہ کہ، یہ وسیع تجربات، جو چھ ماہ سے زیادہ پر محیط تھے، صرف سطح کو کھرچتے ہیں۔ انہوں نے سب سے آسان منظر نامے پر توجہ مرکوز کی: ایک واحد انٹرویو سے ایک مضمون تیار کرنا، جو اکثر پریس کانفرنسوں جیسے کنٹرول شدہ ماحول میں کیا جاتا ہے جہاں انٹرویو لینے والے کے نکات پہلے ہی کسی حد تک منظم ہوتے ہیں۔ متعدد انٹرویوز سے معلومات کی ترکیب، پس منظر کی تحقیق کو شامل کرنے، یا کم منظم گفتگو کو سنبھالنے کے کہیں زیادہ پیچیدہ، پھر بھی عام کام، بنیادی کیس کے لیے بھی درکار وقت کی سرمایہ کاری کی وجہ سے غیر دریافت شدہ رہے۔

لہذا، جبکہ LLMs کو مقامی طور پر چلانا تکنیکی طور پر ممکن ہے اور لاگت اور ڈیٹا پرائیویسی کے لحاظ سے فوائد پیش کرتا ہے، یہ تصور کہ یہ صحافت جیسے پیچیدہ علمی کام کے لیے آسانی سے وقت یا کوشش بچاتا ہے، اس تحقیقات کی بنیاد پر، فی الحال وہم ہے۔ مطلوبہ کوشش صرف تبدیل ہوتی ہے، ڈیٹا کی تیاری اور انتہائی مخصوص پرامپٹ انجینئرنگ میں اوپر کی طرف بڑھتی ہے۔ ان مخصوص چیلنجوں پر – مطابقت کو سمجھنا، وسیع پری پروسیسنگ کی ضرورت – مقامی طور پر چلنے والے AI نے بامعاوضہ آن لائن خدمات کے مقابلے میں کارکردگی کا مظاہرہ کیا، جس سے پتہ چلتا ہے کہ یہ LLMs کی موجودہ نسل کی بنیادی حدود ہیں، تعیناتی کے طریقہ کار سے قطع نظر۔ ایسے ڈومینز میں واقعی ہموار AI مدد کا راستہ پیچیدہ ہے اور AI کی صلاحیتوں اور ان کے ساتھ تعامل کے ہمارے طریقوں دونوں میں مزید ارتقاء کا مطالبہ کرتا ہے۔