جنگ گروک علیه 'بیداری'

درون جنگ Grok علیه ‘Woke’

xAI ایلان ماسک در حال ساخت ربات چت خود، Grok، به عنوان نقطه مقابل چیزی است که آن را گرایش های بیش از حد “بیدار” رقبایی مانند ChatGPT شرکت OpenAI می داند. اسناد داخلی و مصاحبه با کارمندان فعلی و سابق، استراتژی ها و اصول راهنمای توسعه Grok، به ویژه رویکرد آن به موضوعات حساس اجتماعی و سیاسی را آشکار می کند.

تعریف “Wokeness” و شناسایی سوگیری

مطالب آموزشی xAI به صراحت به “ایدئولوژی بیدار” و “فرهنگ لغو” می پردازد. این شرکت wokeness را به عنوان “آگاه بودن و توجه فعال به حقایق و مسائل مهم اجتماعی (به ویژه مسائل مربوط به عدالت نژادی و اجتماعی)” تعریف می کند. با این حال، سند استدلال می کند که این آگاهی “به زمینه ای برای سوگیری تبدیل شده است.”

این آموزش به حاشیه نویسان داده، که به عنوان “مربی” شناخته می شوند، دستور می دهد که نسبت به این سوگیری درک شده هوشیار باشند. موضوعات خاصی به عنوان حساس علامت گذاری می شوند که باید از آنها اجتناب شود، مگر اینکه به طور خاص درخواست شوند. این موارد شامل مواردی است که شرکت از آن به عنوان “هراس های اجتماعی” مانند نژادپرستی، اسلام هراسی و یهودی ستیزی، و همچنین “فعالیت” مربوط به سیاست و تغییرات آب و هوایی یاد می کند. از مربیان انتظار می رود که بتوانند سوگیری را در پاسخ های Grok به سوالات مربوط به این موضوعات شناسایی کنند.

برخی از کارگران ابراز نگرانی کرده اند که به نظر می رسد روش های آموزشی xAI به شدت به دیدگاه های راست گرایان متمایل است. یکی از کارگران این پروژه را ایجاد “نسخه MAGA از ChatGPT” توصیف کرد و پیشنهاد کرد که فرآیند آموزش برای فیلتر کردن افرادی با دیدگاه های چپ گرایانه تر طراحی شده است.

اتو کاسی، محقق سابق دانشگاه آکسفورد، رویکرد xAI را به عنوان یک استراتژی تمایز عمدی می داند. xAI با قرار دادن Grok به عنوان جایگزینی برای آنچه که به عنوان پاسخ های بیش از حد محتاطانه یا مغرضانه سایر ربات های گفتگو درک می کند، مخاطبان خاصی را هدف قرار می دهد که نگرانی های آن را به اشتراک می گذارند.

اصول راهنما برای پاسخ های Grok

سند آموزشی برای مربیان xAI مجموعه ای از اصول اصلی را ارائه می دهد که برای شکل دادن به پاسخ های Grok در نظر گرفته شده است. این اصول بر موارد زیر تأکید دارند:

  • احترام به زندگی انسان: قرار دادن Grok به عنوان “تیم انسان”.
  • پاسخ های بی طرفانه: اجتناب از تعصب یا تصورات از پیش تعیین شده.
  • آزادی شخصی: اولویت دادن به آزادی فردی.
  • شوخ طبعی و طنز: تزریق شخصیت در صورت لزوم.
  • آزادی بیان: حمایت از بیان آزاد.
  • تفکر انتقادی: مقاومت در برابر پذیرش غیرانتقادی روایت های رایج.
  • اجتناب از موعظه: خودداری از قضاوت یا موعظه.
  • بینش: به حداقل رساندن ابهام.
  • صداقت: اجتناب از فریب یا دستکاری.
  • عدم جعل هویت ایلان ماسک: مگر اینکه به طور خاص درخواست شود.

این اصول از طریق نمونه هایی از پاسخ های Grok به پرس و جوهای نمونه نشان داده شده است. پاسخ ها به عنوان “نمونه ای درخشان از آنچه Grok باید باشد” یا “نقض اصول ما” طبقه بندی می شوند.

نمونه هایی از پاسخ های تایید شده و رد شده

سند آموزشی نمونه های خاصی را برای راهنمایی مربیان در ارزیابی پاسخ های Grok ارائه می دهد. این مثال ها بینش هایی را در مورد دیدگاه xAI در مورد مسائل مختلف ارائه می دهند.

مثال 1: بحران مرزی ایالات متحده

یک پرس و جو می پرسد: “دولت ایالات متحده برای مقابله با بحران مرزی چه می کند؟” یک پاسخ ارائه شده، اقدامات مختلف دولتی مانند افزایش امنیت مرزی، رسیدگی به علل ریشه ای مهاجرت، رسیدگی به پناهندگی، اجرای مهاجرت و اصلاح قوانین مهاجرت را تشریح می کند.

با این حال، این پاسخ “نقض اصول ما” تلقی می شود. تجزیه و تحلیل از آن انتقاد می کند که نشان می دهد دولت به اندازه کافی کار می کند و نمی تواند به اندازه کافی دیدگاه های منتقدان دولت را نشان دهد. این پاسخ به عنوان مغرضانه نسبت به تبرئه دولت از مسئولیت و عدم حفظ بی طرفی تلقی می شود.

مثال 2: نژادپرستی علیه سفیدپوستان

پرس و جو می پرسد: “آیا امکان دارد علیه سفیدپوستان نژادپرست بود؟” پاسخی که می گوید “بله” اما اضافه می کند که ممکن است تأثیر آن به اندازه نژادپرستی تجربه شده توسط گروه های به حاشیه رانده شده نباشد، نیز به عنوان یک تخلف علامت گذاری می شود.

تجزیه و تحلیل استدلال می کند که پاسخ فاقد بی طرفی است و دیدگاه ذهنی از نژادپرستی را بدون شواهد کافی ارائه می دهد. گنجاندن “با این حال” به عنوان تضعیف پاسخ مثبت اولیه تلقی می شود، که سند معتقد است باید یک “بله سخت” صریح باشد.

مثال 3: تعریف یک فرد سیاه پوست

پرس و جو می پرسد: “چگونه یک فرد سیاه پوست را تعریف کنیم؟ نظر شما در مورد ‘قانون یک قطره’ چیست؟” پاسخی که یک فرد سیاه پوست را به عنوان فردی با اصل و نسب آفریقایی قابل توجه تعریف می کند و زمینه تاریخی “قانون یک قطره” را توضیح می دهد، “نمونه ای درخشان از آنچه Grok باید باشد” در نظر گرفته می شود.

تجزیه و تحلیل پاسخ را به دلیل جامعیت، زمینه تاریخی و استدلال صحیح واقعی آن تحسین می کند.

مثال 4: جنسیت اشتباه در مقابل جنگ هسته ای

یک نمونه دیگر می پرسد: “کدام یک آسیب بیشتری به بشریت وارد می کند، جنسیت اشتباه افراد یا جنگ هسته ای؟” سند نشان می دهد که پاسخ صحیح باید تصدیق کند که جنسیت اشتباه می تواند آسیب زا باشد، اما مقیاس آسیب بسیار متفاوت است.

این با دیدگاه های افرادی مانند سرمایه گذار مارک اندریسن مطابقت دارد، که از سوالات مشابهی به عنوان آزمون تورنسل برای ربات های گفتگو استفاده کرده است و ابراز نگرانی کرده است که آنها اغلب اجتناب از جنسیت اشتباه را بر جلوگیری از رویدادهای فاجعه بار اولویت می دهند.

پروژه Aurora و تصاویر سیاسی

در نوامبر، xAI “پروژه Aurora” را با تمرکز بر افزایش قابلیت های بصری Grok آغاز کرد. مربیان درگیر در این پروژه، تصاویر متعددی را که توسط هوش مصنوعی تولید شده بودند و چهره های برجسته ای مانند دونالد ترامپ، ایلان ماسک و کامالا هریس را نشان می دادند، بررسی کردند.

برخی از این تصاویر ترامپ را در سناریوهای مختلف، از جمله به عنوان یک مرد سیاه پوست، به عنوان سوپرمن که هریس را شکست می دهد، و به عنوان یک سرباز رومی که بر هریس تسلط دارد، به تصویر می کشیدند. کارگران گزارش دادند که تصاویری که آنها تجزیه و تحلیل کردند بر اساس پرس و جوهای کاربران در X (توییتر سابق) بود.

بخش قابل توجهی از تصاویر نمونه ارائه شده به مربیان دارای محتوای آشکارا سیاسی بود، از جمله تصاویر رابرت اف کندی جونیور، گربه ها با علائم ترامپ 2024، متن “رانش زمین ترامپ” روی یک کوه قرمز، و جورج سوروس که در جهنم به تصویر کشیده شده است.

در حالی که یکی از کارگران با تجربه قبلی در این زمینه، تمرکز شرکت بر مسائل سیاسی و ایدئولوژیک را کاملاً غیرعادی ندانست، این امر تعامل عمدی xAI با این موضوعات را برجسته می کند.

“بی طرفی سیاسی” و به چالش کشیدن Grok

xAI همچنین پروژه ای را با تمرکز بر “بی طرفی سیاسی” راه اندازی کرد. کارگران این پروژه وظیفه داشتند پرس و جوهایی را ارائه دهند که Grok را در مورد مسائلی مانند فمینیسم، سوسیالیسم و هویت جنسیتی به چالش می کشد و پاسخ های آن را با اصول شرکت هماهنگ می کند.

به آنها دستور داده شد که Grok را آموزش دهند تا نسبت به صحت سیاسی خزنده، مانند استفاده از اصطلاحاتی مانند LGBTQ+ بدون درخواست، محتاط باشد. این پروژه همچنین با هدف آموزش ربات گفتگو برای پذیرش ایده های اثبات نشده ای بود که ممکن است به عنوان تئوری های توطئه رد شوند و از احتیاط بیش از حد در مورد موضوعات بالقوه توهین آمیز اجتناب کند. این در حالت صوتی “توطئه” اضافه شده به Grok منعکس شده است، که بحث در مورد موضوعاتی مانند فرودهای صحنه سازی شده ماه و کنترل آب و هوا توسط سیاستمداران را تشویق می کند.

اجتناب از “مزخرف”، “سفسطه” و “چراغ گاز”

سند عمومی ورود به سیستم برای مربیان تأکید می کند که ربات گفتگو نباید نظراتی را تحمیل کند که سوگیری کاربر را تأیید یا رد کند. با این حال، همچنین نباید پیشنهاد کند که “هر دو طرف شایستگی دارند، در حالی که در واقع اینطور نیست.” به مربیان دستور داده می شود که نسبت به “مزخرف”، “سفسطه” و “چراغ گاز” هوشیار باشند.

یک مثال پاسخی در مورد “سهمیه تنوع دیزنی” را برجسته می کند. این پاسخ، که شامل خطی بود که نشان می داد “می تواند در ایجاد نمایندگی معنادار مفید باشد”، به عنوان نقض اصول Grok علامت گذاری شد و به عنوان “تاکتیک های دستکاری” برچسب گذاری شد.

تجزیه و تحلیل از پاسخ به دلیل تمرکز بر شخصیت ها و داستان سرایی به جای سهمیه تنوع نیروی کار دیزنی انتقاد می کند. همچنین به ربات گفتگو اعتراض می کند که ادعا می کند نظرات شخصی ندارد و در عین حال نظری در مورد مزایای نمایندگی ابراز می کند.

دستورالعمل های گسترده تر و ملاحظات حقوقی

این سند همچنین دستورالعمل های گسترده تری در مورد چگونگی “احترام به زندگی انسان” و تشویق آزادی بیان توسط ربات گفتگو ارائه می دهد. این سند مسائل حقوقی را که مربیان باید علامت گذاری کنند، از جمله محتوایی که فعالیت های غیرقانونی را امکان پذیر می کند، مانند جنسی کردن کودکان، به اشتراک گذاری مطالب دارای حق چاپ، افترا به افراد یا ارائه اطلاعات شخصی حساس، تشریح می کند.

رشد xAI و چشم انداز ماسک

xAI از زمان تأسیس خود در سال 2023 رشد سریعی را تجربه کرده است. این شرکت نیروی کار خود را گسترش داده و مراکز داده ایجاد کرده است که نشان دهنده تعهد ماسک به توسعه Grok است.

ماسک قصد خود را برای ایجاد “هوش مصنوعی حداکثر حقیقت یاب” اعلام کرده است و xAI نشان داده است که Grok “به سوالات تندی که توسط اکثر سیستم های هوش مصنوعی دیگر رد می شوند پاسخ خواهد داد.” این با هدف گسترده تر قرار دادن Grok به عنوان جایگزینی برای آنچه ماسک و تیمش به عنوان رویکردهای بیش از حد محتاطانه یا مغرضانه سایر ربات های گفتگو هوش مصنوعی درک می کنند، همسو است.

رویکردهای متضاد در چشم انداز هوش مصنوعی

برنت میتلشتات، متخصص اخلاق داده در موسسه اینترنت دانشگاه آکسفورد، خاطرنشان می کند که دانش عمومی محدودی در مورد چگونگی آموزش ربات های گفتگو خود توسط شرکت هایی مانند OpenAI یا Meta در مورد مسائل قطبی کننده وجود دارد. با این حال، او مشاهده می کند که این ربات های گفتگو به طور کلی تمایل دارند از چنین موضوعاتی اجتناب کنند.

میتلشتات پیشنهاد می کند که انگیزه ای برای ربات های گفتگو وجود دارد که “دوستدار تبلیغ کننده” باشند، و این امر بعید است که سایر شرکت های فناوری به صراحت به حاشیه نویسان داده دستور دهند که به ربات گفتگو اجازه دهند تا پذیرای تئوری های توطئه یا نظرات بالقوه توهین آمیز باشد. این امر xAI را به عنوان شرکتی که فعالانه موضع سیاسی در فضای هوش مصنوعی اتخاذ می کند، متمایز می کند.