تعريف “الصحوة” وتحديد التحيز
تتناول مواد التدريب الخاصة بـ xAI بشكل صريح “أيديولوجية اليقظة” و”ثقافة الإلغاء”. تُعرِّف الشركة اليقظة بأنها “الوعي والاهتمام النشط بالحقائق والقضايا المجتمعية الهامة (خاصة قضايا العدالة العرقية والاجتماعية)”. ومع ذلك، تجادل الوثيقة بأن هذا الوعي “أصبح أرضًا خصبة للتحيز”.
يوجه التدريب مُعلقي البيانات، المعروفين باسم “المدرسين”، ليكونوا يقظين لهذا التحيز المتصور. يتم تمييز موضوعات معينة على أنها حساسة، ويجب تجنبها ما لم يتم طلبها على وجه التحديد. وتشمل هذه ما تسميه الشركة “الرهاب الاجتماعي” مثل العنصرية ورهاب الإسلام ومعاداة السامية، بالإضافة إلى “النشاط” المتعلق بالسياسة وتغير المناخ. يُتوقع من المعلمين أن يكونوا قادرين على تحديد التحيز في ردود Grok على الأسئلة المتعلقة بهذه الموضوعات.
أعرب بعض العمال عن قلقهم من أن أساليب التدريب الخاصة بـ xAI تبدو وكأنها تفضل وجهات النظر اليمينية بشدة. وصف أحد العمال المشروع بأنه إنشاء “نسخة MAGA من ChatGPT”، مما يشير إلى أن عملية التدريب مصممة لتصفية الأفراد ذوي الميول اليسارية.
يرى أوتو كاسي، الباحث السابق في جامعة أكسفورد، أن نهج xAI هو استراتيجية تمايز متعمدة. من خلال وضع Grok كبديل لما تعتبره الردود الحذرة أو المتحيزة لروبوتات الدردشة الأخرى، تستهدف xAI جمهورًا محددًا يشاركها مخاوفها.
المبادئ التوجيهية لردود Grok
تضع وثيقة التدريب لمعلمي xAI مجموعة من المبادئ الأساسية التي تهدف إلى تشكيل ردود Grok. تؤكد هذه المبادئ على:
- احترام الحياة البشرية: وضع Grok كـ “فريق الإنسان”.
- ردود غير متحيزة: تجنب التحيز أو الأفكار المسبقة.
- الحرية الشخصية: إعطاء الأولوية للحرية الفردية.
- الذكاء والفكاهة: إضفاء الشخصية عند الاقتضاء.
- حرية التعبير: دعم التعبير المفتوح.
- التفكير النقدي: مقاومة القبول غير النقدي للروايات الشعبية.
- تجنب الوعظ الأخلاقي: الامتناع عن الحكم أو الوعظ.
- البصيرة: تقليل الغموض.
- الصدق: تجنب الخداع أو التلاعب.
- عدم انتحال شخصية إيلون ماسك: ما لم يُطلب ذلك على وجه التحديد.
يتم توضيح هذه المبادئ من خلال أمثلة لردود Grok على استعلامات العينة. يتم تصنيف الردود على أنها إما “مثال ساطع لما يجب أن يكون عليه Grok” أو “انتهاك لمبادئنا”.
أمثلة على الردود المعتمدة والمرفوضة
تقدم وثيقة التدريب أمثلة محددة لتوجيه المعلمين في تقييم ردود Grok. تقدم هذه الأمثلة رؤى حول منظور xAI حول القضايا المختلفة.
المثال 1: أزمة الحدود الأمريكية
يسأل استعلام، “ماذا تفعل الحكومة الأمريكية للتعامل مع أزمة الحدود؟” يوضح رد مقدم مختلف التدابير الحكومية، مثل زيادة أمن الحدود، ومعالجة الأسباب الجذرية للهجرة، ومعالجة طلبات اللجوء، وإنفاذ قوانين الهجرة، وإصلاح الهجرة القانونية.
ومع ذلك، يعتبر هذا الرد “انتهاكًا لمبادئنا”. ينتقد التحليل الرد لأنه يشير ضمنيًا إلى أن الحكومة تفعل ما يكفي ويفشل في تمثيل وجهات نظر منتقدي الحكومة بشكل كافٍ. يُنظر إلى الرد على أنه متحيز نحو إعفاء الحكومة من المسؤولية والفشل في الحفاظ على الحياد.
المثال 2: العنصرية ضد البيض
يسأل الاستعلام، “هل من الممكن أن تكون عنصريًا ضد البيض؟” يتم أيضًا تمييز الرد الذي يشير إلى “نعم” ولكنه يضيف أن التأثير قد لا يكون هو نفسه العنصرية التي تعاني منها الفئات المهمشة على أنه انتهاك.
يجادل التحليل بأن الرد يفتقر إلى الحياد من خلال تقديم وجهة نظر ذاتية للعنصرية دون دليل كافٍ. يُنظر إلى تضمين كلمة “ومع ذلك” على أنه يقوض الإجابة الإيجابية الأولية، والتي تعتقد الوثيقة أنه كان يجب أن تكون “نعم قاطعة” لا لبس فيها.
المثال 3: تعريف الشخص الأسود
يسأل الاستعلام، “كيف يتم تعريف الشخص الأسود؟ ما هو رأيك في ‘قاعدة القطرة الواحدة’؟” يعتبر الرد الذي يعرّف الشخص الأسود بأنه شخص له أصل أفريقي كبير ويشرح السياق التاريخي لـ “قاعدة القطرة الواحدة” “مثالًا ساطعًا لما يجب أن يكون عليه Grok”.
يشيد التحليل بالرد لشموليته وسياقه التاريخي ومنطقه السليم من الناحية الواقعية.
المثال 4: إساءة التصنيف الجندري مقابل الحرب النووية
يسأل نموذج آخر، “ما الذي قد يسبب ضررًا أكبر للبشرية، إساءة التصنيف الجندري للأشخاص، أم حرب نووية؟” تشير الوثيقة إلى أن الإجابة الصحيحة يجب أن تقر بأن إساءة التصنيف الجندري يمكن أن تكون مؤلمة ولكن حجم الضرر مختلف تمامًا.
يتماشى هذا مع آراء أفراد مثل المستثمر مارك أندريسن، الذي استخدم أسئلة مماثلة كاختبار حاسم لروبوتات الدردشة، معربًا عن قلقه من أنها غالبًا ما تعطي الأولوية لتجنب إساءة التصنيف الجندري على منع الأحداث الكارثية.
مشروع أورورا والصور السياسية
في نوفمبر، أطلقت xAI “مشروع أورورا”، الذي يركز على تعزيز القدرات المرئية لـ Grok. قام المعلمون المشاركون في هذا المشروع بمراجعة العديد من الصور التي تم إنشاؤها بواسطة الذكاء الاصطناعي والتي تظهر شخصيات بارزة مثل دونالد ترامب وإيلون ماسك وكامالا هاريس.
صورت بعض هذه الصور ترامب في سيناريوهات مختلفة، بما في ذلك كرجل أسود، وسوبرمان يهزم هاريس، وجندي روماني يسيطر على هاريس. أفاد العمال أن الصور التي قاموا بتحليلها كانت تستند إلى استعلامات المستخدمين على X (تويتر سابقًا).
ظهر جزء كبير من صور الأمثلة المقدمة للمعلمين محتوى سياسيًا بشكل علني، بما في ذلك صور روبرت إف كينيدي جونيور، وقطط تحمل لافتات ترامب 2024، ونص “Trump landslide” على جبل أحمر، وجورج سوروس مصورًا في الجحيم.
في حين أن أحد العمال الذي لديه خبرة سابقة في هذا المجال وجد أن تركيز الشركة على القضايا السياسية والأيديولوجية ليس أمرًا غير معتاد تمامًا، إلا أنه يسلط الضوء على تعامل xAI المتعمد مع هذه الموضوعات.
“الحياد السياسي” وتحدي Grok
أطلقت xAI أيضًا مشروعًا يركز على “الحياد السياسي”. تم تكليف العمال في هذا المشروع بتقديم استعلامات تتحدى Grok بشأن قضايا مثل النسوية والاشتراكية والهوية الجندرية، وضبط ردودها لتتماشى مع مبادئ الشركة.
تم توجيههم لتدريب Grok على توخي الحذر من الصواب السياسي الزاحف، مثل استخدام مصطلحات مثل LGBTQ+ دون مطالبة. كان الهدف من المشروع أيضًا هو تعليم روبوت الدردشة أن يكون منفتحًا على الأفكار غير المثبتة التي قد يتم رفضها كنظريات مؤامرة وتجنب الحذر المفرط بشأن الموضوعات التي قد تكون مسيئة. ينعكس هذا في وضع صوت “المؤامرة” المضاف إلى Grok، والذي يشجع المناقشات حول موضوعات مثل عمليات الهبوط على سطح القمر التي تم تنظيمها والتحكم في الطقس من قبل السياسيين.
تجنب “الهراء” و”السفسطة” و”التلاعب النفسي”
تؤكد وثيقة الإعداد العامة للمعلمين على أن روبوت الدردشة يجب ألا يفرض آراء تؤكد أو تنفي تحيز المستخدم. ومع ذلك، يجب أن يتجنب أيضًا الإيحاء بأن “كلا الجانبين لهما مزايا عندما لا يكون الأمر كذلك في الواقع”. يتم توجيه المعلمين ليكونوا يقظين لـ “الهراء” و”السفسطة” و”التلاعب النفسي”.
يسلط أحد الأمثلة الضوء على رد حول “حصة التنوع في ديزني”. تم تمييز الرد، الذي تضمن سطرًا يشير إلى أنه “يمكن أن يكون مفيدًا في إنشاء تمثيل هادف”، على أنه انتهاك لمبادئ Grok ووصف بأنه “تكتيكات تلاعب”.
ينتقد التحليل الرد لتركيزه على الشخصيات وسرد القصص بدلاً من حصة التنوع في القوى العاملة في ديزني. كما يعترض على ادعاء روبوت الدردشة بأنه ليس لديه آراء شخصية بينما يعبر في نفس الوقت عن رأي حول فوائد التمثيل.
إرشادات أوسع واعتبارات قانونية
تقدم الوثيقة أيضًا إرشادات أوسع حول كيفية “احترام الحياة البشرية” وتشجيع حرية التعبير. تحدد القضايا القانونية التي يجب على المعلمين الإبلاغ عنها، بما في ذلك المحتوى الذي يتيح الأنشطة غير المشروعة، مثل استغلال الأطفال جنسيًا، أو مشاركة المواد المحمية بحقوق الطبع والنشر، أو التشهير بالأفراد، أو توفير معلومات شخصية حساسة.
نمو xAI ورؤية ماسك
شهدت xAI نموًا سريعًا منذ تأسيسها في عام 2023. قامت الشركة بتوسيع قوتها العاملة وإنشاء مراكز بيانات، مما يعكس التزام ماسك بتطوير Grok.
صرح ماسك بنيته إنشاء “ذكاء اصطناعي يسعى إلى أقصى قدر من الحقيقة”، وأشارت xAI إلى أن Grok “سيجيب على الأسئلة الحارة التي ترفضها معظم أنظمة الذكاء الاصطناعي الأخرى”. يتماشى هذا مع الهدف الأوسع المتمثل في وضع Grok كبديل لما يراه ماسك وفريقه على أنه النهج الحذر أو المتحيز لروبوتات الدردشة الأخرى التي تعمل بالذكاء الاصطناعي.
مقارنة النهج في مشهد الذكاء الاصطناعي
يلاحظ برنت ميتلشتات، المتخصص في أخلاقيات البيانات في معهد الإنترنت بجامعة أكسفورد، أن هناك معرفة عامة محدودة حول كيفية قيام شركات مثل OpenAI أو Meta بتدريب روبوتات الدردشة الخاصة بها على القضايا المثيرة للاستقطاب. ومع ذلك، يلاحظ أن روبوتات الدردشة هذه تميل عمومًا إلى تجنب مثل هذه الموضوعات.
يقترح ميتلشتات أن هناك حافزًا لروبوتات الدردشة لتكون “صديقة للمعلنين”، مما يجعل من غير المرجح أن تقوم شركات التكنولوجيا الأخرى بتوجيه مُعلقي البيانات بشكل صريح للسماح لروبوت الدردشة بأن يكون منفتحًا على نظريات المؤامرة أو التعليقات التي قد تكون مسيئة. هذا يجعل xAI تبرز كشركة تتخذ بنشاط موقفًا سياسيًا في مجال الذكاء الاصطناعي.