Llama 2 بدلًا من Grok في مبادرات تقليص الموظفين

Llama 2 بدلًا من Grok في مبادرات تقليص الموظفين الحكوميين

كشف النقاب عن مفاجأة غير متوقعة، حيث تبين أن المبادرات الحكومية المثيرة للجدل لتبسيط القوى العاملة الفيدرالية قد استخدمت نموذج Meta AI الأقدم، وتحديدًا Llama 2، بدلاً من نموذج الذكاء الاصطناعي الخاص بـ Elon Musk، وهو Grok.

مذكرة “مفترق الطرق” ودور Llama 2

وفقًا لمراجعة أجرتها Wired، شارك المنتسبون إلى DOGE (إدارة الكفاءة الحكومية) التابعة لـ Elon Musk، والذين يعملون داخل مكتب إدارة شؤون الموظفين، في استخدام نموذج Meta’s Llama 2 لتحليل وتصنيف الردود من الموظفين الفيدراليين على رسالة البريد الإلكتروني المثيرة للجدل “Fork in the Road” التي تم إرسالها عبر الحكومة في أواخر يناير بدقة.

عرضت مذكرة “Fork in the Road”، التي كانت مشابهة بشكل لافت للنظر لرسالة سابقة أرسلها Musk إلى موظفي Twitter، على العمال الفيدراليين خيارًا: إظهار “الولاء” من خلال قبول سياسة العودة إلى المكتب المنقحة للحكومة، أو اختيار الاستقالة. في ذلك الوقت، أشارت الشائعات المتداولة إلى أن DOGE كانت تستخدم الذكاء الاصطناعي لمعالجة بيانات الموظفين الحكوميين. وقد ظهر تأكيد منذ ذلك الحين، مما يؤكد استخدام Llama 2 لغربلة ردود الموظفين وتحديد عدد الاستقالات.

ماضي Llama 2 المثير للجدل: التطبيقات العسكرية ورد Meta

تاريخ Llama 2 ليس بدون جدل. والجدير بالذكر أنه في نوفمبر، استخدم باحثون صينيون Llama 2 باعتباره الأساس لنموذج الذكاء الاصطناعي الذي يستخدمه الجيش الصيني. أثار هذا الكشف ردود فعل عنيفة، مما دفع Meta إلى التنديد في البداية بالاعتماد “غير المصرح به” للباحثين على نموذج “واحد” و”قديم”. ومع ذلك، تراجعت Meta لاحقًا عن سياساتها التي تحظر التطبيقات العسكرية ووسعت الوصول إلى نماذج الذكاء الاصطناعي الخاصة بها لأغراض الأمن القومي الأمريكي.

أعلنت Meta علنًا عن التزامها بجعل Llama في متناول الوكالات الحكومية الأمريكية، بما في ذلك تلك المشاركة في تطبيقات الدفاع والأمن القومي، بالإضافة إلى شركاء القطاع الخاص الذين يدعمون مساعيهم. أعلنت الشركة عن شراكات مع شركات مثل Accenture و Amazon Web Services و Anduril و Booz Allen و Databricks و Deloitte و IBM و Leidos و Lockheed Martin و Microsoft و Oracle و Palantir و Scale AI و Snowflake لتسهيل نشر Llama عبر الوكالات الحكومية.

تشير Wired إلى أن الطبيعة مفتوحة المصدر لنماذج Meta تسمح للحكومة بتوظيفها بسهولة لدعم أهداف Musk، ربما دون موافقة صريحة من الشركة. يظل تحديد مدى نشر نماذج Meta داخل الحكومة تحديًا. إن الأساس المنطقي وراء اعتماد DOGE على Llama 2، لا سيما بالنظر إلى التطورات التي حققتها Meta في Llama 3 و 4، غير واضح.

معرفة محدودة باستخدام DOGE لـ Llama 2

تظل التفاصيل المتعلقة بالتطبيق المحدد لـ Llama 2 من قبل DOGE نادرة. كشف تحقيق Wired أن DOGE قامت بنشر النموذج محليًا، مما يوحي بأنه من غير المحتمل أن تكون البيانات قد تم إرسالها عبر الإنترنت، وبالتالي تخفيف المخاوف المتعلقة بالخصوصية التي أعرب عنها العديد من الموظفين الحكوميين.

مخاوف الكونجرس ودعوات للتحقيق

في رسالة بتاريخ أبريل موجهة إلى Russell Vought، مدير مكتب الإدارة والميزانية، طالب أكثر من 40 مشرعًا بإجراء تحقيق شامل في استخدام DOGE للذكاء الاصطناعي. وأعربوا عن مخاوفهم من أن هذا الاستخدام، إلى جانب المخاطر الأمنية المحتملة، قد يقوض التبني الناجح والمناسب للذكاء الاصطناعي داخل الحكومة.

أشارت الرسالة تحديدًا إلى أحد موظفي DOGE وموظف سابق في SpaceX زُعم أنه استخدم نموذج xAI Grok-2 التابع لـ Musk لتطوير “مساعد يعمل بالذكاء الاصطناعي”. وذكرت أيضًا استخدام روبوت محادثة يسمى “GSAi”، استنادًا إلى نماذج Anthropic و Meta، لتحليل بيانات العقود والمشتريات. بالإضافة إلى ذلك، تم ربط DOGE ببرنامج يسمى AutoRIF، يُزعم أنه مصمم لتسريع عمليات الفصل الجماعي عبر الحكومة.

شدد المشرعون على “مخاوف كبيرة بشأن الأمن” المحيط باستخدام DOGE لـ “أنظمة الذكاء الاصطناعي لتحليل رسائل البريد الإلكتروني من جزء كبير من القوى العاملة الفيدرالية المكونة من مليوني شخص والتي تصف إنجازاتهم في الأسبوع الماضي”، مشيرين إلى عدم وجود شفافية.

وجاءت رسائل البريد الإلكتروني هذه بعد رسائل البريد الإلكتروني “Fork in the Road”، التي دفعت العمال إلى تحديد إنجازاتهم الأسبوعية في خمس نقاط. أعرب الموظفون عن قلقهم بشأن طبيعة الردود، خوفًا من أن DOGE قد تطلب معلومات حساسة دون تصاريح أمنية مناسبة.

لم تتمكن Wired من التأكيد بشكل قاطع ما إذا كان Llama 2 قد استخدم أيضًا لتحليل ردود البريد الإلكتروني هذه. ومع ذلك، اقترح العمال الفيدراليون لـ Wired أن DOGE من المحتمل أن “تعيد استخدام التعليمات البرمجية الخاصة بهم” من تجربة البريد الإلكتروني “Fork in the Road”، إذا كان قرارًا حكيمًا.

لماذا لم يتم استخدام Grok

يثار السؤال: لماذا لم تستخدم DOGE Grok؟

التفسير المحتمل هو أن Grok، كونه نموذجًا خاصًا في ذلك الوقت، لم يكن متاحًا لمهمة DOGE في يناير. وفقًا لـ Wired، قد تزيد DOGE من اعتمادها على Grok للمضي قدمًا، خاصة بالنظر إلى إعلان Microsoft بأنها ستبدأ في استضافة نماذج Grok 3 من xAI في Azure AI Foundry هذا الأسبوع، وبالتالي توسيع التطبيقات المحتملة للنموذج.

مخاوف المشرعين: تضارب المصالح والاختراقات الأمنية للبيانات

في رسالتهم، حث المشرعون Vought على التحقيق في تضارب المصالح المحتمل الذي يشمل Musk، مع التحذير أيضًا من الاختراقات الأمنية المحتملة للبيانات. وأكدوا أن الذكاء الاصطناعي، كما تستخدمه DOGE، لم يكن مناسبًا بعد للتطبيقات الحكومية.

وزعموا أنه “بدون حماية مناسبة، فإن تغذية البيانات الحساسة في نظام الذكاء الاصطناعي يضعها في حوزة مشغل النظام - وهو خرق جسيم للثقة العامة وثقة الموظفين وزيادة في مخاطر الأمن السيبراني المحيطة بهذه البيانات.” وأشارو أيضًا إلى أن “نماذج الذكاء الاصطناعي التوليدية غالبًا ما ترتكب أخطاء وتظهر تحيزات كبيرة - فالتقنية غير جاهزة ببساطة للاستخدام في اتخاذ القرارات عالية المخاطر دون فحص مناسب وشفافية وإشراف وضوابط في مكانها.”

بينما يشير تقرير Wired إلى أن DOGE لم ترسل بيانات حساسة من رسائل البريد الإلكتروني “Fork in the Road” إلى مصدر خارجي، إلا أن المشرعين يدافعون عن فحص أكثر قوة لأنظمة الذكاء الاصطناعي للتخفيف من “خطر مشاركة معلومات تعريف شخصية أو معلومات حساسة بطريقة أخرى مع ناشري نموذج الذكاء الاصطناعي”.

القلق السائد هو أن Musk يمكن أن يزيد من الاستفادة من نماذجه الخاصة، مما قد يستفيد من البيانات الحكومية التي يتعذر على منافسيه الوصول إليها، مع تعريض هذه البيانات في الوقت نفسه لمخاطر الاختراق. يأمل المشرعون في أن يتم إجبار DOGE على التوقف عن استخدام أنظمة الذكاء الاصطناعي الخاصة بها. ومع ذلك، يبدو أن Vought أكثر توافقًا مع نهج DOGE، كما يتضح من إرشادات الذكاء الاصطناعي الخاصة به للاستخدام الفيدرالي، والتي تشجع الوكالات على “إزالة الحواجز التي تعترض الابتكار وتوفير أفضل قيمة لدافعي الضرائب”.

تؤكد رسالة المشرعين على أنه “بينما ندعم الحكومة الفيدرالية في دمج تقنيات الذكاء الاصطناعي الجديدة والموافقة عليها التي يمكن أن تحسن الكفاءة أو الفعالية، لا يمكننا التضحية بمعايير الأمن والخصوصية والاستخدام المناسب عند التفاعل مع البيانات الفيدرالية.” كما أنها تنص على أن “لا يمكننا أيضًا التغاضي عن استخدام أنظمة الذكاء الاصطناعي، المعروفة غالبًا بالهلوسة والتحيز، في القرارات المتعلقة بإنهاء التوظيف الفيدرالي أو التمويل الفيدرالي دون شفافية وإشراف كافيين على هذه النماذج - فإن خطر فقدان المواهب والأبحاث الحاسمة بسبب التكنولوجيا المعيبة أو الاستخدامات الخاطئة لهذه التكنولوجيا مرتفع للغاية ببساطة.”

نظرة متعمقة على الآثار المترتبة على استخدام الذكاء الاصطناعي في مبادرات الكفاءة الحكومية

أشعلت الملحمة المتكشفة لاستخدام إدارة الكفاءة الحكومية (DOGE) للذكاء الاصطناعي في جهودها لتبسيط العمليات عاصفة من النقاش والتدقيق. إن الكشف عن أن الوكالة اعتمدت على نموذج Meta’s Llama 2 - وهو ذكاء اصطناعي مفتوح المصدر - بدلاً من ذكاء Grok AI الخاص بـ Elon Musk قد أضاف طبقة من التعقيد إلى سرد معقد بالفعل. يستدعي هذا الموقف نظرة متعمقة على الآثار المتعددة الجوانب لدمج الذكاء الاصطناعي في العمليات الحكومية، وفحص الفوائد والمخاطر الكامنة، والاعتبارات الأخلاقية، واحتمال تضارب المصالح.

جاذبية ومزالق الذكاء الاصطناعي في الحكومة

يبشر دمج الذكاء الاصطناعي في الوظائف الحكومية بتقدم تحويلي في الكفاءة وتحليل البيانات وصنع القرار. من أتمتة المهام الروتينية إلى غربلة مجموعات البيانات الهائلة، يحمل الذكاء الاصطناعي القدرة على إطلاق العنان لمستويات غير مسبوقة من الإنتاجية وتحسين تقديم الخدمات العامة. تخيل خوارزميات يمكنها التنبؤ بأعطال البنية التحتية أو تخصيص التعليم أو تحسين تخصيص الموارد في جهود الإغاثة في حالات الكوارث. الاحتمالات لا حصر لها على ما يبدو.

ومع ذلك، فإن هذه الثورة التكنولوجية ليست بدون مخاطرها. إن الاعتماد على أنظمة الذكاء الاصطناعي يقدم شبكة معقدة من المعضلات الأخلاقية ونقاط الضعف الأمنية والتحيزات المحتملة. يتم تدريب نماذج الذكاء الاصطناعي على البيانات، وإذا كانت هذه البيانات تعكس التحيزات المجتمعية، فإن الذكاء الاصطناعي سوف يديم هذه التحيزات بل ويضخمها. يمثل هذا تهديدًا كبيرًا للعدالة والمساواة في الخدمات الحكومية، مما قد يؤدي إلى نتائج تمييزية في مجالات مثل تطبيق القانون والرعاية الاجتماعية والتعليم.

علاوة على ذلك، يثير استخدام الذكاء الاصطناعي أسئلة عميقة حول الشفافية والمساءلة. عندما يتم اتخاذ القرارات بواسطة الخوارزميات، يصبح من الصعب فهم الأساس المنطقي وراء هذه القرارات، مما يجعل من الصعب محاسبة الوكالات الحكومية على أفعالها.

معضلة Llama 2 مقابل Grok

يجلب اختيار Llama 2 على Grok مجموعة الاعتبارات الخاصة به. إن الطبيعة مفتوحة المصدر لـ Llama 2 تجعلها سهلة الوصول إليها وقابلة للتخصيص، مما يسمح للوكالات الحكومية بتكييفها مع احتياجاتها الخاصة دون أن تكون محصورة في نظام بي

ئي خاص. ومع ذلك، هذا يعني أيضًا أنها تفتقر إلى الدعم والصيانة المخصصين اللذين يأتيان عادةً مع حلول الذكاء الاصطناعي الخاصة.

من ناحية أخرى، يقدم Grok، باعتباره ذكاء اصطناعي خاصًا، وعدًا بأداء متطور وخبرة متخصصة. ومع ذلك، فإنه يثير أيضًا مخاوف بشأن الإغلاق المحتمل للموردين وخصوصية البيانات والتحيز الناجم عن بيانات تدريب الذكاء الاصطناعي. إنه يسلط الضوء على المخاوف بشأن احتمال ممارسة أي كيان خاص، لا سيما كيان مرتبط بشخصية بارزة ترتبط ارتباطًا وثيقًا بأهداف الحكومة، نفوذًا لا مبرر له على عمليات صنع القرار.

شبح تضارب المصالح

يثير تورط كيانات Elon Musk (SpaceX و xAI) في مبادرات الذكاء الاصطناعي الحكومية شبح تضارب المصالح. باعتباره شخصية بارزة ذات مصالح راسخة في قطاعات مختلفة، فإن مشاركة Musk تثير تساؤلات حول النفوذ المحتمل الذي قد يمارسه على السياسة الحكومية ومنح العقود.

هل ستعطي الحكومة معاملة تفضيلية لشركات Musk؟ هل هناك ضمانات كافية لضمان اتخاذ القرارات بشكل محايد وبما يخدم المصلحة العامة؟ هذه أسئلة مشروعة تتطلب تدقيقًا صارمًا.

مخاوف أمن البيانات والخصوصية

إن استخدام الذكاء الاصطناعي في العمليات الحكومية ينطوي حتمًا على جمع بيانات المواطنين الحساسة وتخزينها ومعالجتها. هذا يخلق هدفًا مغريًا للهجمات السيبرانية واختراقات البيانات. يجب على الحكومة تنفيذ تدابير أمنية قوية لحماية هذه البيانات من الوصول غير المصرح به وإساءة الاستخدام. وهذا يشمل ليس فقط حماية البيانات من التهديدات الخارجية ولكن أيضًا إنشاء ضوابط وصول صارمة وآليات مساءلة لمنع إساءة الاستخدام الداخلية.

تتفاقم المخاوف بشأن خصوصية البيانات بسبب الطبيعة الغامضة لخوارزميات الذكاء الاصطناعي. غالبًا ما لا يعرف المواطنون كيف تتم معالجة بياناتهم أو استخدامها لاتخاذ قرارات تؤثر على حياتهم. يؤدي هذا النقص في الشفافية إلى تآكل الثقة بالحكومة ويمكن أن يؤدي إلى مقاومة المبادرات القائمة على الذكاء الاصطناعي.

الآثار المترتبة على مستقبل الحكومة

إن الجدل حول استخدام DOGE للذكاء الاصطناعي ليس مجرد حالة محددة، ولكنه يتعلق بالمستقبل الأوسع للحكومة في عصر الذكاء الاصطناعي. كيف يمكن للحكومة تسخير قوة الذكاء الاصطناعي لتحسين الخدمات العامة مع التخفيف من المخاطر؟ كيف يمكننا التأكد من استخدام الذكاء الاصطناعي بشكل أخلاقي وشفاف وخاضع للمساءلة؟

تتطلب الإجابات على هذه الأسئلة نهجًا متعدد الجوانب:

  • وضع مبادئ توجيهية أخلاقية واضحة: تدوين مجموعة واضحة من المبادئ الأخلاقية التي تحكم استخدام الذكاء الاصطناعي في الحكومة. يجب أن تعطي هذه المبادئ الأولوية للعدالة والشفافية والمساءلة واحترام الخصوصية.

  • تعزيز الشفافية والانفتاح: اجعل خوارزميات الذكاء الاصطناعي وعمليات صنع القرار أكثر شفافية. انشر تقارير تصف كيفية استخدام الذكاء الاصطناعي في الحكومة ووفر طرقًا للمواطنين لتقديم ملاحظات.

  • حماية أمن البيانات: تنفيذ تدابير أمنية قوية لحماية بيانات المواطنين الحساسة من التهديدات السيبرانية وإساءة الاستخدام الداخلية.

  • ضمان المساءلة: وضع خطوط مساءلة واضحة للقرارات القائمة على الذكاء الاصطناعي. تعيين مسؤولين حكوميين مسؤولين عن الإشراف على استخدام الذكاء الاصطناعي ومعالجة أي مشاكل قد تنشأ.

  • تنمية الثقة العامة: تثقيف الجمهور حول فوائد ومخاطر الذكاء الاصطناعي في الحكومة. التفاعل مع المواطنين لمعالجة مخاوفهم وبناء الثقة في الاستخدام المسؤول لهذه التقنية.

من خلال تبني نهج استباقي ومدروس، يمكن للحكومة تسخير القوة التحويلية للذكاء الاصطناعي مع حماية المصلحة العامة. يعد جدل DOGE بمثابة تذكير قيم بأهمية التخطيط الدقيق والحوار المفتوح والالتزام بالمبادئ الأخلاقية في عصر الذكاء الاصطناعي.

السرد المتكشف

إن الدراما المحيطة باستخدام DOGE للذكاء الاصطناعي لم تنته بعد. مع استمرار التحقيقات وظهور المزيد من التفاصيل، سيكون للحادث بلا شك تداعيات على مستقبل نشر الذكاء الاصطناعي داخل الحكومة. نأمل أن يؤدي هذا الموقف إلى دمج أكثر تفكيرًا للتكنولوجيا.