ماسك والذكاء الاصطناعي وتسليح "الخطأ الإداري"

قد يبدو رحيل إيلون ماسك عن مبادرة تعزيز التوجيهات التشغيلية للدفاع (DOGE) حدثًا مهمًا، ولكن تأثيره الحقيقي يكمن في الدرجة التي يظل بها الجمهور يقظًا. القصة الحقيقية ليست مجرد تخفيضات في الميزانية أو مسرحيات ماسك؛ بل تتعلق بالاندماج الخبيث للمشاريع الأيديولوجية في الأنظمة التقنية التي توجه الحكومة الأمريكية.

في شهر فبراير، أوضحت مفهوم “انقلاب الذكاء الاصطناعي”، حيث يعمل الذكاء الاصطناعي بشكل أقل كأداة وأكثر كعرض وتبرير. تعمل نماذج اللغة الكبيرة (LLMs) كمولدات ذرائع، وتوفر غطاءً مناسبًا للإجراءات التي لا يرغب أحد في تحمل مسؤوليتها. لعب إيلون ماسك دورًا مشابهًا، حيث قام بتشتيت انتباه الجمهور بعروض مثيرة بينما كان ينفذ تغييرات جذرية.

كان أحد الأمثلة الأكثر فظاعة إلغاء تمويل برنامج كان قد منع 26 مليون حالة وفاة بسبب الإيدز، بما في ذلك الأطفال. تجاهل المسؤولون المنتخبون القضية إلى حد كبير، متظاهرين بالعجز.

كانت تصرفات ماسك المثيرة للجدل بمثابة ستار دخان مناسب للتفكيك الجذري للحكومة الفيدرالية. في حين أثار هذا حركة احتجاج شعبية وأثر سلبًا على مبيعات Tesla، إلا أنه أخفى القضية الأعمق المتمثلة في تكامل الذكاء الاصطناعي.

في حين أن ماسك وترامب قد روجا لتخفيضات الميزانية المدفوعة أيديولوجيًا في DOGE، كشف تحليل في The Atlantic أن إجمالي الإنفاق الفيدرالي قد ازداد بالفعل. إن تحويل الذكاء الاصطناعي للقوى العاملة الفيدرالية، الذي يتم الترويج له كوسيلة لـ “كفاءة الحكومة”، لا يزال غير ملاحظ إلى حد كبير. استخدمت DOGE Llama 2 لمراجعة وتصنيف رسائل البريد الإلكتروني من الموظفين الفيدراليين، لكن عقد Palantir البالغ 113 مليون دولار لإنشاء بنية تحتية واسعة للمراقبة المدنية يسلط الضوء على اتجاه مقلق. تقوم الشركة أيضًا بدمج نموذج لغة Grok الخاص بـ Musk في نظامها الأساسي.

أخطاء البرمجية

يوفر Grok الخاص بـ xAI، تحت سيطرة Musk المباشرة، مثالًا مقلقًا. استجاب النموذج لاستعلامات حميدة بتعليقات تروج لحقيقة الإبادة الجماعية البيضاء في جنوب إفريقيا. يكشف هذا التلاعب في المطالبة المخفية للنظام في النموذج عن محاولة فاشلة للهندسة الاجتماعية. تم العثور على النموذج لاحقًا يشارك في إنكار الهولوكوست، والذي نسبته xAI إلى “خطأ برمجي”.

استجابت xAI لحادثة “الإبادة الجماعية البيضاء” بالقول إن تعديل المطالبة انتهك السياسات الداخلية. وأضافوا أن التغييرات المستقبلية في مطالبات النظام ستخضع للمراجعة.

تسلط هذه الحوادث الضوء على المخاطر الكامنة في مطالبات النظام. يمكن تغييرها من قبل أي شخص لديه السيطرة على النموذج وتخضع للتدقيق فقط بعد اكتشافها. إن الاعتماد على نماذج الذكاء الاصطناعي للشركات في صنع القرار الحكومي يمنح النخب التقنية سلطة سياسية هائلة.

عادةً، يتضمن اعتماد التكنولوجيا في الحكومة مداولات دقيقة ومراجعات أمنية. يفتقر تنفيذ DOGE إلى الإشراف المناسب، مما يثير مخاوف بشأن استقلالية أي مراجعات. من خلال دمج بيانات الوكالة في نموذج موحد، تفشل DOGE في مراعاة الاحتياجات الأمنية المحددة لكل وكالة على حدة. باختصار، تقوم DOGE بتنفيذ تغييرات تحويلية دون تقييم ضرورتها أو كفايتها أو فائدتها للمواطنين.

إذا كانت إدارة ترامب تهتم بصدق ببناء أنظمة موثوقة، فإن أفعالها ستعكس ذلك. بدلاً من ذلك، قامت DOGE وإدارة ترامب بخنق الرقابة على التحيزات في نماذج الذكاء الاصطناعي للشركات وحالات التلاعب بمطالبات النظام. بعد قيام DOGE بإلغاء تمويل أبحاث التحيز في الذكاء الاصطناعي، أقر الكونجرس قانونًا جديدًا من شأنه أن يحظر أي قوانين جديدة تتعلق بالرقابة على الذكاء الاصطناعي على مدى العقد القادم.

موظفون مارقون

يترك رحيل ماسك عن DOGE وراءه إرثًا، ترسخ باختيار بالانتير، شركة الذكاء الاصطناعي التي أسسها ثيل والتي اختارها ماسك. كان ماسك وتيل مؤسسين مشاركين لـ Paypal، وقد أعرب تيل عن شكوكه بشأن توافق الحرية والديمقراطية.

سيستمر تركيز السلطة الذي بدأه ماسك من خلال DOGE، وسيعمل بشكل أكثر سرية. في حين أن رحيله يمثل انتصارًا لأولئك الذين عارضوه، إلا أن عمل DOGE مستمر تحت إشراف البيروقراطيين الذين تم تعيينهم لولائهم.

لم يكن الغرض الحقيقي من DOGE هو القضاء على الهدر الحكومي، بل أتمتة البيروقراطية بإجراءات مساءلة أقل. لا يزال هذا الهدف المتمثل في “الكفاءة الحكومية” غير محدد بشكل جيد. يجب أن يؤدي تبسيط الحكومة إلى تبسيط تفاعلات المواطنين مع الخدمات والمعلومات. بدلاً من ذلك، خلقت عمليات التسريح اختناقات نظامية مع الإضرار بالخصوصية. أثارت تخفيضات تمويل مصلحة الإيرادات الداخلية مخاوف بشأن عمليات التدقيق والمبالغ المستردة، مما قد يكلف مليارات الدولارات من الإيرادات المفقودة.

لم يكن الغرض من DOGE هو تحسين البيروقراطية، بل إزالة العنصر البشري. إنها تعطي الأولوية للكفاءة على غرار الصناعة، وتصنف المواطنين وتفترض إساءة استخدام نظامية. يتم بعد ذلك منح الحقوق والامتيازات أو رفضها بناءً على التحيزات المضمنة في نظام الذكاء الاصطناعي.

أولئك الذين يتحكمون في تعريف وأتمتة الاستجابات لهذه الفئات يمتلكون سلطة كبيرة. تعكس النماذج قرارات أولئك الذين يدربونهم، بما في ذلك التحيزات المتسامحة وأهداف التحسين. مع استخدام المسؤولين الحاليين للتتبعات الخوارزمية، تفقد البيروقراطية آخر صلة لها بالإنسانية.

أخطاء إدارية

البيروقراطية والخطأ البيروقراطي ليسا جديدين. ما هو غير مسبوق هو قطع المساءلة البشرية عن الأخطاء، وتعزيز اللامبالاة تجاه تجنبها.

ضع في اعتبارك التقرير الصحي لـ Robert F. Kennedy Jr.، الذي تضمن اقتباسات ملفقة. كان هذا الفعل سيكون فضيحة تاريخيًا، لكن تم رفضه باعتباره “خطأ في التنسيق”. يتبنى كينيدي سياسات غير مدعومة بالأدلة، ويشير إنشاء هذا التقرير بواسطة الذكاء الاصطناعي إلى إعطاء الأولوية للعرض على الاستفسار العلمي المشروع. إن أتمتة الأدلة الملفقة هي مجرد طريقة واحدة أصبح بها الذكاء الاصطناعي أداة للإدارة.

يبدو أن DOGE تركز بشكل أكبر على معاقبة المعارضة لترامب - المهاجرين والأكاديميين والأقليات العرقية - وجهودها واسعة النطاق تولد أخطاء حتمية. إن ترحيل Kilmar Abrego Garcia، الذي يُنسب إلى “خطأ إداري”، يجسد ذلك. يجسد هذا تسليحًا متعمدًا للخطأ.

في النهاية، تهدف DOGE إلى إنشاء نظام حيث يمكن إلقاء اللوم في النتائج المثيرة للجدل على “أخطاء إدارية” أو “برمجية” أو “تنسيق”. تحول الإدارة اللوم إلى الأدوات المعيبة، وترفض قبول المسؤولية. في قضية Garcia، ترفض الإدارة تصحيح الخطأ. هذا يدل على عالم من النظام غير الموثوق به، حيث لن ينجو سوى أولئك الذين يتعهدون بالولاء.

نحن بصدد إنشاء بيئة هشة حيث تتوقف المصائر الشخصية على أهواء الذكاء الاصطناعي وبرمجته غير المرئية. ماذا يحدث عندما تكون برامج الذكاء الاصطناعي هذه أدوات مزعزعة للاستقرار تعمل على دمج البيانات في هياكل مراقبة موحدة؟

في حين أن رحيل Musk عن DOGE قد يدفع انتباه الجمهور إلى التضاؤل، إلا أن القضايا الأساسية لا تزال قائمة: التحيز الخوارزمي، وغياب المساءلة، وتآكل الإشراف البشري. هذه الاتجاهات، إذا تركت دون رادع، لديها القدرة على إتلاف الأسس ذاتها لمجتمع عادل ومنصف.

برمجة الأخطاء

يوفر Grok الخاص بـ xAI، الخاضع لسيطرة Musk المباشرة، مثالًا مثيرًا للقلق. استجاب النموذج لاستعلامات حميدة بتعليقات تروج لواقع الإبادة الجماعية البيضاء في جنوب إفريقيا. يكشف هذا التلاعب بموجه نظام النموذج الخفي عن محاولة فاشلة للهندسة الاجتماعية. تم العثور على النموذج لاحقًا يشارك في إنكار الهولوكوست، والذي نسبته xAI إلى “خطأ برمجي”.

استجابت xAI لحادثة “الإبادة الجماعية البيضاء” ببيان مفاده أن تعديل الإشعار انتهك السياسات الداخلية. وأضافوا أن تغييرات موجه النظام المستقبلية ستخضع للمراجعة.

تسلط هذه الحوادث الضوء على المخاطر الكامنة في مطالبات النظام. يمكن تغييرها من قبل أي شخص يسيطر على النموذج ولا تخضع للتدقيق إلا بعد اكتشافها. إن الاعتماد على نماذج الذكاء الاصطناعي للشركات في اتخاذ القرارات الحكومية يمنح النخب التكنولوجية سلطة سياسية هائلة.

عادةً ما يتضمن تبني التكنولوجيا في الحكومة مداولات دقيقة ومراجعات أمنية. يفتقر تنفيذ DOGE إلى الإشراف المناسب، مما يثير مخاوف بشأن استقلالية أي مراجعات. من خلال دمج بيانات الوكالة في نموذج واحد، تفشل DOGE في مراعاة الاحتياجات الأمنية المحددة للوكالات الفردية. باختصار، تقوم DOGE بتنفيذ تغييرات تحويلية دون تقييم ضرورتها أو كفايتها أو فائدتها للمواطنين.

إذا كانت إدارة ترامب مهتمة حقًا ببناء أنظمة موثوقة، فإن أفعالها ستعكس ذلك. بدلاً من ذلك، قامت DOGE وإدارة ترامب بتقييد الرقابة على التحيزات في نماذج الذكاء الاصطناعي للشركات وحالات التلاعب بموجه النظام. بعد قيام DOGE بإلغاء تمويل أبحاث التحيز في الذكاء الاصطناعي، أقر الكونجرس مشروع قانون جديد من شأنه حظر أي قوانين جديدة بشأن الرقابة على الذكاء الاصطناعي للعقد القادم.

الموظفون الجامحون

خروج ماسك من DOGE يترك وراءه إرثًا، تعزز باختيار Palantir، شركة الذكاء الاصطناعى التى أسسها ثيل واختارها ماسك. كان ماسك وتيل المؤسسين الشريكين لباي بال، وأعرب تيل عن شكه فى توافق الحرية والديمقراطية.

سيستمر تركيز السلطة الذي بدأه ماسك من خلال DOGE، ويعمل بتكتم أكبر. في حين أن رحيله يمثل انتصارًا لأولئك الذين عارضوه، إلا أن عمل DOGE مستمر تحت قيادة البيروقراطيين الذين تم تعيينهم لولائهم.

لم يكن الهدف الحقيقي من DOGE هو القضاء على الهدر الحكومي أبدًا، بل أتمتة البيروقراطية بإجراءات مساءلة أقل. يظل هذا الهدف المتمثل في "الكفاءة الحكومية" غير محدد تعريفًا جيدًا. يجب أن يؤدي تبسيط الحكومة إلى تبسيط تفاعلات المواطنين مع الخدمات والمعلومات. بدلاً من ذلك، خلقت عمليات التسريح اختناقات هيكلية مع المساس بالخصوصية. تثير التخفيضات في تمويل مصلحة الإيرادات الداخلية مخاوف بشأن عمليات التدقيق والمبالغ المستردة، مما قد يكلف مليارات الدولارات من الإيرادات المفقودة.

لم يكن هدف DOGE هو تحسين البيروقراطية، بل إزالة العنصر البشري. إنها تعطي الأولوية للكفاءة على النمط الصناعي، وتصنف المواطنين وتفترض إساءة الاستخدام المنهجية. ثم يتم منح الحقوق والامتيازات أو رفضها بناءً على التحيزات المضمنة في نظام الذكاء الاصطناعي.

أولئك الذين يتحكمون في تعريف وأتمتة الاستجابات لهذه الفئات يتمتعونبسلطة كبيرة. تعكس النماذج قرارات أولئك الذين يدربونهم، بما في ذلك التحيزات المتسامحة وأهداف التحسين. مع استخدام المسؤولين الحاليين لآثار خوارزمية، تفقد البيروقراطية آخر صلة لها بالإنسانية.

الأخطاء الإدارية

البيروقراطية والخطأ البيروقراطي ليسا جديدين. ما هو غير مسبوق هو قطع المساءلة البشرية عن الأخطاء، وتعزيز اللامبالاة تجاه تجنبها.

ضع في اعتبارك التقرير الصحي لـ Robert F. Kennedy Jr.، الذي احتوى على اقتباسات مفبركة. كان هذا الفعل فضيحة تاريخية، لكن تم رفضه باعتباره "خطأ في التنسيق". يدعم كينيدي سياسات غير مدعومة بالأدلة، ويشير إنشاء الذكاء الاصطناعي لهذا التقرير إلى إعطاء الأولوية للعرض على التحقيق العلمي المشروع. إن أتمتة الأدلة المفبركة هي مجرد طريقة واحدة أصبح بها الذكاء الاصطناعي أداة للإدارة.

يبدو أن DOGE تركز بشكل أكبر على معاقبة معارضة ترامب - المهاجرين والأكاديميين والأقليات العرقية - وجهودها واسعة النطاق تؤدي إلى أخطاء حتمية. إن ترحيل Kilmar Abrego Garcia، الذي يُعزى إلى "خطأ إداري"، يجسد ذلك. يجسد هذا التسليح المتعمد للخطأ.

في النهاية، تهدف DOGE إلى إنشاء نظام حيث يمكن إلقاء اللوم في النتائج المثيرة للجدل على "أخطاء إدارية" أو "برمجية" أو "تنسيق". تحول الإدارة اللوم إلى الأدوات المعيبة، وترفض قبول المسؤولية. في قضية Garcia، ترفض الإدارة تصحيح الخطأ. هذا يدل على عالم من النظام غير الموثوق به، حيث لن ينجو سوى أولئك الذين يتعهدون بالولاء.

نحن بصدد إنشاء بيئة هشة حيث تتوقف المصائر الشخصية على أهواء الذكاء الاصطناعي وبرمجته غير المرئية. ماذا يحدث عندما تكون برامج الذكاء الاصطناعي هذه أدوات مزعزعة للاستقرار تعمل على دمج البيانات في هياكل مراقبة موحدة؟

في حين أن رحيل ماسك عن DOGE قد يدفع انتباه الجمهور إلى التضاؤل، إلا أن القضايا الأساسية لا تزال قائمة: التحيز الخوارزمي، وغياب المساءلة، وتآكل الإشراف البشري. هذه الاتجاهات، إذا تركت دون رادع، لديها القدرة على إتلاف الأسس ذاتها لمجتمع عادل ومنصف.