اجتياز حدود الذكاء الاصطناعي: ضرورة الغرب في عصر المصدر المفتوح

أحدث ظهور نماذج الذكاء الاصطناعي المتطورة مثل R1 من DeepSeek موجات عبر المشهد التكنولوجي الغربي، مما استدعى تفكيرًا ذاتيًا ضروريًا حول استراتيجيات تطوير الذكاء الاصطناعي، لا سيما حول المتطلبات المتنافسة غالبًا لفعالية التكلفة والقدرة المتطورة. ومع ذلك، تمتد الآثار إلى ما هو أبعد من مجرد المعايير التقنية أو الكفاءات الاقتصادية. المسار الذي أبرزته DeepSeek يفرض اعتبارًا أعمق وأكثر إلحاحًا: ماذا يعني صعود أنواع معينة من الذكاء الاصطناعي، خاصة تلك التي تناصرها الدول غير الديمقراطية، لصحة ومبادئ الديمقراطية نفسها في عصر يتشكل بشكل متزايد بواسطة الخوارزميات؟

في قلب هذا التحدي يكمن مفهوم الذكاء الاصطناعي مفتوح المصدر (open-source AI). يشير هذا إلى أنظمة الذكاء الاصطناعي حيث تكون المكونات الأساسية - بدءًا من الكود الأساسي إلى مجموعات البيانات المستخدمة للتدريب - متاحة للجمهور. تسمح هذه الشفافية للمستخدمين ليس فقط باستخدام الأدوات ولكن أيضًا بدراسة طريقة عملها الداخلية وتعديلها لأغراض محددة ومشاركة ابتكاراتهم. في حين أن التعريف الدقيق لـ ‘المصدر المفتوح’ في سياق نماذج الذكاء الاصطناعي المعقدة لا يزال قيد النقاش، فإن إمكاناته هائلة. إنه يعد بإضفاء الطابع الديمقراطي على تطوير الذكاء الاصطناعي، وتعزيز نظام بيئي نابض بالحياة حيث يمكن للمطورين التعاون والبناء على عمل بعضهم البعض. يمكن لهذه الروح التعاونية تمكين الأفراد والباحثين والمجتمعات من تصميم حلول الذكاء الاصطناعي لقطاعات حيوية مثل التعليم وتقديم الرعاية الصحية والخدمات المالية، مما قد يفتح الباب أمام ابتكارات كبيرة ويسرع التقدم الاقتصادي على نطاق واسع.

ومع ذلك، يحمل هذا المسار التكنولوجي الواعد تعقيدات ومخاطر متأصلة، لا سيما فيما يتعلق بحوكمته وقيمه الأساسية. تشير التقارير المحيطة بنموذج DeepSeek R1، على سبيل المثال، إلى أنه قد يتضمن آليات تفرض رقابة أو تحجب المعلومات بشكل انتقائي عن المستخدمين. يؤكد هذا المثال الفردي على خطر أكبر: الدول الديمقراطية لا تخاطر فقط بالتخلف في السباق التكنولوجي للحصول على أداء متفوق للذكاء الاصطناعي. إنها تواجه خطرًا حاسمًا بنفس القدر يتمثل في التنازل عن الأرض في المعركة الحاسمة لتشكيل حوكمة الذكاء الاصطناعي، مما قد يسمح للأنظمة المضمنة بمبادئ استبدادية بالانتشار عالميًا، وتطغى على تلك المصممة لدعم المعايير الديمقراطية مثل حرية التعبير والوصول إلى المعلومات.

لذلك، تتطلب اللحظة الحالية استجابة استباقية ومنسقة. من الضروري للولايات المتحدة (United States) أن تقيم شراكة قوية مع حلفائها الديمقراطيين، مع كون الاتحاد الأوروبي (European Union) متعاونًا حيويًا بشكل خاص، لوضع معايير عالمية وأفضل الممارسات خصيصًا لـ الذكاء الاصطناعي مفتوح المصدر (open-source AI). بالاستفادة من أطرها التشريعية الحالية وتأثيرها الكبير في السوق، يجب على هؤلاء الشركاء عبر الأطلسي قيادة إنشاء هيكل حوكمة قوي لهذا المجال المزدهر. تتضمن الخطوة الأولى الحاسمة التوافق رسميًا حول تعريف وظيفي للذكاء الاصطناعي مفتوح المصدر لضمان الوضوح التنظيمي والفعالية. بعد ذلك، هناك حاجة إلى تسريع منسق للجهود لضمان ترسيخ القيم الديمقراطية - الشفافية والإنصاف والمساءلة واحترام الحقوق الأساسية - بعمق داخل نماذج الذكاء الاصطناعي مفتوحة المصدر التي يتم تطويرها والترويج لها. مثل هذا الدفع الاستراتيجي ضروري لتمهيد الطريق لمستقبل ذكاء اصطناعي مفتوح وشفاف وتمكيني للجميع حقًا، بدلاً من مستقبل يتشكل بمهارة بواسطة السيطرة الاستبدادية.

تبني الصين المحسوب للانفتاح

يتطلب فهم الديناميكيات الحالية تقدير المناورات الاستراتيجية للصين في مجال الذكاء الاصطناعي. جزء من نجاح DeepSeek الملحوظ ليس فقط البراعة التقنية؛ إنه يتماشى مع إشارات واضحة بشكل متزايد من الحزب الشيوعي الصيني (CCP) تشير إلى نية دمج وضع معايير الذكاء الاصطناعي مفتوح المصدر مباشرة في بنيته القانونية والسياسية. وصل مؤشر مهم في أبريل 2024 مع مسودة قانون الذكاء الاصطناعي النموذجي. توضح هذه الوثيقة صراحة دعم بكين لتنمية نظام بيئي محلي للذكاء الاصطناعي مفتوح المصدر.

تنص المادة 19 من مسودة القانون هذه على أن الدولة ‘تعزز بناء النظام البيئي مفتوح المصدر’ و ‘تدعم بنشاط الكيانات ذات الصلة في بناء أو تشغيل منصات مفتوحة المصدر ومجتمعات مفتوحة المصدر ومشاريع مفتوحة المصدر’. وتذهب إلى أبعد من ذلك، حيث تشجع الشركات على جعل ‘كود مصدر البرامج وتصميمات الأجهزة وخدمات التطبيقات متاحة للجمهور’، ظاهريًا لتعزيز المشاركة على مستوى الصناعة والابتكار التعاوني. ولعل الأمر الأكثر دلالة هو أن المسودة تقترح تقليل أو حتى إزالة المسؤولية القانونية للكيانات التي توفر نماذج ذكاء اصطناعي مفتوحة المصدر، بشرط إنشاء أنظمة حوكمة متوافقة مع ‘المعايير الوطنية’ وتنفيذ ‘تدابير السلامة المقابلة’. يمثل هذا تحولًا محتملاً كبيرًا عن التشريعات السابقة المتعلقة بالذكاء الاصطناعي في الصين، والتي غالبًا ما أكدت على حماية حقوق المستخدم بشكل أكثر صراحة. على الرغم من أنها لا تزال مسودة، إلا أن الأحكام المحددة في قانون الذكاء الاصطناعي النموذجي تقدم مخططًا قيمًا، يكشف كيف تتصور الصين نشر الذكاء الاصطناعي مفتوح المصدر محليًا، وبشكل حاسم، ما هي الخصائص التي قد تمتلكها نماذج الذكاء الاصطناعي المصدرة.

مما يعزز هذا الاتجاه الاستراتيجي هو إطار حوكمة سلامة الذكاء الاصطناعي، وهو وثيقة تعتزم الصين الاستفادة منها دوليًا لـ ‘تعزيز التعاون الدولي بشأن حوكمة سلامة الذكاء الاصطناعي على المستوى العالمي’. يعكس هذا الإطار تأكيد الدولة المتزايد فيما يتعلق بالذكاء الاصطناعي مفتوح المصدر. تمت صياغة الإطار من قبل اللجنة الفنية الوطنية الصينية 260 للأمن السيبراني - وهي هيئة مرتبطة ارتباطًا وثيقًا بإدارة الفضاء السيبراني الصينية القوية، التي تم تبني إرشاداتها للأمن السيبراني رسميًا من قبل CCP في سبتمبر 2024 - وينص الإطار بشكل لا لبس فيه: ‘يجب علينا تعزيز تبادل المعرفة في الذكاء الاصطناعي، وإتاحة تقنيات الذكاء الاصطناعي للجمهور بموجب شروط المصدر المفتوح، وتطوير رقائق الذكاء الاصطناعي والأطر والبرامج بشكل مشترك’. إن إدراج مثل هذا البيان القوي في وثيقة موجهة إلى جمهور عالمي يشير بوضوح إلى طموح الصين ليس فقط للمشاركة في حركة الذكاء الاصطناعي مفتوح المصدر، ولكن لوضع نفسها كمدافع رائد وواضع للمعايير في هذا المجال التكنولوجي الحاسم. ومع ذلك، فإن هذا الاحتضان المحسوب لـ ‘الانفتاح’ يعمل ضمن بيئة خاضعة للرقابة بشكل واضح، بهدف تسخير القوة الابتكارية للمصدر المفتوح مع الحفاظ على التوافق مع أهداف الدولة.

تردد أمريكا: الدفاع بدلاً من التوجيه

عبر المحيط الهادئ، يقدم السرد المحيط بالذكاء الاصطناعي مفتوح المصدر في الولايات المتحدة (United States) دراسة في التناقضات. لبعض الوقت الآن، دافع المؤيدون داخل صناعة التكنولوجيا والأوساط الأكاديمية عن الفوائد الكبيرة لنهج المصدر المفتوح. حثت شخصيات بارزة في الصناعة علنًا حكومة US على إيلاء تركيز استراتيجي أكبر لتعزيز تطوير الذكاء الاصطناعي مفتوح المصدر. مثال بارز هو إطلاق Mark Zuckerberg لنموذج المصدر المفتوح Llama 3.1، مصحوبًا بتأكيده على أن المصدر المفتوح ‘يمثل أفضل فرصة للعالم’ لخلق ‘فرص اقتصادية وأمن للجميع’ على نطاق واسع.

على الرغم من هذا التأييد الصريح من جهات مؤثرة، فشلت الولايات المتحدة (United States) بشكل واضح في إنشاء أي إطار تشريعي مهم مصمم خصيصًا لتعزيز أو توجيه تطوير الذكاء الاصطناعي مفتوح المصدر (open-source AI). بينما قدم سيناتور أمريكي مشروع قانون في عام 2023 يهدف إلى بناء إطار لأمن البرمجيات مفتوحة المصدر، ظل هذا التشريع يراوح مكانه دون تقدم يذكر. تطرقت الوكالات الفيدرالية إلى القضية، ولكن غالبًا بموقف حذر أو تفاعلي. في العام الماضي، نشرت الإدارة الوطنية للاتصالات والمعلومات (NTIA) تقريرًا يفحص نماذج أساس الذكاء الاصطناعي ذات الاستخدام المزدوج مع ‘أوزان مفتوحة’. من المهم ملاحظة أن ‘الأوزان المفتوحة’ تعني عادةً أن معلمات النموذج متاحة للاستخدام، لكنها لا تفي بالضرورة بالمعايير الكاملة لكونها مفتوحة المصدر حقًا (والتي غالبًا ما تتضمن الوصول إلى بيانات التدريب والكود). نصح تقرير NTIA الحكومة بتكثيف مراقبتها للمخاطر المحتملة المرتبطة بنماذج الأوزان المفتوحة هذه لتحديد القيود المناسبة بشكل أفضل. لاحقًا، تبنى الإطار التنظيمي النهائي للذكاء الاصطناعي لإدارة Biden موقفًا أكثر تساهلاً إلى حد ما تجاه النماذج المفتوحة، حيث وضع متطلبات أكثر صرامة لنماذج الأوزان المغلقة الأقوى مع استبعاد نماذج الأوزان المفتوحة إلى حد كبير من هذه القيود المحددة.

ومع ذلك، لا تزال استراتيجية وطنية واضحة واستباقية لدعم الذكاء الاصطناعي الديمقراطي مفتوح المصدر بعيدة المنال. يضيف الاتجاه المستقبلي في ظل التغييرات المحتملة في القيادة طبقة أخرى من عدم اليقين. لم يوضح الرئيس السابق Donald Trump سياسة أو توجيهًا محددًا بشأن الذكاء الاصطناعي مفتوح المصدر. بينما ألغى الأمر التنفيذي الأولي للرئيس Biden بشأن الذكاء الاصطناعي، فإن الأمر البديل الصادر لم يحدد أي مبادرات ملموسة مخصصة لتعزيز أو توجيه تطوير الذكاء الاصطناعي مفتوح المصدر.

بشكل عام، يبدو النهج الأمريكي دفاعيًا في الغالب. يبدو أن التركيز الأساسي ينصب على تطوير نماذج ذكاء اصطناعي عالية القدرة، وغالبًا ما تكون مملوكة، مع بذل جهود كبيرة في نفس الوقت لمنع الخصوم، وخاصة الصين، من الوصول إلى تكنولوجيا أشباه الموصلات المتقدمة وقدرات الذكاء الاصطناعي. هذا الموقف الدفاعي، على الرغم من كونه مفهومًا من منظور الأمن القومي، يخاطر بإهمال الاستراتيجية الهجومية الحاسمة: الزراعة النشطة والترويج لنظام بيئي عالمي للذكاء الاصطناعي مفتوح المصدر متجذر في المبادئ الديمقراطية. يبدو أن US منشغلة بحراسة حصونها التكنولوجية، مما قد يفوت فرصة تشكيل المشهد العالمي الأوسع من خلال النشر الاستباقي لبدائل الذكاء الاصطناعي المفتوحة التي تحترم الحقوق.

مفارقة التنظيم الأوروبي: القوة والشلل

يقدم الاتحاد الأوروبي (European Union)، المشهور بموقفه التنظيمي الحازم في المجال الرقمي، نوعًا مختلفًا من التحدي فيما يتعلق بالذكاء الاصطناعي مفتوح المصدر. منذ التنفيذ التاريخي للائحة العامة لحماية البيانات (GDPR)، نجح EU في وضع نفسه كواضع للمعايير العالمية للاقتصاد الرقمي. غالبًا ما تقوم البلدان والشركات متعددة الجنسيات في جميع أنحاء العالم بمواءمة ممارساتها مع أطر الامتثال للاتحاد الأوروبي، وهو اتجاه يمتد إلى مجال الذكاء الاصطناعي مع ظهور قانون الذكاء الاصطناعي الشامل للاتحاد الأوروبي (EU AI Act). يهدف هذا القانون إلى وضع لوائح قائمة على المخاطر لأنظمة الذكاء الاصطناعي في جميع أنحاء الاتحاد.

ومع ذلك، عندما يتعلق الأمر بمعالجة الذكاء الاصطناعي مفتوح المصدر (open-source AI) على وجه التحديد، تبدو الآلية التنظيمية الهائلة للاتحاد الأوروبي مترددة بشكل مدهش وجهودها غير متطورة إلى حد ما. تحتوي المادة 2 من قانون الذكاء الاصطناعي على ذكر موجز، حيث تخصص بعض الإعفاءات من التنظيم لنماذج الذكاء الاصطناعي مفتوحة المصدر. ومع ذلك، يبدو التأثير العملي لهذا الإعفاء محدودًا، لا سيما أنه لا ينطبق عادةً على النماذج المنشورة لأغراض تجارية. يحد هذا النطاق الضيق بشكل كبير من تأثيره الواقعي على المشهد المزدهر للذكاء الاصطناعي مفتوح المصدر.

يستمر هذا الوضع المتناقض - الاعتراف بالمصدر المفتوح مع الفشل في تعزيزه بنشاط - في وثائق توجيهية أخرى للاتحاد الأوروبي. قد تعترف أحدث مدونة ممارسات للذكاء الاصطناعي للأغراض العامة، التي نُشرت افتراضيًا في مارس 2025 لغرض هذه المناقشة، بالمساهمات الإيجابية للنماذج مفتوحة المصدر في تطوير ذكاء اصطناعي آمن ومتمحور حول الإنسان وجدير بالثقة. ومع ذلك، غالبًا ما تفتقر مثل هذه الوثائق إلى تفصيل هادف أو تدابير ملموسة مصممة لـ تعزيز تطوير واعتماد هذه النماذج مفتوحة المصدر التي يحتمل أن تكون مفيدة على نطاق واسع. حتى ضمن الأطر الاستراتيجية مثل بوصلة التنافسية للاتحاد الأوروبي - المصممة ظاهريًا لمعالجة التنظيم المفرط وتعزيز القدرة التنافسية الاستراتيجية في مجالات رئيسية مثل الذكاء الاصطناعي - فإن مصطلح ‘المصدر المفتوح’ غائب بشكل واضح أو يحظى بأقل قدر من الاهتمام.

من المحتمل أن ينبع هذا النهج الحذر، شبه المتحفظ، من بروكسل تجاه تبني وتنظيم الذكاء الاصطناعي مفتوح المصدر بالكامل من عدة عوامل. إحدى العقبات الهامة هي الصعوبة الكامنة في تحديد الذكاء الاصطناعي مفتوح المصدر (defining open-source AI) بدقة. على عكس البرمجيات مفتوحة المصدر التقليدية، التي تتضمن بشكل أساسي كود المصدر، يشمل الذكاء الاصطناعي مفتوح المصدر نماذج معقدة مدربة مسبقًا، ومجموعات بيانات ضخمة، وبنى معقدة. إن الافتقار إلى تعريف قانوني مقبول عالميًا، على الرغم من جهود منظمات مثل مبادرة المصدر المفتوح (OSI)، يخلق مستوى من عدم اليقين القانوني الذي عادة ما تكون الهيئات التنظيمية مثل المفوضية الأوروبية غير مرتاحة له.

ومع ذلك، قد يكون الدافع الأساسي لهذا التقاعس النسبي أعمق. قد يجعل نجاح الاتحاد الأوروبي ذاته في إنشاء أنظمة تنظيمية بعيدة المدى مثل GDPR المفوضية حذرة من إنشاء إعفاءات واسعة لتكنولوجيا قوية وسريعة التطور مثل الذكاء الاصطناعي، خاصة عندما يظل متغيرها مفتوح المصدر غير محدد إلى حد ما. قد يكون هناك خوف من أن تبني الذكاء الاصطناعي مفتوح المصدر بسرعة كبيرة، دون حواجز حماية راسخة تمامًا، قد يضعف عن غير قصد النفوذ التنظيمي العالمي الذي اكتسبه الاتحاد الأوروبي بشق الأنفس. يشكل هذا مقامرة استراتيجية - إعطاء الأولوية للسيطرة الشاملة على تعزيز نظام بيئي للابتكار المفتوح أكثر ديناميكية، وإن كان أقل قابلية للتنبؤ - وهي مقامرة أظهرت بروكسل، حتى الآن، القليل من الرغبة في اتخاذها بشكل حاسم. يترك هذا الشلل التنظيمي فراغًا يملأه الآخرون بسهولة.

المشهد الجيوسياسي المتغير للذكاء الاصطناعي

إن التقاء الدفع الاستراتيجي للصين نحو الذكاء الاصطناعي مفتوح المصدر والتردد النسبي للولايات المتحدة (United States) والاتحاد الأوروبي (European Union) يعيد تشكيل التضاريس الجيوسياسية للذكاء الاصطناعي بنشاط. يمكن فهم حملة الصين الحازمة نحو الاكتفاء الذاتي التكنولوجي، وهي حملة تتضمن الآن بوضوح ترسيخ استراتيجياتها حول الذكاء الاصطناعي مفتوح المصدر، جزئيًا كرد فعل على ضوابط التصدير الأمريكية المستمرة التي تستهدف أجهزة الحوسبة المتقدمة وأشباه الموصلات، وهي تدابير تم تنفيذها بسبب مخاوف أمريكية بشأن الأمن القومي والقدرة التنافسية الاقتصادية وحماية الملكية الفكرية التي تعود إلى عدة سنوات. تعكس الإجراءات المضادة للصين، بما في ذلك تبنيها للمصدر المفتوح، المنافسة الاستراتيجية الأوسع والأكثر حدة على التفوق التكنولوجي بين القوتين العالميتين. في غضون ذلك، يؤكد الاتحاد الأوروبي عادةً نفوذه في هذا السباق ليس من خلال المنافسة التكنولوجية المباشرة على نفس النطاق، ولكن من خلال وضع معايير عالمية تركز على حماية الحقوق الأساسية والخصوصية والقيم الديمقراطية مثل الإنصاف والمساءلة الخوارزمية - وهي معايير شكلت بالفعل سياسات شركات التكنولوجيا العالمية الكبرى.

ومع ذلك، من خلال وضع نفسها بقوة كقائد ومدافع عن الذكاء الاصطناعي مفتوح المصدر (open-source AI)، تحول الصين بذكاء تحديًا - الوصول المقيد إلى بعض التقنيات الغربية - إلى فرصة استراتيجية. إنها تصوغ وتسوق بفعالية نسختها المميزة من انفتاح الذكاء الاصطناعي للمجتمع العالمي، لا سيما للدول النامية التي تسعى للحصول على أدوات ذكاء اصطناعي يمكن الوصول إليها. بدأ ظهور نماذج صينية قادرة مثل R1 من DeepSeek، جنبًا إلى جنب مع عروض من عمالقة التكنولوجيا المحليين الآخرين مثل Alibaba، في تغيير الديناميكيات العالمية. من المحتمل أن يقلل ذلك من الشهية العالمية لنماذج الذكاء الاصطناعي المغلقة والمملوكة حصريًا، خاصة إذا بدت البدائل المفتوحة أكثر سهولة في الوصول إليها أو فعالية من حيث التكلفة. أصدرت DeepSeek، على سبيل المثال، نماذج أصغر وأقل تطلبًا من الناحية الحسابية ومناسبة للأجهزة ذات قدرة المعالجة المحدودة. أفادت التقارير أن منصات مثل Hugging Face، وهي مركز رئيسي لتطوير الذكاء الاصطناعي، بدأت في تحليل وتكرار جوانب من طرق تدريب DeepSeek-R1 لتحسين نماذجها الخاصة. حتى عمالقة التكنولوجيا الغربيون مثل Microsoft و OpenAI و Meta يستكشفون بشكل متزايد تقنيات مثل تقطير النماذج (model distillation)، والتي اكتسبت شهرة جزئيًا بسبب تطورات DeepSeek.

يكشف هذا المشهد المتطور أن الصين تدفع بشكل استباقي المحادثة العالمية حول انفتاح الذكاء الاصطناعي، مما يجبر الولايات المتحدة (United States)، لأول مرة، على الرد والتكيف مع هذا الخطاب. في الوقت نفسه، لا يزال الاتحاد الأوروبي عالقًا إلى حد ما في حالة من الجمود القانوني والتنظيمي فيما يتعلق بالمصدر المفتوح. يخلق هذا التباين اختلالًا ملحوظًا في توازن القوى تحديدًا في المجال الحاسم لحوكمة وانتشار الذكاء الاصطناعي مفتوح المصدر.

بشكل حاسم، تحمل نسخة الذكاء الاصطناعي مفتوح المصدر التي تروج لها الصين مخاوف كبيرة للمجتمعات الديمقراطية. يبدو أن CCP ينفذ استراتيجيًا نظام ‘المسارين’: تشجيع الانفتاح النسبي والتعاون بين مطوري وشركات الذكاء الاصطناعي لتحفيز الابتكار، مع تضمين ضوابط وقيود في نفس الوقت داخل النماذج الموجهة للجمهور لتقييد تدفق المعلومات وحرية التعبير. هذا ‘الانفتاح’ مشروط بشدة بأنماط الصين الراسخة للتحكم التكنولوجي، وغالبًا ما يتطلب أن تتماشى مدخلات ومخرجات النموذج مع الروايات التي تقرها الدولة وقيم CCP وتعكس صورة وطنية إيجابية. حتى ضمن إطار حوكمة سلامة الذكاء الاصطناعي الموجه عالميًا، حيث تتبنى السلطات الصينية علنًا مبادئ المصدر المفتوح، هناك لغة معبرة حول المحتوى الذي يولده الذكاء الاصطناعي والذي يشكل تهديدات لـ ‘الأمن الأيديولوجي’ - وهي إشارة واضحة إلى القيود المتأصلة لدى CCP على حرية الفكر والتعبير.

بدون إطار بديل قوي يرتكز على حماية المبادئ الديمقراطية وحقوق الإنسان الأساسية، يخاطر العالم بمشاهدة الاستنساخ والتبني الواسع النطاق لتفسير الصين الأكثر تقييدًا للذكاء الاصطناعي مفتوح المصدر. يمكن للأنظمة الاستبدادية وربما حتى الجهات الفاعلة غير الحكومية على مستوى العالم البناء بسهولة على هذه النماذج، مما يتيح الرقابة والمراقبة المتطورة بينما تدعي بشكل مضلل أنها مجرد تعزيز لإمكانية الوصول التكنولوجي. وبالتالي، فإن التركيز فقط على مطابقة الأداء التكنولوجي للصين غير كافٍ. يجب على الديمقراطيات الاستجابة بشكل استراتيجي من خلال أخذ زمام المبادرة في إنشاء وتعزيز الحوكمة الديمقراطية لعصر الذكاء الاصطناعي مفتوح المصدر.

صياغة مسار عبر الأطلسي إلى الأمام

يتطلب المسار الحالي إجراءات حاسمة وتعاونًا متجددًا بين الديمقراطيات الرائدة في العالم. يجب على الولايات المتحدة (United States) والاتحاد الأوروبي (European Union) التفكير بجدية في الشروع في استراتيجية دبلوماسية المصدر المفتوح (open-source diplomacy). يتضمن ذلك الدفع الاستباقي لتطوير ومشاركة نماذج ذكاء اصطناعي قادرة وجديرة بالثقة وتحترم الحقوق عبر العالم كثقل موازن للبدائل الاستبدادية. محور هذا الجهد هو إنشاء إطار حوكمة موحد للذكاء الاصطناعي مفتوح المصدر، يتم تطويره بشكل مشترك من قبل US و EU.

لتشكيل مستقبل ذكاء اصطناعي ديمقراطي بشكل فعال، يعد إنشاء مجموعة عمل عبر الأطلسي مخصصة للذكاء الاصطناعي مفتوح المصدر خطوة تالية حاسمة. يجب أن تستفيد هذه المجموعة من الهياكل القائمة عند الاقتضاء، مثل الشراكة العالمية للذكاء الاصطناعي (GPAI)، ولكن يجب أن تضمن بشكل حاسم المشاركة النشطة ومدخلات شركات التكنولوجيا الرائدة والباحثين الأكاديميين وخبراء المجتمع المدني من كلا جانبي الأطلسي طوال عملية تطوير الإطار. هذا النهج الشامل حيوي لصياغة معايير مبدئية وعملية في نفس الوقت.

ثانيًا، تحتاج كل من الولايات المتحدة (United States) والاتحاد الأوروبي (EU) إلى وضع موارد ملموسة وراء هذه الرؤية. هذا يعني توجيه التمويل بشكل استراتيجي نحو المؤسسات الأكاديمية ومختبرات الأبحاث والشركات الناشئة المبتكرة التي تركز بشكل خاص على تطوير نماذج ذكاء اصطناعي مفتوحة المصدر تتماشى صراحة مع القيم الديمقراطية. تشمل الخصائص الرئيسية لهذه النماذج ما يلي:

  • الشفافية في التصميم وبيانات التدريب.
  • ضمانات قوية ضد الرقابة والتلاعب.
  • آليات للمساءلة وتخفيف التحيز.
  • احترام مدمج للخصوصية والحقوق الأساسية.

يتطلب الترويج لهذه النماذج الديمقراطية اعترافًا واضحًا من صانعي السياسات في كل من واشنطن وبروكسل بأن الفوائد الاستراتيجية طويلة الأجل لتعزيز نظام بيئي عالمي قائم على هذه المبادئ تفوق بشكل كبير المخاطر قصيرة الأجل المتصورة المرتبطة بالانفتاح. في الوقت نفسه، يجب على الاتحاد الأوروبي الاستفادة من براعته التنظيمية الراسخة بشكل أكثر حسماً في هذا المجال المحدد. مع الحفاظ على التزامه بالمعايير العالية، تحتاج بروكسل إلى التغلب على ترددها فيما يتعلق بالتعريف القانوني للذكاء الاصطناعي مفتوح المصدر والعمل بسرعة أكبر لوضع مبادئ توجيهية وحوافز واضحة، وبالتالي مواجهة زخم الصين المتزايد في تشكيل المعايير العالمية. قد يكون تبني درجة من عدم اليقين المُدار ضروريًا لتجنب التنازل عن المزيد من الأرض.

بينما قد تواجه العلاقات عبر الأطلسي اضطرابات دورية على جبهات مختلفة، فإن التحدي الذي يمثله صعود الصين في مجال الذكاء الاصطناعي مفتوح المصدر يؤكد الضرورة المطلقة لـ التعاون بين US و EU بدلاً من المنافسة في هذا المجال. تتطلب استعادة الريادة في هذه الساحة التكنولوجية المحورية مبادرة عبر الأطلسي منسقة وتطلعية. يجب أن تدمج هذه المبادرة تطوير السياسات الاستباقية، وتمويل الأبحاث المستهدف، ودعم الابتكار، وكلها تهدف إلى وضع المعيار العالمي لمستقبل ذكاء اصطناعي يحترم الحقوق حقًا، وشفاف، ومبدع، ومُمكّن للناس في جميع أنحاء العالم. لقد انتهى وقت المراقبة المترددة؛ حان الآن وقت العمل الحاسم والموحد.