أدى الصعود السريع لمنصات الذكاء الاصطناعي المحادثاتي المتطورة بلا شك إلى إعادة تشكيل التفاعلات الرقمية، مقدمًا قدرات غير مسبوقة في استرجاع المعلومات، وتوليد المحتوى، والتواصل الآلي. لقد أسرت أدوات مثل ChatGPT ومعاصروها الخيال العالمي، مظهرة قوة نماذج اللغة الكبيرة (LLMs) في محاكاة الحوار الشبيه بالبشر وأداء المهام المعقدة. ومع ذلك، لم يقابل هذا الازدهار التكنولوجي بترحيب عالمي. بدلاً من ذلك، يقوم عدد متزايد من الدول بوضع حواجز، وتطبيق حظر صريح أو لوائح صارمة على أنظمة الذكاء الاصطناعي القوية هذه. ينبع هذا الرفض من نسيج معقد من المخاوف، يجمع بين القلق بشأن خصوصية الأفراد، واحتمالية استخدام المعلومات المضللة كسلاح، والتهديدات لـالأمن القومي، والرغبة في الحفاظ على السيطرة السياسية والأيديولوجية. إن فهم الدوافع المتنوعة وراء هذه القيود أمر بالغ الأهمية لاستيعاب المشهد العالمي المتطور لحوكمة الذكاء الاصطناعي. ستشكل القرارات المتخذة اليوم في العواصم حول العالم بشكل كبير مسار تطوير الذكاء الاصطناعي ونشره، مما يخلق خليطًا من إمكانية الوصول والتحكم يعكس الأولويات والمخاوف الوطنية العميقة الجذور.
موقف إيطاليا: ضرورات الخصوصية تؤدي إلى توقف مؤقت
في خطوة ترددت أصداؤها في جميع أنحاء العالم الغربي، أصبحت إيطاليا من أوائل الدول البارزة التي تبنت تدابير تقييدية ضد منصة ذكاء اصطناعي توليدي رئيسية. في مارس 2023، أمرت هيئة حماية البيانات الإيطالية، المعروفة باسم Garante per la protezione dei dati personali، بتعليق مؤقت لخدمة ChatGPT التابعة لشركة OpenAI داخل حدود البلاد. لم يكن هذا القرار متجذرًا في مخاوف مجردة ولكن في ادعاءات محددة بعدم الامتثال للوائح حماية البيانات الصارمة المنصوص عليها في اللائحة العامة لحماية البيانات (GDPR) للاتحاد الأوروبي.
أثارت هيئة Garante عدة نقاط حاسمة:
- الافتقار إلى أساس قانوني لجمع البيانات: كان أحد الشواغل الرئيسية هو الكم الهائل من البيانات الشخصية التي يُزعم أن OpenAI جمعتها لتدريب الخوارزميات التي يقوم عليها ChatGPT. شككت السلطة الإيطالية في المبرر القانوني لهذا الجمع والمعالجة واسعة النطاق، لا سيما ما إذا كان المستخدمون قد أعطوا موافقة مستنيرة كما يقتضي GDPR. أدى الغموض المحيط بمجموعات البيانات المحددة المستخدمة والأساليب المتبعة إلى تأجيج هذه المخاوف.
- آليات التحقق من العمر غير الكافية: سلطت Garante الضوء على غياب أنظمة قوية لمنع القاصرين من الوصول إلى الخدمة. نظرًا لقدرة ChatGPT على إنشاء محتوى حول أي موضوع تقريبًا، كانت هناك مخاوف كبيرة بشأن تعريض المستخدمين القصر لمواد قد تكون غير لائقة أو ضارة. يضع GDPR قيودًا صارمة على معالجة بيانات الأطفال، واعتُبر الفشل الملحوظ في تنفيذ بوابات عمر فعالة انتهاكًا خطيرًا.
- دقة المعلومات واحتمالية التضليل: على الرغم من أنها ليست الأساس القانوني الرئيسي للحظر، أشارت السلطة أيضًا إلى احتمالية قيام روبوتات الدردشة بالذكاء الاصطناعي بتقديم معلومات غير دقيقة عن الأفراد، مما قد يؤدي إلى الإضرار بالسمعة أو نشر الأكاذيب.
استجابت OpenAI بشكل استباقي لتلبية مطالب Garante. عملت الشركة على تعزيز الشفافية فيما يتعلق بممارسات معالجة البيانات الخاصة بها، وتزويد المستخدمين بتفسيرات أوضح لكيفية استخدام معلوماتهم. والأهم من ذلك، أنها نفذت تدابير أكثر وضوحًا للتحقق من العمر عند نقطة التسجيل وقدمت أدوات تتيح للمستخدمين الأوروبيين تحكمًا أكبر في بياناتهم، بما في ذلك خيارات إلغاء الاشتراك في استخدام تفاعلاتهم لتدريب النماذج. بعد هذه التعديلات، التي هدفت إلى مواءمة الخدمة بشكل أوثق مع مبادئ GDPR، تم رفع الحظر بعد شهر تقريبًا. كان الحصار المؤقت الذي فرضته إيطاليا بمثابة تذكير قوي لشركات التكنولوجيا في جميع أنحاء العالم بأن التنقل في البيئة التنظيمية الأوروبية، لا سيما فيما يتعلق بخصوصية البيانات، يتطلب اهتمامًا دقيقًا بالامتثال. وأكدت على قوة سلطات حماية البيانات داخل الاتحاد الأوروبي في إنفاذ اللوائح والمطالبة بالمساءلة حتى من أكبر اللاعبين التكنولوجيين العالميين، مما قد يشكل سابقة للدول الأخرى التي تواجه مخاوف مماثلة.
حديقة الصين المسورة: زراعة الذكاء الاصطناعي المحلي تحت إشراف صارم
يرتبط نهج الصين تجاه الذكاء الاصطناعي المحادثاتي ارتباطًا وثيقًا باستراتيجيتها طويلة الأمد المتمثلة في الحفاظ على سيطرة صارمة على تدفقات المعلومات داخل حدودها. تعمل الدولة بموجب نظام متطور للرقابة على الإنترنت، يشار إليه غالبًا باسم ‘جدار الحماية العظيم’، والذي يحظر الوصول إلى العديد من المواقع الأجنبية والخدمات عبر الإنترنت. لذلك، لم يكن مفاجئًا أن يتم جعل روبوتات الدردشة بالذكاء الاصطناعي ذات الشعبية العالمية مثل ChatGPT غير قابلة للوصول بسرعة داخل البر الرئيسي للصين.
يمتد الأساس المنطقي إلى ما هو أبعد من مجرد الرقابة؛ إنه يعكس استراتيجية حكومية متعددة الأوجه:
- منع المعلومات غير المصرح بها والمعارضة: الدافع الأساسي هو قلق الحكومة من أن نماذج الذكاء الاصطناعي غير الخاضعة للرقابة، والتي تم تدريبها على مجموعات بيانات واسعة من الإنترنت العالمي، يمكن أن تنشر معلومات أو وجهات نظر تتعارض مع الرواية الرسمية للحزب الشيوعي الصيني. هناك مخاوف عميقة الجذور من إمكانية استخدام مثل هذه الأدوات لتنظيم المعارضة، أو نشر الأيديولوجيات ‘الضارة’، أو تجاوز آليات الرقابة الحكومية، وبالتالي تقويض الاستقرار الاجتماعي والسيطرة السياسية.
- مكافحة المعلومات المضللة (المحددة من قبل الدولة): بينما تقلق الدول الغربية بشأن توليد الذكاء الاصطناعي للمعلومات المضللة، يتركز اهتمام بكين على المعلومات التي تعتبرها حساسة سياسياً أو مزعزعة للاستقرار. يُنظر إلى الذكاء الاصطناعي الذي يعمل خارج نطاق الرقابة الحكومية على أنه ناقل غير متوقع لمثل هذا المحتوى.
- تعزيز السيادة التكنولوجية: تطمح الصين إلى أن تصبح رائدة عالمية في مجال الذكاء الاصطناعي. يؤدي حظر خدمات الذكاء الاصطناعي الأجنبية إلى إنشاء سوق محمية للبدائل المحلية. تشجع هذه الاستراتيجية نمو رواد الذكاء الاصطناعي المحليين، مما يضمن توافق تطوير ونشر هذه التكنولوجيا الحيوية مع المصالح الوطنية والأطر التنظيمية. تعمل شركات مثل Baidu، من خلال Ernie Bot، و Alibaba، و Tencent بنشاط على تطوير نماذج لغوية كبيرة (LLMs) مصممة خصيصًا للسوق الصينية ومتوافقة مع توجيهات الحكومة.
- أمن البيانات: يتماشى الحفاظ على تطوير الذكاء الاصطناعي محليًا أيضًا مع قوانين أمن البيانات الصينية الصارمة بشكل متزايد، والتي تحكم نقل البيانات عبر الحدود وتتطلب من مشغلي البنية التحتية للمعلومات الحيوية تخزين البيانات محليًا. يقلل الاعتماد على الذكاء الاصطناعي المحلي من الاعتماد على المنصات الأجنبية التي قد تنقل بيانات المستخدمين الصينيين إلى الخارج.
لذلك، فإن ‘الحظر’ الصيني لا يتعلق برفض تكنولوجيا الذكاء الاصطناعي نفسها بقدر ما يتعلق بضمان حدوث تطويرها وتطبيقها داخل نظام بيئي تسيطر عليه الدولة. الهدف هو تسخير الفوائد الاقتصادية والتكنولوجية للذكاء الاصطناعي مع التخفيف من المخاطر السياسية والاجتماعية المتصورة المرتبطة بالوصول غير المقيد إلى المنصات الأجنبية. يعزز هذا النهج مشهدًا فريدًا للذكاء الاصطناعي حيث يتم تشجيع الابتكار، ولكن فقط ضمن الحدود المحددة بوضوح من قبل الدولة.
ستارة روسيا الرقمية الحديدية: الأمن القومي والتحكم في المعلومات
يعكس موقف روسيا من الذكاء الاصطناعي المحادثاتي الأجنبي موقعها الجيوسياسي الأوسع وتركيزها المتزايد على الأمن القومي والسيادة التكنولوجية، لا سيما وسط التوترات المتصاعدة مع الدول الغربية. في حين لا يظهر دائمًا كحظر صريح ومعلن على نطاق واسع مثل إجراء إيطاليا المؤقت، فقد تم تقييد الوصول إلى منصات مثل ChatGPT أو كان غير موثوق به، وتشجع الحكومة بنشاط البدائل المحلية.
تشمل الدوافع الرئيسية وراء قيود روسيا ما يلي:
- مخاوف الأمن القومي: تكن الحكومة الروسية عدم ثقة كبير بمنصات التكنولوجيا الأجنبية، لا سيما تلك التي تنشأ من دول يُنظر إليها على أنها خصوم. هناك مخاوف واضحة من إمكانية استغلال روبوتات الدردشة بالذكاء الاصطناعي المتطورة المطورة في الخارج للتجسس أو جمع المعلومات الاستخباراتية أو عمليات الحرب السيبرانية الموجهة ضد المصالح الروسية. تعد إمكانية وصول هذه الأدوات إلى معلومات حساسة أو التلاعب بها من قبل جهات أجنبية مصدر قلق أمني أساسي.
- مكافحة النفوذ الأجنبي و ‘حرب المعلومات’: تعتبر موسكو السيطرة على المعلومات عنصرًا حاسمًا في الأمن القومي. يُنظر إلى روبوتات الدردشة بالذكاء الاصطناعي الأجنبية على أنها قنوات محتملة للدعاية الغربية أو ‘الأخبار الكاذبة’ أو الروايات التي تهدف إلى زعزعة استقرار الوضع السياسي أو التلاعب بالرأي العام داخل روسيا. يعد تقييد الوصول إجراءً دفاعيًا ضد حملات حرب المعلومات المتصورة.
- تعزيز التكنولوجيا المحلية: على غرار الصين، تتبع روسيا استراتيجية ‘السيادة الرقمية’، بهدف تقليل اعتمادها على التكنولوجيا الأجنبية. يتضمن ذلك استثمارًا كبيرًا في تطوير بدائل محلية عبر مختلف قطاعات التكنولوجيا، بما في ذلك الذكاء الاصطناعي. طورت Yandex، التي يشار إليها غالبًا باسم ‘Google الروسية’، مساعدها الخاص بالذكاء الاصطناعي، Alice (Alisa)، ونماذج لغوية كبيرة أخرى. يضمن تعزيز هذه المنصات المحلية رقابة حكومية أكبر ويواءم تطوير الذكاء الاصطناعي مع الأهداف الاستراتيجية الوطنية.
- الرقابة التنظيمية: من خلال تقييد الذكاء الاصطناعي الأجنبي وتفضيل الخيارات المحلية، يمكن للحكومة الروسية فرض لوائحها الخاصة بسهولة أكبر فيما يتعلق بالإشراف على المحتوى وتخزين البيانات (غالبًا ما يتطلب توطين البيانات داخل روسيا) والتعاون مع أجهزة أمن الدولة. تكون الشركات المحلية بشكل عام أكثر عرضة للضغوط الحكومية والمتطلبات القانونية من نظيراتها الأجنبية.
وبالتالي، فإن القيود المفروضة على الذكاء الاصطناعي الأجنبي في روسيا هي جزء من نمط أكبر لتأكيد السيطرة على المجال الرقمي، مدفوعًا بمزيج من القلق الأمني والأهداف السياسية والرغبة في تعزيز قطاع تكنولوجي يعتمد على الذات ومحمي من الضغوط والتأثيرات الخارجية. تفضل البيئة مزودي التكنولوجيا المعتمدين من الدولة أو التابعين لها، مما يخلق تحديات لمنصات الذكاء الاصطناعي الدولية التي تسعى للعمل داخل البلاد.
نهج إيران الحذر: الحماية من الأيديولوجيات الخارجية
يتأثر تنظيم إيران للذكاء الاصطناعي، بما في ذلك روبوتات الدردشة المحادثاتية، بشدة بنظامها السياسي الفريد وعلاقتها العدائية غالبًا مع الدول الغربية. تحافظ الحكومة على رقابة صارمة على الوصول إلى الإنترنت والمحتوى، معتبرة التكنولوجيا غير المنظمة تهديدًا محتملاً لسلطتها وقيمها الثقافية.
تنبع القيود المفروضة على روبوتات الدردشة بالذكاء الاصطناعي الأجنبية من عدة عوامل مترابطة:
- منع النفوذ الغربي و ‘الغزو الثقافي’: تشعر القيادة الإيرانية بقلق عميق إزاء احتمالية أن تكون التقنيات الأجنبية بمثابة قنوات للأيديولوجيات الثقافية والسياسية الغربية، والتي تعتبرها تقويضًا للقيم الإسلامية ومبادئ الجمهورية الإسلامية. يُنظر إلى الوصول غير المقيد إلى روبوتات الدردشة بالذكاء الاصطناعي المدربة على البيانات العالمية على أنه خطر لتعريض المواطنين، وخاصة الشباب، لأفكار ووجهات نظر قد تكون ‘هدامة’ أو ‘غير إسلامية’.
- تجاوز الرقابة الحكومية: يمكن لأدوات الذكاء الاصطناعي المتطورة أن توفر للمستخدمين طرقًا للتحايل على آليات تصفية الإنترنت والرقابة الواسعة التي تستخدمها الدولة الإيرانية. يمكن أن تتحدى القدرة على الوصول إلى المعلومات أو إنشاء المحتوى بحرية من خلال الذكاء الاصطناعي سيطرة الحكومة على المشهد المعلوماتي.
- الحفاظ على الاستقرار السياسي: على غرار الصين وروسيا، تنظر إيران إلى تدفق المعلومات غير المنضبط على أنه حافز محتمل للاضطرابات الاجتماعية أو المعارضة السياسية. يُنظر إلى روبوتات الدردشة بالذكاء الاصطناعي، بقدرتها على إنشاء نصوص مقنعة والمشاركة في الحوار، على أنها أدوات يمكن استخدامها لتنظيم الاحتجاجات أو نشر المشاعر المناهضة للحكومة.
- تعزيز البدائل التي تقرها الدولة: على الرغم من أنها قد تكون أقل تقدمًا مما هي عليه في الصين أو روسيا، إلا أن هناك اهتمامًا بتطوير أو تأييد تقنيات الذكاء الاصطناعي التي تتماشى مع لوائح الدولة والمتطلبات الأيديولوجية. يضمن السماح فقط بنماذج الذكاء الاصطناعي المعتمدة أن تعمل التكنولوجيا ضمن الحدود التي وضعتها الحكومة ولا تنتهك القوانين الإيرانية أو الأعراف الثقافية.
يتميز نهج إيران بشكوك عميقة الجذور في التأثير المحتمل للتكنولوجيا الأجنبية على شؤونها الداخلية وإطارها الأيديولوجي. لا يتعلق تنظيم روبوتات الدردشة بالذكاء الاصطناعي بالمخاوف التقنية مثل خصوصية البيانات (على الرغم من أنها قد تكون موجودة) بقدر ما يتعلق بالحفاظ على السيطرة السياسية، ودعم قيم ثقافية ودينية محددة، وعزل السكان عن التأثيرات الخارجية التي تعتبرها الدولة غير مرغوب فيها. من المرجح أن يُسمح بالوصول فقط لأنظمة الذكاء الاصطناعي التي يمكن مراقبتها والتحكم فيها، مما يضمن عدم تحديها للنظام القائم.
حاجز كوريا الشمالية المطلق: عزلة المعلومات تمتد إلى الذكاء الاصطناعي
تقف كوريا الشمالية كأبرز مثال على سيطرة الدولة المطلقة على المعلومات والتكنولوجيا، ويعكس موقفها من الذكاء الاصطناعي، لا سيما روبوتات الدردشة التي يمكن الوصول إليها عالميًا، هذا الواقع. تعمل البلاد تحت حصار معلوماتي، مع تقييد شديد للوصول إلى الإنترنت لغالبية سكانها. يقتصر الوصول عادةً على نخبة صغيرة تم فحصها بدقة، وحتى في هذه الحالة، غالبًا ما يقتصر على شبكة إنترانت تسيطر عليها الدولة (Kwangmyong).
في هذا السياق، يكاد يكون مفهوم حظر روبوتات الدردشة بالذكاء الاصطناعي الأجنبية غير ذي صلة، حيث أن البنية التحتية الأساسية والوصول المطلوب لاستخدامها غير موجودين للمواطنين العاديين. ومع ذلك، فإن المبدأ الأساسي واضح ومطلق:
- السيطرة الكاملة على المعلومات: الهدف الأساسي للنظام الكوري الشمالي هو الحفاظ على السيطرة المطلقة على المعلومات التي يتلقاها مواطنوه. يُنظر إلى أي تقنية يمكن أن تقدم معلومات أو وجهات نظر أو قنوات اتصال خارجية على أنها تهديد وجودي لاستقرار النظام وعبادة شخصيته. تمثل روبوتات الدردشة بالذكاء الاصطناعي الأجنبية، المدربة على البيانات العالمية والقادرة على توفير معلومات غير مفلترة، نقيض هذه السيطرة.
- منع التعرض للعالم الخارجي: تعمل الحكومة بنشاط لمنع سكانها من التعرف على العالم خارج كوريا الشمالية، لا سيما عن الحياة في كوريا الجنوبية والدول الغربية. يمكن لروبوتات الدردشة بالذكاء الاصطناعي توفير مثل هذه المعلومات بسهولة، مما قد يقوض دعاية الدولة ويثير السخط.
- الحفاظ على النقاء الأيديولوجي: يفرض النظام التزامًا صارمًا بأيديولوجيته Juche. يُنظر إلى الذكاء الاصطناعي الأجنبي، المشبع بوجهات نظر عالمية متنوعة، على أنه ناقل للتلوث الأيديولوجي الذي يمكن أن يتحدى رواية الدولة وسلطتها.
- المخاوف الأمنية: بالإضافة إلى التحكم في المعلومات، ستكون هناك أيضًا مخاوف أمنية عميقة بشأن استخدام الذكاء الاصطناعي الأجنبي للتجسس أو تسهيل الاتصالات التي يمكن أن تهدد النظام.
على عكس البلدان الأخرى التي قد تنظم الذكاء الاصطناعي أو تقيده أو تحظره بشكل انتقائي، فإن نهج كوريا الشمالية هو نهج الإقصاء شبه الكامل كجزء من سياستها الأوسع للعزلة الشديدة. بينما قد تستكشف الدولة الذكاء الاصطناعي لتطبيقات محددة وخاضعة للرقابة داخليًا (مثل الجيش والمراقبة)، فإن فكرة السماح بالوصول الواسع النطاق إلى منصات الذكاء الاصطناعي المحادثاتي الأجنبية تتعارض بشكل أساسي مع طبيعة النظام. إنه يمثل الطرف الأكثر صرامة في الطيف العالمي، حيث تفوق المخاطر المتصورة للمعلومات غير الخاضعة للرقابة بكثير أي فوائد محتملة للوصول المفتوح إلى هذه التكنولوجيا.
السرد المتكشف: التنظيم والابتكار وحدود الذكاء الاصطناعي
توضح الإجراءات المتنوعة التي اتخذتها دول مثل إيطاليا والصين وروسيا وإيران وكوريا الشمالية أن الاستجابة العالمية للذكاء الاصطناعي المحادثاتي بعيدة كل البعد عن التوحيد. يعكس نهج كل دولة انعكاسًا فريدًا لنظامها السياسي وقيمها الثقافية وطموحاتها الاقتصادية وتهديدات الأمن القومي المتصورة. يسلط الحظر المؤقت الذي فرضته إيطاليا، استنادًا إلى قانون حماية البيانات في الاتحاد الأوروبي، الضوء على القوة التنظيمية التي تمارسها الأطر القانونية الراسخة في المجتمعات الديمقراطية. تُظهر الصين وروسيا نموذجًا يتم فيه السعي بقوة للتقدم التكنولوجي، ولكن بشكل صارم ضمن معايير تسيطر عليها الدولة، مع إعطاء الأولوية للاستقرار والتحكم في المعلومات وتنمية الصناعات المحلية المحمية من المنافسة الأجنبية. يركز تركيز إيران بشكل حاد على الحفاظ على الأيديولوجية والحماية من التدخل الخارجي المتصور. تمثل كوريا الشمالية نقطة النهاية القصوى، حيث تملي عزلة المعلومات حصارًا شبه كامل ضد هذه التقنيات.
تؤكد هذه الاستجابات المتباينة على توتر أساسي في قلب ثورة الذكاء الاصطناعي: التوازن الدقيق والمثير للجدل غالبًا بين تعزيز الابتكار والتخفيف من المخاطر المحتملة. تتصارع الحكومات في جميع أنحاء العالم مع أسئلة عميقة:
- كيف يمكن تسخير الفوائد الاقتصادية والمجتمعية للذكاء الاصطناعي بمسؤولية؟
- ما هي الضمانات اللازمة لحماية خصوصية الأفراد في عصر جمع البيانات الضخمة؟
- كيف يمكن مواجهة انتشار المعلومات المضللة والتضليل التي يولدها الذكاء الاصطناعي دون خنق حرية التعبير؟
- ما الدور الذي يجب أن يلعبه الذكاء الاصطناعي في الأمن القومي، وكيف يمكن إدارة المخاطر المرتبطة به؟
- هل ستؤدي اللوائح الصارمة عن غير قصد إلى خنق الابتكار الذي تسعى إلى توجيهه، مما قد يتسبب في تخلف الدول في سباق تكنولوجي حاسم؟
مع تزايد تطور نماذج الذكاء الاصطناعي ودمجها في جوانب مختلفة من الحياة، ستصبح هذه الأسئلة أكثر إلحاحًا. من المحتمل أننا نشهد المراحل الأولى من عملية طويلة ومعقدة لتطوير معايير عالمية ولوائح وطنية للذكاء الاصطناعي. قد يتطور الخليط الحالي من عمليات الحظر والقيود إلى أطر تنظيمية أكثر دقة، ربما تتضمن تقييمات قائمة على المخاطر، أو متطلبات شفافية إلزامية، أو جهود تعاون دولي. وعلى العكس من ذلك، يمكن أن يؤدي التفتت الجيوسياسي والأولويات الوطنية المتباينة إلى مشهد عالمي للذكاء الاصطناعي يزداد بلقنة. لا يزال المسار إلى الأمام غير مؤكد، لكن القرارات التي تتخذها الحكومات اليوم بشأن الذكاء الاصطناعي المحادثاتي تضع الأساس للعلاقة المستقبلية بين الإنسانية وإبداعاتها الذكية المتزايدة. إن الحوار الدائر حول حوكمة الذكاء الاصطناعي ليس مجرد نقاش تقني أو قانوني؛ إنه محادثة حول السلطة والسيطرة والقيم المجتمعية ومستقبل المعلومات ذاته في العصر الرقمي.