التنقل في متاهة القواعد التنظيمية: دعوة للوحدة (والاستباق)
هناك خيط مشترك يمر عبر சமர்ப்பிப்புகள் للعديد من شركات الذكاء الاصطناعي الكبرى وهو القلق الواضح بشأن التشكيلة المتنامية من لوائح الذكاء الاصطناعي على مستوى الولاية. دعت OpenAI، الشركة المطورة لـ ChatGPT، صراحةً إلى الإنقاذ مما تعتبره طوفانًا وشيكًا من أكثر من 700 مشروع قانون متباين يتم تداوله حاليًا على مستوى الولاية. ومع ذلك، فإن الحل المقترح من OpenAI ليس تشريعًا فيدراليًا، بل إطار عمل تطوعي ضيق. هذا الإطار، بشكل حاسم، سوف يستبق لوائح الولاية، ويقدم لشركات الذكاء الاصطناعي نوعًا من الملاذ الآمن. في مقابل هذه الحماية، ستتمكن الشركات من الوصول إلى عقود حكومية مربحة وتلقي تحذيرات مسبقة بشأن التهديدات الأمنية المحتملة. وستكون الحكومة، بدورها، مخولة باختبار قدرات النماذج الجديدة ومقارنتها مع نظيراتها الأجنبية.
تردد Google هذا الشعور، وتدعو إلى استباق قوانين الولاية بـ “إطار وطني موحد لنماذج الذكاء الاصطناعي الرائدة”. هذا الإطار، وفقًا لـ Google، يجب أن يعطي الأولوية للأمن القومي مع تعزيز بيئة مواتية للابتكار الأمريكي في مجال الذكاء الاصطناعي في الوقت نفسه. ومع ذلك، وعلى عكس OpenAI، لا تعارض Google بطبيعتها تنظيم الذكاء الاصطناعي الفيدرالي، شريطة أن يركز على تطبيقات محددة للتكنولوجيا. التحذير الرئيسي لـ Google هو أنه لا ينبغي تحميل مطوري الذكاء الاصطناعي المسؤولية عن إساءة استخدام أدواتهم من قبل الآخرين. انتهزت Google أيضًا الفرصة للدفع بسياسة خصوصية فيدرالية جديدة، بحجة أنها تؤثر على صناعة الذكاء الاصطناعي.
بالإضافة إلى التنظيم المحلي، تحث Google الإدارة الأمريكية على التعامل بنشاط مع الحكومات الأخرى بشأن تشريعات الذكاء الاصطناعي. تحذر الشركة على وجه التحديد من القوانين التي يمكن أن تجبر الشركات على الكشف عن الأسرار التجارية. وهي تتصور معيارًا دوليًا حيث يكون للحكومة الأم للشركة فقط سلطة إجراء تقييمات عميقة لنماذج الذكاء الاصطناعي الخاصة بها.
التحدي الصيني: ضوابط التصدير والمنافسة الاستراتيجية
يظهر شبح التقدم السريع للصين في مجال الذكاء الاصطناعي بشكل كبير في சமர்ப்பிப்புகள் لجميع اللاعبين الرئيسيين. أصبحت قاعدة “نشر الذكاء الاصطناعي”، التي قدمتها إدارة بايدن في يناير 2024 للحد من وصول الصين إلى التكنولوجيا الأمريكية المتقدمة، نقطة محورية للنقاش. في حين أقرت جميع الشركات بوجود القاعدة، فإن التعديلات المقترحة تكشف عن مناهج مختلفة بشكل صارخ.
تقترح OpenAI استراتيجية “الدبلوماسية التجارية”. وتقترح توسيع المستوى الأعلى للقاعدة، والذي يسمح حاليًا باستيراد غير محدود لرقائق الذكاء الاصطناعي الأمريكية، ليشمل المزيد من البلدان. الشرط؟ يجب أن تلتزم هذه البلدان بـ “مبادئ الذكاء الاصطناعي الديمقراطية”، ونشر أنظمة الذكاء الاصطناعي بطرق “تعزز المزيد من الحريات لمواطنيها”. يسعى هذا النهج إلى الاستفادة من الريادة التكنولوجية الأمريكية لتحفيز اعتماد حوكمة الذكاء الاصطناعي المتوافقة مع القيم على مستوى العالم.
تشارك Microsoft رغبة OpenAI في توسيع المستوى الأعلى من قاعدة الانتشار. ومع ذلك، تؤكد Microsoft أيضًا على الحاجة إلى تعزيز الإنفاذ. وتدعو إلى زيادة الموارد لوزارة التجارة لضمان تصدير ونشر رقائق الذكاء الاصطناعي المتطورة فقط في مراكز البيانات المعتمدة على أنها موثوقة وآمنة من قبل الحكومة الأمريكية. يهدف هذا الإجراء إلى منع الشركات الصينية من التحايل على القيود من خلال الوصول إلى رقائق الذكاء الاصطناعي القوية من خلال “سوق رمادية” متنامية لمقدمي مراكز بيانات أصغر وأقل تدقيقًا في آسيا والشرق الأوسط.
تدعو Anthropic، مطورة نموذج Claude AI، إلى فرض ضوابط أكثر صرامة على البلدان في المستوى الثاني من قاعدة نشر الذكاء الاصطناعي، وتحديدًا الحد من وصولها إلى رقائق H100 من Nvidia. علاوة على ذلك، تحث Anthropic الولايات المتحدة على توسيع ضوابط التصدير لتشمل رقائق H20 من Nvidia، والتي تم تصميمها خصيصًا للسوق الصينية للامتثال للوائح الأمريكية الحالية. يوضح هذا موقف Anthropic الأكثر تشددًا بشأن منع الصين من الحصول على أي تكنولوجيا يمكن أن تعزز قدراتها في مجال الذكاء الاصطناعي.
تعرب Google، في خروج ملحوظ عن منافسيها، عن معارضتها الصريحة لقاعدة نشر الذكاء الاصطناعي. في حين تقر بصحة أهداف الأمن القومي الخاصة بها، تجادل Google بأن القاعدة تفرض “أعباء غير متناسبة على مقدمي الخدمات السحابية في الولايات المتحدة”. يعكس هذا الموقف مخاوف Google الأوسع بشأن احتمال أن تؤدي اللوائح إلى خنق الابتكار وإعاقة قدرتها التنافسية العالمية.
بالإضافة إلى قاعدة الانتشار، ترفع OpenAI المخاطر بشكل أكبر من خلال اقتراح حظر عالمي على رقائق Huawei و”النماذج الصينية التي تنتهك خصوصية المستخدم وتخلق مخاطر أمنية مثل خطر سرقة الملكية الفكرية”. يتم تفسير هذا أيضًا على نطاق واسع على أنه انتقاد لـ DeepSeek.
حقوق النشر ووقود الذكاء الاصطناعي: التنقل في الملكية الفكرية
تحظى القضية الشائكة لحقوق النشر، لا سيما في سياق تدريب نماذج الذكاء الاصطناعي، باهتمام كبير أيضًا. تنتقد OpenAI، في توبيخ واضح لقانون الذكاء الاصطناعي الأوروبي، الحكم الذي يمنح أصحاب الحقوق القدرة على الانسحاب من استخدام أعمالهم لتدريب الذكاء الاصطناعي. تحث OpenAI الإدارة الأمريكية على “منع البلدان الأقل ابتكارًا من فرض أنظمتها القانونية على شركات الذكاء الاصطناعي الأمريكية وإبطاء وتيرة تقدمنا”. يعكس هذا الموقف اعتقاد OpenAI بأن الوصول غير المقيد إلى البيانات أمر بالغ الأهمية للحفاظ على الميزة التنافسية للولايات المتحدة في مجال الذكاء الاصطناعي.
من ناحية أخرى، تدعو Google إلى “قوانين حقوق نشر متوازنة”، وكذلك قوانين خصوصية تمنح تلقائيًا إعفاءً للمعلومات المتاحة للجمهور. يشير هذا إلى نهج أكثر دقة، مع الاعتراف بحقوق المبدعين مع الاعتراف أيضًا بأهمية البيانات لتطوير الذكاء الاصطناعي. تقترح Google أيضًا مراجعة “براءات اختراع الذكاء الاصطناعي الممنوحة عن طريق الخطأ”، وتسليط الضوء على العدد المتزايد لبراءات اختراع الذكاء الاصطناعي الأمريكية التي تحصل عليها الشركات الصينية.
تشغيل المستقبل: البنية التحتية ومتطلبات الطاقة
تتطلب القوة الحسابية الهائلة اللازمة لتدريب وتشغيل نماذج الذكاء الاصطناعي المتقدمة توسيعًا كبيرًا للبنية التحتية وموارد الطاقة. تدعو OpenAI و Anthropic و Google جميعها إلى تبسيط عملية إصدار التصاريح لخطوط النقل، بهدف تسريع بناء البنية التحتية للطاقة لدعم مراكز بيانات الذكاء الاصطناعي الجديدة.
تتخذ Anthropic موقفًا جريئًا بشكل خاص، حيث تدعو إلى 50 جيجاوات إضافية من الطاقة في الولايات المتحدة، حصريًا لاستخدام الذكاء الاصطناعي، بحلول عام 2027. يؤكد هذا على متطلبات الطاقة الهائلة لمشهد الذكاء الاصطناعي سريع التطور وإمكانية أن يصبح الذكاء الاصطناعي محركًا رئيسيًا لاستهلاك الطاقة.
الأمن، والاعتماد الحكومي، والدولة التي تعمل بالذكاء الاصطناعي
تتعمق சமர்ப்பிப்புகள் أيضًا في التقاطع بين الذكاء الاصطناعي والأمن القومي والعمليات الحكومية. تقترح OpenAI تسريع الموافقات الأمنية السيبرانية لأهم أدوات الذكاء الاصطناعي، مما يمكّن الوكالات الحكومية من اختبارها ونشرها بسهولة أكبر. كما تقترح شراكات بين القطاعين العام والخاص لتطوير نماذج ذكاء اصطناعي تركز على الأمن القومي والتي قد لا يكون لها سوق تجاري قابل للتطبيق، مثل النماذج المصممة للمهام النووية السرية.
تردد Anthropic الدعوة إلى إجراءات شراء أسرع لدمج الذكاء الاصطناعي في الوظائف الحكومية. والجدير بالذكر أن Anthropic تؤكد أيضًا على أهمية أدوار تقييم الأمان القوية للمعهد الوطني للمعايير والتكنولوجيا (NIST) ومعهد سلامة الذكاء الاصطناعي الأمريكي.
تجادل Google بأنه يجب السماح لوكالات الأمن القومي باستخدام موارد التخزين والحوسبة التجارية لاحتياجاتها من الذكاء الاصطناعي. كما تدعو الحكومة إلى إصدار مجموعات البيانات الخاصة بها لتدريب الذكاء الاصطناعي التجاري وإلى فرض معايير بيانات مفتوحة وواجهات برمجة تطبيقات عبر عمليات النشر السحابية الحكومية المختلفة لتسهيل “الرؤى المستندة إلى الذكاء الاصطناعي”.
التأثير المجتمعي: أسواق العمل والتحول المدفوع بالذكاء الاصطناعي
أخيرًا، تتطرق சமர்ப்பிப்புகள் إلى الآثار المجتمعية الأوسع للذكاء الاصطناعي، ولا سيما تأثيره المحتمل على أسواق العمل. تحث Anthropic الإدارة على مراقبة اتجاهات سوق العمل عن كثب والاستعداد لاضطرابات كبيرة. تقر Google بالمثل بأن التحولات قادمة، وتؤكد على الحاجة إلى تطوير مهارات الذكاء الاصطناعي على نطاق أوسع. تطلب Google أيضًا زيادة التمويل لأبحاث الذكاء الاصطناعي وسياسة لضمان حصول الباحثين الأمريكيين على القدر الكافي من قوة الحوسبة والبيانات والنماذج.
في جوهرها، ترسم சமர்ப்பிப்புகள் إلى “خطة عمل الذكاء الاصطناعي” صورة لصناعة في لحظة محورية. في حين أن الشركات الأمريكية الرائدة متحدة في طموحها لتطوير تكنولوجيا الذكاء الاصطناعي، إلا أنها تحمل وجهات نظر مختلفة اختلافًا جوهريًا حول كيفية التعامل مع التحديات المعقدة للتنظيم والمنافسة الدولية والتأثير المجتمعي. ستكشف الأشهر والسنوات القادمة كيف تشكل هذه الرؤى المتباينة مستقبل الذكاء الاصطناعي، ليس فقط في الولايات المتحدة ولكن على مستوى العالم.