تدقيق نموذج Gemini 2.5 Pro لغياب تقرير السلامة

وعود منقوضة والتزامات لم يتم الوفاء بها

يُنظر إلى عدم تقديم Google لتقرير أبحاث السلامة جنبًا إلى جنب مع إصدار Gemini 2.5 Pro على أنه خرق للالتزامات السابقة. في يوليو 2023، شاركت Google في اجتماع البيت الأبيض الذي دعت إليه إدارة بايدن، حيث انضمت إلى شركات الذكاء الاصطناعي البارزة الأخرى في التوقيع على سلسلة من التعهدات. كان أحد الالتزامات الرئيسية هو نشر تقارير لجميع إصدارات النماذج العامة الرئيسية التي تجاوزت أحدث ما توصل إليه الذكاء الاصطناعي في ذلك الوقت. وبالنظر إلى التطورات التي حققها Gemini 2.5 Pro، فإنه يقع بالتأكيد ضمن نطاق التزامات البيت الأبيض هذه.

في ذلك الوقت، وافقت Google على أن تتضمن هذه التقارير ما يلي:

  • تقييمات السلامة التي تم إجراؤها، بما في ذلك تقييمات القدرات الخطيرة.
  • قيود الأداء الكبيرة التي يمكن أن تؤثر على حالات الاستخدام المناسبة.
  • مناقشات حول آثار النموذج على المخاطر المجتمعية مثل العدالة والتحيز.
  • نتائج الاختبارات العدائية لتقييم مدى ملاءمة النموذج للنشر.

في أعقاب اجتماع مجموعة السبع في هيروشيما، اليابان، في أكتوبر 2023، تعهدت Google وشركات أخرى بالالتزام بمدونة سلوك طوعية لتطوير الذكاء الاصطناعي المتقدم. أكدت مدونة مجموعة السبع هذه على أهمية الإبلاغ علنًا عن قدرات وأنظمة الذكاء الاصطناعي المتقدمة، وقيودها، والتطبيقات المناسبة وغير المناسبة. كان الهدف هو تعزيز الشفافية والمساءلة في مجال الذكاء الاصطناعي.

في مايو 2024، في قمة دولية حول سلامة الذكاء الاصطناعي عُقدت في سيول، كوريا الجنوبية، كررت Google التزاماتها. وعدت الشركة بالكشف علنًا عن قدرات النموذج وقيوده وحالات الاستخدام المناسبة وغير المناسبة، وتوفير الشفافية حول تقييمات المخاطر ونتائجها.

رد Google والشفافية المتأخرة

ردًا على الاستفسارات حول تقرير السلامة المفقود، صرح متحدث باسم Google DeepMind، القسم المسؤول عن تطوير نماذج Gemini، بأن أحدث Gemini قد خضع لاختبارات ما قبل الإصدار. وشمل ذلك تقييمات التطوير الداخلية وتقييمات الضمان التي أُجريت قبل إصدار النموذج. وأشار المتحدث أيضًا إلى أن تقريرًا يتضمن معلومات إضافية حول السلامة وبطاقات النموذج ‘وشيك’. ومع ذلك، على الرغم من إصدار البيان الأولي في 2 أبريل، لم يتم نشر أي بطاقة نموذج حتى الآن.

اتجاه أوسع لإهمال الإبلاغ عن السلامة

لا تواجه Google وحدها انتقادات بشأن التزامها بسلامة الذكاء الاصطناعي. في وقت سابق من هذا العام، واجهت OpenAI أيضًا تدقيقًا لعدم إصدار بطاقة نموذج في الوقت المناسب لنموذج البحث العميق الخاص بها. وبدلاً من ذلك، نشروا بطاقة نظام بعد أسابيع من الإصدار الأولي للمشروع. وبالمثل، تعرض تقرير السلامة الأخير لشركة Meta لـ Llama 4 لانتقادات لكونه موجزًا جدًا ويفتقر إلى التفاصيل.

تسلط هذه الحالات الضوء على اتجاه مثير للقلق داخل صناعة الذكاء الاصطناعي، حيث لا تعطي بعض المختبرات الكبرى الأولوية للإبلاغ عن السلامة بما يتماشى مع إصدارات نماذجها. وهذا أمر مقلق بشكل خاص بالنظر إلى الالتزامات الطوعية التي قطعتها هذه الشركات على نفسها للحكومة الأمريكية والمجتمع العالمي لإنتاج مثل هذه التقارير. قُطعت هذه الالتزامات في البداية لإدارة بايدن في عام 2023، ثم تعززت لاحقًا من خلال تعهدات بالامتثال لمدونة سلوك الذكاء الاصطناعي التي اعتمدتها دول مجموعة السبع في قمة الذكاء الاصطناعي الخاصة بها في هيروشيما.

أعرب كيفين بانكستون، المستشار في مجال إدارة الذكاء الاصطناعي في مركز الديمقراطية والتكنولوجيا، عن خيبة أمله، مشيرًا إلى أن هذه الإخفاقات تقوض مصداقية الشركات المعنية وتثير تساؤلات حول التزامها بتطوير الذكاء الاصطناعي المسؤول.

أسئلة لم تتم الإجابة عليها وتقييم خارجي

كما فشل بيان المتحدث باسم Google في معالجة أسئلة محددة حول ما إذا كان Gemini 2.5 Pro قد قُدِّم للتقييم الخارجي من قبل معهد الأمن السيبراني للذكاء الاصطناعي في المملكة المتحدة أو معهد السلامة السيبرانية للذكاء الاصطناعي في الولايات المتحدة. في السابق، قدمت Google أجيالًا سابقة من نماذج Gemini الخاصة بها إلى معهد السلامة السيبرانية للذكاء الاصطناعي في المملكة المتحدة لتقييمها.

في قمة سيول للسلامة، وقعت Google على ‘التزامات السلامة للذكاء الاصطناعي الرائد’، والتي تضمنت تعهدًا بتوفير الشفافية العامة بشأن تنفيذ تقييمات السلامة. كانت الاستثناءات الوحيدة هي الحالات التي من شأنها أن تزيد من المخاطر أو تكشف عن معلومات تجارية حساسة بدرجة غير متناسبة مع الفائدة المجتمعية. كما نص التعهد على أنه لا يزال ينبغي مشاركة معلومات أكثر تفصيلاً لا يمكن مشاركتها علنًا مع حكومات البلدان التي تتمركز فيها الشركات، والتي ستكون الولايات المتحدة في حالة Google.

كما التزمت الشركات بشرح كيف يشارك الفاعلون الخارجيون، مثل الحكومات والمجتمع المدني والأكاديميون والجمهور، في عملية تقييم مخاطر نماذج الذكاء الاصطناعي الخاصة بهم. إن فشل Google في الإجابة على الأسئلة المباشرة حول ما إذا كانت قد قدمت Gemini 2.5 Pro إلى مقيمين حكوميين أمريكيين أو بريطانيين قد ينتهك هذا الالتزام أيضًا.

إعطاء الأولوية للنشر على الشفافية

أثار غياب تقرير السلامة مخاوف من أن Google قد تعطي الأولوية للنشر السريع على الشفافية وتقييمات السلامة الشاملة. شددت ساندرا واشتر، الأستاذة والباحثة الأولى في معهد أكسفورد للإنترنت، على أهمية الشفافية في البحث والابتكار المسؤولين. ورسمت تشبيهًا بالصناعات الأخرى، قائلة ‘إذا كانت هذه سيارة أو طائرة، فلن نقول: دعونا نطرح هذا في السوق بأسرع ما يمكن وسننظر في جوانب السلامة لاحقًا’. أعربت واشتر عن قلقها من وجود موقف سائد داخل مجال الذكاء الاصطناعي التوليدي يتمثل في ‘طرح هذا هناك والقلق والتحقيق وإصلاح المشكلات التي تواجهه لاحقًا’.

التحولات السياسية وضغوط المنافسة

قد تساهم التغييرات السياسية الأخيرة، إلى جانب التنافس المتزايد بين شركات التكنولوجيا الكبرى، في الابتعاد عن التزامات السلامة السابقة حيث تتسابق الشركات لنشر نماذج الذكاء الاصطناعي. وأشارت واشتر إلى أن ‘نقطة الضغط بالنسبة لهذه الشركات المتمثلة في أن تكون أسرع وأسرع وأن تكون الأول والأفضل والمهيمن، هي أكثر انتشارًا مما كانت عليه في الماضي’، مضيفة أن معايير السلامة آخذة في الانخفاض في جميع أنحاء الصناعة.

قد تكون هذه المعايير المتراجعة مدفوعة بقلق متزايد بين الدول التكنولوجية وبعض الحكومات من أن إجراءات السلامة السيبرانية تعيق الابتكار. في الولايات المتحدة، أشارت إدارة ترامب إلى نيتها تبني نهج أقل صرامة لتنظيم الذكاء الاصطناعي مقارنة بإدارة بايدن. وقد ألغت الإدارة الجديدة بالفعل أمرًا تنفيذيًا من حقبة بايدن بشأن الذكاء الاصطناعي، وكانت تعمل على تنمية علاقات أوثق مع قادة التكنولوجيا. في قمة الذكاء الاصطناعي الأخيرة في باريس، صرح نائب الرئيس الأمريكي جيه دي فانس بأنه يجب إعطاء الأولوية لـ ‘سياسات الذكاء الاصطناعي المؤيدة للنمو’ على السلامة، وأن الذكاء الاصطناعي كان ‘فرصة لن تهدرها إدارة ترامب’.

في القمة نفسها، رفضت كل من المملكة المتحدة والولايات المتحدة التوقيع على اتفاقية دولية بشأن الذكاء الاصطناعي تعزز نهجًا ‘مفتوحًا’ و’شاملًا’ و’أخلاقيًا’ لتطوير التكنولوجيا.

الحاجة إلى متطلبات شفافية واضحة

وشدد بانكستون على أنه ‘إذا لم نتمكن من الاعتماد على هذه الشركات للوفاء حتى بأبسط التزاماتها المتعلقة بالسلامة والشفافية عند إطلاق نماذج جديدة - الالتزامات التي قطعتها على نفسها طوعًا - فإنها تطلق النماذج بسرعة كبيرة في سباقها التنافسي للهيمنة على هذا المجال’. وأضاف أنه مع استمرار مطوري الذكاء الاصطناعي في التخلف عن هذه الالتزامات، فسيكون من واجب المشرعين تطوير وإنفاذ متطلبات شفافية واضحة لا يمكن للشركات التهرب منها.

الآثار الأوسع نطاقا لإدارة الذكاء الاصطناعي

تسلط الضوء على الجدل الدائر حول Gemini 2.5 Pro من Google وتقرير السلامة المفقود على الحاجة الماسة إلى أطر حوكمة قوية للذكاء الاصطناعي. يجب أن تتناول هذه الأطر قضايا رئيسية مثل:

  • الشفافية: ضمان أن يكون مطورو الذكاء الاصطناعي شفافين بشأن قدرات ونماذجهم وقيودها ومخاطرها المحتملة.
  • المساءلة: تحديد خطوط واضحة للمساءلة عن تطوير ونشر أنظمة الذكاء الاصطناعي.
  • السلامة: تطبيق إجراءات اختبار وتقييم سلامة صارمة لتقليل مخاطر الضرر.
  • الاعتبارات الأخلاقية: دمج المبادئ الأخلاقية في تصميم وتطوير أنظمة الذكاء الاصطناعي.
  • المشاركة العامة: إشراك الجمهور لتعزيز فهم أوسع للذكاء الاصطناعي وآثاره.
  • التعاون الدولي: التعاون دوليًا لتطوير معايير مشتركة وأفضل الممارسات لإدارة الذكاء الاصطناعي.

يسلط نقص الشفافية المحيط بـ Gemini 2.5 Pro الضوء على العواقب المحتملة لإهمال هذه الجوانب الحاسمة لإدارة الذكاء الاصطناعي. بدون شفافية ومساءلة كافيتين، يصبح من الصعب تقييم التأثير الحقيقي لأنظمة الذكاء الاصطناعي وضمان تطويرها ونشرها بطريقة مسؤولة وأخلاقية.

المضي قدمًا: دعوة إلى مزيد من المسؤولية

تقف صناعة الذكاء الاصطناعي عند مفترق طرق حرج. مع ازدياد قوة تقنيات الذكاء الاصطناعي وانتشارها، من الضروري أن يعطي المطورون الأولوية للسلامة والشفافية والاعتبارات الأخلاقية. يعتبر الجدل الدائر حول Gemini 2.5 Pro بمثابة تذكير بأن الالتزامات الطوعية ليست كافية دائمًا. يجب على الحكومات والهيئات التنظيمية أن تلعب دورًا أكثر فاعلية في وضع معايير واضحة وإنفاذ الامتثال.

علاوة على ذلك، من الأهمية بمكان أن يتفاعل مطورو الذكاء الاصطناعي مع الجمهور ويعززوا فهمًا أوسع للذكاء الاصطناعي وآثاره. يتضمن ذلك أن تكون شفافًا بشأن قيود أنظمة الذكاء الاصطناعي ومخاطرها المحتملة، بالإضافة إلى الخطوات المتخذة للتخفيف من تلك المخاطر. من خلال العمل معًا، يمكن لصناعة الذكاء الاصطناعي والحكومات والجمهور ضمان تطوير تقنيات الذكاء الاصطناعي ونشرها بطريقة تفيد المجتمع ككل.