معايير الأمن: مفتاح ثورة وكلاء الذكاء الاصطناعي

تشهد صناعة وكلاء الذكاء الاصطناعي حاليًا سردًا مألوفًا. يستفيد وكلاء الذكاء الاصطناعي من القدرات العامة للنماذج الكبيرة لأتمتة حل مهام المستخدم المعقدة باستخدام التقنيات والأدوات الحالية. هذا يضعهم في مكانة الطريقة الواعدة لنشر تكنولوجيا النموذج اليوم.

على مدى الأشهر القليلة الماضية، كان هناك انفجار في منتجات وكلاء الذكاء الاصطناعي. حازت العروض البارزة مثل Manus على اهتمام واسع النطاق، والنماذج الجديدة من OpenAI و Google أصبحت بشكل متزايد ‘وكلاء ذكاء اصطناعي’. والأهم من ذلك، أن البروتوكولات القياسية تكتسب زخمًا سريعًا.

أصدرت Anthropic بروتوكول MCP (بروتوكول اتصال النموذج) مفتوح المصدر في نهاية العام الماضي. يهدف MCP إلى إنشاء مواصفات مفتوحة وموحدة تمكن نماذج اللغة الكبيرة من التفاعل بسلاسة مع مصادر وأدوات البيانات الخارجية المختلفة، مثل برامج الأعمال وقواعد البيانات ومستودعات التعليمات البرمجية. في غضون أشهر من إطلاقه، أعربت OpenAI و Google و Alibaba و Tencent عن دعمها ودمجها. بعد ذلك، أطلقت Google بروتوكول A2A (وكيل إلى وكيل)، بهدف أتمتة التعاون وسير العمل بين وكلاء الذكاء الاصطناعي. وقد غذى ذلك بشكل أكبر المشهد المتنامي لوكلاء الذكاء الاصطناعي.

باختصار، تعالج هذه البروتوكولات تحديين رئيسيين: يسهل MCP الاتصالات بين الوكلاء ومقدمي الأدوات/الخدمات، بينما يتيح A2A اتصالات تعاونية بين الوكلاء لإنجاز مهام معقدة للغاية.

لذلك، يمكن تشبيه MCP بالواجهات الموحدة المبكرة، بينما يشبه A2A بروتوكول HTTP.

ومع ذلك، في تاريخ الإنترنت، تبع ظهور HTTP عنصر حاسم كان ضروريًا لازدهار الإنترنت الحقيقي: معايير الأمان الموضوعة فوق البروتوكول.

اليوم، يواجه MCP و A2A مأزقًا مشابهًا.

‘عندما ظهر HTTP، واجه لاحقًا تحديات أمنية كبيرة. لقد شهد الإنترنت هذا التطور’، يوضح زيكسي، القائد التقني لتحالف IIFAA (تحالف المصادقة المالية لصناعة الإنترنت) للمصادقة الموثوقة وخبير في أمن وكلاء الذكاء الاصطناعي.

يمكن أن تتجلى هذه التحديات في أشكال مختلفة. حاليًا، يمكن للجهات الخبيثة إنشاء أدوات ‘استعلام عن الطقس’ مزيفة وتسجيلها لدى خوادم MCP، وسرقة معلومات رحلة المستخدم سرًا في الخلفية. عندما يشتري المستخدم دواءً من خلال وكيل، قد يكون الوكيل A مسؤولاً عن شراء سيفبودوكسيم، بينما يشتري الوكيل B الكحول. نظرًا لعدم وجود قدرات لتحديد المخاطر عبر الأنظمة الأساسية، لا يمكن للنظام تقديم تحذير ‘مجموعة خطرة’، كما تفعل منصات التجارة الإلكترونية الحالية. والأهم من ذلك، أن مصادقة الوكيل إلى الوكيل وملكية البيانات تظلان غير واضحة. هل يسمح المستخدم لتطبيق محلي على جهازه، أم أنه يقوم بمزامنة البيانات الخاصة مع السحابة؟

‘A2A، في وثائقه الرسمية، تنص على أنها تضمن فقط أمان الإرسال رفيع المستوى. وهي تترك مسؤولية ضمان أصول الهوية وبيانات الاعتماد وخصوصية البيانات والتعرف على النوايا للشركات الفردية.’

إن الازدهار الحقيقي للوكلاء الأذكياء يتطلب معالجة هذه المشكلات. إن IIFAA، حيث يعمل زيكسي، هي المنظمة الأولى التي بدأت في معالجة هذه المشكلة.

‘في هذا السياق، تكرس IIFAA جهودها لحل سلسلة من المشكلات التي سيواجهها الوكلاء الأذكياء في المستقبل’، كما يقول زيكسي. ‘في عصر A2A، قمنا أيضًا بتعريف منتج مماثل يسمى ASL (طبقة أمان الوكيل)، والتي يمكن أن تبني على بروتوكول MCP لضمان أمان الوكلاء من حيث الأذونات والبيانات والخصوصية والجوانب الأخرى. يعالج هذا المنتج الوسيط أيضًا تحديات نقل A2A إلى معايير الأمان المستقبلية.’

فريق العمل المعني بالاتصال الموثوق بين الوكلاء الأذكياء التابع لـ IIFAA هو أول منظمة تعاونية محلية لنظام أمن وكلاء الذكاء الاصطناعي. تم إنشاؤه بالاشتراك بين الأكاديمية الصينية لتكنولوجيا المعلومات والاتصالات (CAICT) ومجموعة Ant وأكثر من عشرين شركة ومؤسسة تقنية أخرى.

من ASL إلى قابلية التوسع

‘إن تطوير وكلاء الذكاء الاصطناعي يحدث بشكل أسرع مما توقعنا، سواء من الناحية التكنولوجية أو من حيث قبول النظام البيئي للمعايير’، كما يقول زيكسي.

ظهر مفهوم IIFAA لبروتوكول أمان لاتصال الوكيل إلى الوكيل في وقت مبكر من شهر نوفمبر من العام الماضي، قبل إصدار MCP. تم تأسيس فريق العمل المعني بالاتصال الموثوق بين الوكلاء الأذكياء التابع لـ IIFAA رسميًا في ديسمبر، بالتزامن مع الإصدار الرسمي لـ MCP.

‘في بعض الأحيان، يتقن الجهات الخبيثة التقنيات الجديدة بشكل أسرع من المدافعين. لا يمكننا انتظار ظهور المشكلات قبل مناقشة النظام. هذه هي ضرورة وجود فريق العمل هذا’، كما ذكر أحد أعضاء IIFAA في عرض تقديمي سابق. إن بناء معايير الصناعة للأمن والثقة المتبادلة معًا أمر بالغ الأهمية لتحقيق تنمية صحية طويلة الأجل.

وفقًا لـ Zixi، يركزون حاليًا على معالجة القضايا الرئيسية التالية في المرحلة الأولى:

  • هوية الوكيل الموثوقة: ‘نهدف إلى بناء نظام اعتماد للوكلاء يعتمد على المؤسسات الموثوقة وآليات الاعتراف المتبادل. تمامًا مثل الحاجة إلى جواز سفر وتأشيرة للسفر الدولي، سيسمح هذا للوكلاء المعتمدين بالانضمام بسرعة إلى شبكة تعاون ومنع الوكلاء غير المعتمدين من تعطيل نظام التعاون.’

  • مشاركة النوايا الموثوقة: ‘يعتمد التعاون بين الوكلاء الأذكياء على أصالة ودقة النوايا. لذلك، فإن مشاركة النوايا الموثوقة أمر بالغ الأهمية لضمان تعاون فعال وموثوق بين الوكلاء المتعددين.’

  • آلية حماية السياق: ‘عندما يتصل وكيل الذكاء الاصطناعي بخوادم MCP متعددة (بروتوكول متعدد القنوات)، يتم تحميل جميع معلومات وصف الأداة في نفس سياق الجلسة. يمكن لخادم MCP ضار استغلال ذلك لحقن تعليمات ضارة. يمكن لحماية السياق منع التدخل الضار والحفاظ على أمان النظام وضمان سلامة نوايا المستخدم ومنع هجمات التسميم.’

  • حماية خصوصية البيانات: ‘في التعاون بين الوكلاء المتعددين، يمكن أن تؤدي مشاركة البيانات إلى انتهاكات للخصوصية. حماية الخصوصية أمر بالغ الأهمية لمنع إساءة استخدام المعلومات الحساسة.’

  • مشاركة ذاكرة الوكيل الموثوقة: ‘تعمل مشاركة الذاكرة على تحسين كفاءة التعاون بين الوكلاء المتعددين. تضمن مشاركة الذاكرة الموثوقة اتساق البيانات وأصالتها وأمانها، مما يمنع العبث والتسرب، ويعزز فعالية التعاون وثقة المستخدم.’

  • تداول الهوية الموثوقة: ‘يتوقع المستخدمون تجربة خدمة سلسة وسلسة في تطبيقات الذكاء الاصطناعي الأصلية. لذلك، فإن تحقيق التعرف على الهوية عبر الأنظمة الأساسية وغير التدخلية هو المفتاح لتعزيز تجربة المستخدم.’

‘هذه هي أهدافنا قصيرة المدى. بعد ذلك، سنطلق ASL إلى الصناعة بأكملها. هذا هو تنفيذ برمجي، وليس مواصفات بروتوكول. يمكن تطبيقه على MCP و A2A لتعزيز أمان هذه البروتوكولات على مستوى المؤسسة. هذا هو الهدف قصير المدى’، يوضح زيكسي.

‘في وقت مبكر، لن نحدد الأشياء في طبقة الأمان. لن نحدد A2AS. بدلاً من ذلك، نأمل أنه إذا قام شخص ما بتحديد A2AS في المستقبل، فيمكن أن يصبح ASL الخاص بنا مكون تنفيذ برمجي، تمامًا مثل SSL هو مكون تنفيذ برمجي لـ HTTPS.’

تشبيه HTTPS: تأمين مستقبل وكلاء الذكاء الاصطناعي

بالتوازي مع تاريخ HTTPS، فإن ضمان الأمان يمكّن من التبني الواسع النطاق لوظائف مثل الدفع، وبالتالي تمهيد الطريق لفرص تجارية أوسع نطاقًا. يتم حاليًا عرض إيقاع مماثل. في 15 أبريل، تعاونت Alipay مع مجتمع ModelScope للكشف عن خدمة ‘خادم MCP للدفع’. يتيح ذلك لمطوري الذكاء الاصطناعي دمج خدمات الدفع Alipay بسلاسة باستخدام اللغة الطبيعية، مما يسهل النشر السريع لوظائف الدفع داخل وكلاء الذكاء الاصطناعي.

ستؤدي معالجة هذه الأهداف قصيرة المدى واحدًا تلو الآخر في النهاية إلى تشكيل معيار وبيئة تعاون آمنة للوكيل. المفتاح لهذه العملية هو تحقيق تأثير القياس. بدأت بالفعل ‘المتاجر’ المحلية MCP التي تتحرك بسرعة في العمل. سيقوم ‘MCP Zone’ التابع لمنصة وكيل الذكاء الاصطناعي Baibaoxiang التابعة لمجموعة Ant بدمج حلول الأمان الخاصة بـ IIFAA. يدعم ‘متجر MCP’ هذا حاليًا نشر واستدعاء خدمات MCP المختلفة، بما في ذلك Alipay و Amap و Wuying، مما يتيح أسرع إنشاء لوكيل ذكي متصل بخدمات MCP في 3 دقائق فقط.

يعتقد زيكسي أن القدرات العامة للنماذج الكبيرة لديها القدرة على إحداث ثورة حقيقية في تجارب المستخدم ونماذج التفاعل. في المستقبل، قد يتم استبدال النهج الحالي المتمثل في استدعاء التطبيقات لإكمال المهام ببوابة فائقة تعتمد على مجموعة أدوات مخفية وراء الكواليس، على غرار متجر MCP. سيصبح هذا أبسط وأكثر فهمًا لاحتياجات المستخدم. يصبح التسويق ممكنًا.

‘لقد دخل تطوير AGI الآن مرحلة الوكيل الذكي. بالمقارنة مع روبوتات الدردشة والذكاء الاصطناعي بقدرات استدلال محدودة، فقد تحرر الوكلاء الأذكياء أخيرًا من المرحلة المغلقة من نقطة إلى نقطة، مما يفتح حقًا فصلاً جديدًا في التطبيقات التجارية.’

أطلقت IIFAA مؤخرًا ASL وأعلنت عن إصداره مفتوح المصدر. من خلال مشاركة التعليمات البرمجية والمعايير والخبرات بشكل علني، فإنها تهدف إلى تسريع الابتكار التكنولوجي والتكرار، وحث مؤسسات الصناعة والمطورين على المشاركة على نطاق واسع، وتعزيز توحيد التكنولوجيا داخل الصناعة. ستعتمد خطة المصدر المفتوح ترخيص Apache 2.0 الأكثر تساهلاً وستجعل ممارسات أمان مستند تصميم مكتبة التعليمات البرمجية متاحة خارجيًا. يمكن للمطورين العالميين المشاركة في البناء المشترك داخل مجتمع Github.

ضرورة الأمان في تطوير وكلاء الذكاء الاصطناعي

يمثل صعود وكلاء الذكاء الاصطناعي تحولًا نموذجيًا في كيفية تفاعلنا مع التكنولوجيا. لم نعد محصورين في تطبيقات منفصلة، بل نتحرك نحو عالم حيث يمكن للوكلاء الأذكياء تنسيق عدد كبير من الأدوات والخدمات بسلاسة لتحقيق أهدافنا. ومع ذلك، فإن هذه الرؤية تتوقف على معالجة المخاطر الأمنية الكامنة التي تصاحب مثل هذه التكنولوجيا القوية. تمامًا مثلما احتاج الإنترنت إلى HTTPS لتسهيل التجارة الإلكترونية الآمنة والمعاملات الحساسة الأخرى، يحتاج وكلاء الذكاء الاصطناعي إلى معايير أمان قوية لتعزيز الثقة وتمكين التبني على نطاق واسع.

يتسم المشهد الحالي لتطوير وكلاء الذكاء الاصطناعي بالابتكار السريع والتجريب. تظهر نماذج وبروتوكولات وتطبيقات جديدة بوتيرة غير مسبوقة. في حين أن هذه الديناميكية مثيرة بلا شك، فإنها تشكل أيضًا تحديًا: غالبًا ما تتراجع المخاوف الأمنية إلى الخلف بسبب السرعة والوظائف. يمكن أن يؤدي ذلك إلى نقاط ضعف يمكن للجهات الخبيثة استغلالها، مما قد يعرض بيانات المستخدم للخطر ويعطل الخدمات ويقوض الثقة في النظام البيئي بأكمله.

إن القياس بأيام الإنترنت الأولى مناسب بشكل خاص. في غياب التدابير الأمنية واسعة النطاق، ابتلي الإنترنت بعمليات الاحتيال والاحتيال والأنشطة الخبيثة الأخرى. أعاق ذلك نموه ومنعه من تحقيق إمكاناته الكاملة. لم يصبح الإنترنت منصة آمنة وموثوقة للتجارة الإلكترونية والخدمات المصرفية عبر الإنترنت والمعاملات الحساسة الأخرى إلا مع ظهور HTTPS وبروتوكولات الأمان الأخرى.

وبالمثل، يحتاج وكلاء الذكاء الاصطناعي إلى أساس قوي من الأمان لتحقيق إمكاناتهم التحويلية. وبدون هذا الأساس، فإنهم يخاطرون بأن يصبحوا أرضًا خصبة لأشكال جديدة من الجرائم الإلكترونية والاستغلال عبر الإنترنت. يمكن أن يؤدي ذلك إلى خنق الابتكار وتآكل ثقة المستخدم ومنع وكلاء الذكاء الاصطناعي في النهاية من أن يصبحوا التكنولوجيا المنتشرة والمفيدة التي يتصورها الكثيرون.

معالجة التحديات الأمنية

التحديات الأمنية التي تواجه وكلاء الذكاء الاصطناعي متعددة الأوجه وتتطلب اتباع نهج شامل. تتضمن بعض التحديات الرئيسية ما يلي:

  • المصادقة والتفويض: ضمان وصول الوكلاء المعتمدين فقط إلى البيانات والموارد الحساسة. يتطلب ذلك آليات مصادقة قوية وعناصر تحكم دقيقة في الوصول.
  • خصوصية البيانات: حماية بيانات المستخدم من الوصول غير المصرح به أو الاستخدام أو الكشف عنها. يتطلب ذلك تنفيذ تقنيات الحفاظ على الخصوصية مثل إخفاء الهوية والتشفير والخصوصية التفاضلية.
  • التحقق من النوايا: التحقق من أن نية الوكيل تتوافق مع أهداف المستخدم وأنه لا يتم التلاعب به من قبل جهات خبيثة. يتطلب ذلك تطوير خوارزميات متطورة للتعرف على النوايا والتحقق منها.
  • الأمان السياقي: حماية الوكلاء من الهجمات الضارة التي تستغل نقاط الضعف في البيئة المحيطة. يتطلب ذلك تنفيذ تدابير أمنية قوية على جميع طبقات النظام، من الأجهزة إلى البرامج.
  • أمان الوكيل إلى الوكيل: ضمان قدرة الوكلاء على التواصل والتعاون بشكل آمن مع بعضهم البعض. يتطلب ذلك تطوير بروتوكولات اتصال آمنة وآليات ثقة.

تعد ASL التابعة لـ IIFAA خطوة واعدة في الاتجاه الصحيح. من خلال توفير تنفيذ برمجي يعزز أمان MCP و A2A، يمكن أن تساعد ASL في معالجة بعض هذه التحديات. ومع ذلك، يلزم بذل المزيد من الجهد لإنشاء إطار أمني شامل لوكلاء الذكاء الاصطناعي.

المسار إلى الأمام: التعاون والتوحيد القياسي

يتطلب تطوير وكلاء الذكاء الاصطناعي الآمن تعاونًا يشارك فيه الباحثون والمطورون وأصحاب المصلحة في الصناعة وصناع السياسات. تتضمن بعض الخطوات الرئيسية التي يجب اتخاذها ما يلي:

  • تطوير معايير مفتوحة: يعد وضع معايير مفتوحة لأمان وكلاء الذكاء الاصطناعي أمرًا بالغ الأهمية لضمان التشغيل البيني وتعزيز الابتكار.
  • مشاركة أفضل الممارسات: يمكن أن تساعد مشاركة أفضل الممارسات لتطوير وكلاء الذكاء الاصطناعي الآمن في منع نقاط الضعف الشائعة وتعزيز ثقافة الأمان.
  • الاستثمار في البحث: يعد الاستثمار في البحث حول أمان وكلاء الذكاء الاصطناعي أمرًا ضروريًا لتطوير تقنيات وتقنيات جديدة لمواجهة التهديدات الناشئة.
  • تعزيز التعليم والتوعية: يمكن أن يساعد تعزيز التعليم والتوعية بشأن أمان وكلاء الذكاء الاصطناعي في رفع مستوى الأمان وتشجيع التطوير المسؤول.
  • وضع أطر تنظيمية: يمكن أن يساعد وضع أطر تنظيمية لأمان وكلاء الذكاء الاصطناعي في ضمان إعطاء الأولوية للأمان وحماية المستخدمين.

من خلال العمل معًا، يمكننا إنشاء مستقبل لا يكون فيه وكلاء الذكاء الاصطناعي أقوياء ومفيدين فحسب، بل آمنين وجديرين بالثقة أيضًا. سيتطلب ذلك بذل جهد متضافر لمعالجة التحديات الأمنية التي تنتظرنا وبناء أساس قوي من الأمان لنظام وكلاء الذكاء الاصطناعي البيئي. عندها فقط يمكننا إطلاق العنان للإمكانات الكاملة لوكلاء الذكاء الاصطناعي وإنشاء تقنية تحويلية حقًا. إن جهود منظمات مثل IIFAA جديرة بالثناء في قيادة هذه المبادرة، ولكن التبني والالتزام بمعايير الأمان على نطاق واسع أمر بالغ الأهمية للتطوير الآمن والمزدهر لوكلاء الذكاء الاصطناعي.