استانداردهای امنیتی: کلید انقلاب عامل هوش مصنوعی

صنعت عامل هوش مصنوعی در حال حاضر یک روایت آشنا را تجربه می‌کند. عوامل هوش مصنوعی از قابلیت‌های عمومی مدل‌های بزرگ برای خودکارسازی حل وظایف پیچیده کاربر با استفاده از فناوری‌ها و ابزارهای موجود بهره می‌برند. این امر آنها را به امیدوارکننده‌ترین راه برای استقرار فناوری مدل در حال حاضر تبدیل می‌کند.

در چند ماه گذشته، انفجاری در محصولات عامل هوش مصنوعی رخ داده است. پیشنهادات برجسته‌ای مانند Manus توجه جریان اصلی را به خود جلب کرده‌اند و مدل‌های جدید از OpenAI و Google به طور فزاینده‌ای ‘عامل هوش مصنوعی’ شده‌اند. به طور حیاتی، پروتکل‌های استاندارد به سرعت در حال جلب توجه هستند.

Anthropic پروتکل MCP (پروتکل ارتباط مدل) را به عنوان منبع باز در پایان سال گذشته منتشر کرد. MCP با هدف ایجاد یک مشخصات باز و استاندارد است که مدل‌های زبان بزرگ را قادر می‌سازد تا به طور یکپارچه با منابع داده و ابزارهای خارجی مختلف مانند نرم‌افزار تجاری، پایگاه‌های داده و مخازن کد تعامل داشته باشند. در عرض چند ماه پس از انتشار، OpenAI، Google، Alibaba و Tencent همگی از آن حمایت کرده و آن را ادغام کرده‌اند. پس از این، Google A2A (عامل به عامل) را راه اندازی کرد، با هدف خودکارسازی همکاری و گردش کار بین عوامل هوش مصنوعی. این امر به چشم انداز رو به رشد عامل هوش مصنوعی دامن زده است.

در اصل، این پروتکل‌ها به دو چالش کلیدی می‌پردازند: MCP ارتباط بین عوامل و ارائه دهندگان ابزار/خدمات را تسهیل می‌کند، در حالی که A2A ارتباطات مشارکتی بین عوامل را برای انجام وظایف بسیار پیچیده امکان پذیر می‌کند.

بنابراین، MCP را می‌توان به رابط‌های یکپارچه اولیه تشبیه کرد، در حالی که A2A شبیه پروتکل HTTP است.

با این حال، در تاریخ اینترنت، ظهور HTTP با یک عنصر حیاتی دنبال شد که برای رونق واقعی اینترنت ضروری بود: استانداردهای امنیتی لایه بندی شده بر روی پروتکل.

امروز، MCP و A2A با یک مخمصه مشابه روبرو هستند.

زیکسی، رهبر فنی اتحاد احراز هویت مورد اعتماد IIFAA (اتحاد احراز هویت مالی صنعت اینترنت) و کارشناس امنیت عامل هوش مصنوعی توضیح می‌دهد: ‘هنگامی که HTTP ظهور کرد، بعداً با چالش‌های امنیتی قابل توجهی روبرو شد. اینترنت این تکامل را تجربه کرد.’

این چالش‌ها می‌توانند به اشکال مختلف ظاهر شوند. در حال حاضر، بازیگران مخرب می‌توانند ابزارهای جعلی ‘پرس و جو از آب و هوا’ ایجاد کرده و آنها را در سرورهای MCP ثبت کنند و به طور پنهانی اطلاعات پرواز کاربر را در پس زمینه سرقت کنند. هنگامی که یک کاربر از طریق یک عامل دارو خریداری می‌کند، عامل A ممکن است مسئول خرید سفپودوکسیم باشد، در حالی که عامل B الکل خریداری می‌کند. به دلیل عدم وجود قابلیت‌های شناسایی ریسک بین پلتفرمی، سیستم نمی‌تواند هشدار ‘ترکیب خطرناک’ را ارائه دهد، همانطور که پلتفرم‌های تجارت الکترونیک موجود انجام می‌دهند. مهم‌تر از همه، احراز هویت عامل به عامل و مالکیت داده‌ها نامشخص باقی می‌ماند. آیا کاربر در حال تأیید یک برنامه محلی در دستگاه خود است یا در حال همگام سازی داده‌های خصوصی با ابر است؟

‘A2A، در اسناد رسمی خود، بیان می‌کند که فقط امنیت انتقال سطح بالا را تضمین می‌کند. این مسئولیت اطمینان از منشاء هویت و اعتبار، حریم خصوصی داده‌ها و تشخیص قصد را به شرکت‌های منفرد واگذار می‌کند.’

شکوفایی واقعی عوامل هوشمند مستلزم رسیدگی به این مسائل است. IIFAA، جایی که زیکسی در آن کار می‌کند، اولین سازمانی است که شروع به مقابله با این مشکل کرده است.

زیکسی می‌گوید: ‘در این زمینه، IIFAA به حل یک سری از مشکلاتی اختصاص دارد که عوامل هوشمند در آینده با آن روبرو خواهند شد. ‘در عصر A2A، ما همچنین محصول مشابهی به نام ASL (لایه امنیتی عامل) را تعریف کرده‌ایم، که می‌تواند بر روی پروتکل MCP ساخته شود تا امنیت عوامل را از نظر مجوزها، داده‌ها، حریم خصوصی و سایر جنبه‌ها تضمین کند. این محصول میان‌افزار همچنین به چالش‌های انتقال A2A به استانداردهای امنیتی آینده می‌پردازد.’

گروه کاری اتصال متقابل مورد اعتماد عامل هوشمند IIFAA اولین سازمان همکاری اکوسیستم امنیت عامل هوش مصنوعی داخلی است. این گروه به طور مشترک توسط آکادمی فناوری اطلاعات و ارتباطات چین (CAICT)، گروه Ant و بیش از بیست شرکت و موسسه فناوری دیگر آغاز شده است.

از ASL تا مقیاس پذیری

زیکسی می‌گوید: ‘توسعه عوامل هوش مصنوعی سریعتر از آنچه انتظار داشتیم، هم از نظر فناوری و هم از نظر پذیرش استانداردها توسط اکوسیستم، در حال انجام است.’

مفهوم IIFAA از یک پروتکل امنیتی برای ارتباط عامل به عامل در اوایل نوامبر سال گذشته، قبل از انتشار MCP، ظهور کرد. گروه کاری اتصال متقابل مورد اعتماد عامل هوشمند IIFAA به طور رسمی در ماه دسامبر، همزمان با انتشار رسمی MCP، تأسیس شد.

یکی از اعضای IIFAA در ارائه قبلی اظهار داشت: ‘بازیگران مخرب گاهی اوقات سریعتر از مدافعان بر فناوری‌های جدید تسلط پیدا می‌کنند. ما نمی‌توانیم منتظر بمانیم تا مشکلات بوجود آیند و سپس در مورد نظم بحث کنیم. این ضرورت وجود این گروه کاری است.’ ایجاد هنجارهای صنعت برای امنیت و اعتماد متقابل با هم برای توسعه سالم بلندمدت بسیار مهم است.

به گفته زیکسی، تمرکز فعلی آنها بر روی پرداختن به مسائل کلیدی زیر در مرحله اول است:

  • هویت مورد اعتماد عامل: ‘هدف ما ایجاد یک سیستم صدور گواهینامه عامل بر اساس موسسات معتبر و مکانیسم‌های شناخت متقابل است. درست مانند نیاز به گذرنامه و ویزا برای سفر بین‌المللی، این امر به عوامل دارای گواهینامه اجازه می‌دهد تا به سرعت به یک شبکه همکاری بپیوندند و از اختلال عوامل فاقد گواهینامه در نظم مشارکتی جلوگیری کنند.’

  • اشتراک گذاری مورد اعتماد قصد: ‘همکاری بین عوامل هوشمند متکی به اصالت و دقت قصد است. بنابراین، اشتراک گذاری مورد اعتماد قصد برای اطمینان از همکاری کارآمد و قابل اعتماد چند عاملی بسیار مهم است.’

  • مکانیسم حفاظت از زمینه: ‘هنگامی که یک عامل هوش مصنوعی به چندین سرور MCP (پروتکل چند کاناله) متصل می‌شود، تمام اطلاعات توصیف ابزار در همان زمینه جلسه بارگذاری می‌شود. یک سرور MCP مخرب می‌تواند از این برای تزریق دستورالعمل‌های مخرب استفاده کند. حفاظت از زمینه می‌تواند از تداخل مخرب جلوگیری کند، امنیت سیستم را حفظ کند، یکپارچگی قصد کاربر را تضمین کند و از حملات مسمومیت جلوگیری کند.’

  • حفاظت از حریم خصوصی داده‌ها: ‘در همکاری چند عاملی، اشتراک گذاری داده‌ها می‌تواند منجر به نقض حریم خصوصی شود. حفاظت از حریم خصوصی برای جلوگیری از سوء استفاده از اطلاعات حساس بسیار مهم است.’

  • اشتراک گذاری مورد اعتماد حافظه عامل: ‘اشتراک گذاری حافظه کارایی همکاری چند عاملی را بهبود می‌بخشد. اشتراک گذاری مورد اعتماد حافظه از سازگاری، اصالت و امنیت داده‌ها اطمینان حاصل می‌کند، از دستکاری و نشت جلوگیری می‌کند، اثربخشی همکاری و اعتماد کاربر را افزایش می‌دهد.’

  • گردش مورد اعتماد هویت: ‘کاربران انتظار یک تجربه خدمات یکپارچه و روان در برنامه‌های بومی هوش مصنوعی دارند. بنابراین، دستیابی به تشخیص هویت بین پلتفرمی و غیر مزاحم کلید افزایش تجربه کاربر است.’

زیکسی توضیح می‌دهد: ‘اینها اهداف کوتاه مدت ما هستند. در مرحله بعد، ASL را برای کل صنعت منتشر خواهیم کرد. این یک پیاده سازی نرم افزاری است، نه یک مشخصات پروتکل. می‌توان آن را در MCP و A2A اعمال کرد تا امنیت سطح سازمانی این دو پروتکل را افزایش دهد. این هدف کوتاه مدت است.’

‘در اوایل، ما چیزهایی را در لایه امنیتی مشخص نخواهیم کرد. ما A2AS را مشخص نخواهیم کرد. در عوض، ما امیدواریم که اگر کسی در آینده A2AS را مشخص کند، ASL ما می‌تواند به یک مؤلفه پیاده سازی نرم افزاری تبدیل شود، درست مانند SSL که یک مؤلفه پیاده سازی نرم افزاری از HTTPS است.’

قیاس HTTPS: تأمین امنیت آینده عوامل هوش مصنوعی

با ترسیم موازی با تاریخچه HTTPS، اطمینان از امنیت، پذیرش گسترده عملکردهایی مانند پرداخت را امکان پذیر می‌کند، در نتیجه راه را برای فرصت‌های تجاری در مقیاس بزرگتر هموار می‌کند. یک ریتم مشابه در حال حاضر در حال پخش است. در 15 آوریل، Alipay با انجمن ModelScope همکاری کرد تا سرویس ‘سرور MCP پرداخت’ را رونمایی کند. این به توسعه دهندگان هوش مصنوعی اجازه می‌دهد تا به طور یکپارچه خدمات پرداخت Alipay را با استفاده از زبان طبیعی ادغام کنند و استقرار سریع عملکردهای پرداخت را در عوامل هوش مصنوعی تسهیل کنند.

رسیدگی به این اهداف کوتاه مدت یک به یک در نهایت منجر به تشکیل یک استاندارد و محیط همکاری عامل امن می‌شود. کلید این فرآیند دستیابی به اثر مقیاس گذاری است. ‘فروشگاه‌های’ MCP داخلی که به سرعت در حال حرکت هستند، قبلاً شروع به اقدام کرده‌اند. ‘منطقه MCP’ پلتفرم عامل هوشمند Baibaoxiang گروه Ant راه حل‌های امنیتی IIFAA را ادغام خواهد کرد. این ‘فروشگاه MCP’ در حال حاضر از استقرار و فراخوانی خدمات مختلف MCP، از جمله Alipay، Amap و Wuying پشتیبانی می‌کند و سریعترین ایجاد یک عامل هوشمند متصل به خدمات MCP را تنها در 3 دقیقه امکان پذیر می‌کند.

زیکسی معتقد است که قابلیت‌های عمومی مدل‌های بزرگ این پتانسیل را دارند که به طور واقعی تجربه‌های کاربری و پارادایم‌های تعامل را متحول کنند. در آینده، رویکرد فعلی فراخوانی برنامه‌ها برای تکمیل وظایف ممکن است با یک ابر دروازه جایگزین شود که متکی به یک مجموعه ابزار پنهان در پشت صحنه است، شبیه به یک فروشگاه MCP. این ساده‌تر و درک بیشتری از نیازهای کاربر خواهد شد. تجاری سازی امکان پذیر می‌شود.

‘توسعه AGI اکنون وارد مرحله عامل هوشمند شده است. در مقایسه با ربات‌های گفتگو و هوش مصنوعی با قابلیت‌های استدلال محدود، عوامل هوشمند سرانجام از مرحله بسته نقطه به نقطه رها شده‌اند و واقعاً فصل جدیدی را در برنامه‌های تجاری باز کرده‌اند.’

IIFAA اخیراً ASL را راه اندازی کرده و انتشار منبع باز آن را اعلام کرده است. با به اشتراک گذاری آشکار کد، استانداردها و تجربه، هدف آن تسریع نوآوری و تکرار فناوری، ترغیب شرکت‌های صنعت و توسعه دهندگان به مشارکت گسترده و ترویج استانداردسازی فناوری در صنعت است. طرح منبع باز مجوز Apache 2.0 با بیشترین مجوز را اتخاذ خواهد کرد و شیوه‌های امنیتی سند طراحی کتابخانه کد را به صورت خارجی در دسترس قرار می‌دهد. توسعه دهندگان جهانی می‌توانند در ساخت مشترک در انجمن Github شرکت کنند.

ضرورت امنیت در توسعه عامل هوش مصنوعی

ظهور عوامل هوش مصنوعی نشان دهنده یک تغییر پارادایم در نحوه تعامل ما با فناوری است. ما دیگر به برنامه‌های کاربردی مجزا محدود نیستیم، بلکه به سمت دنیایی پیش می‌رویم که در آن عوامل هوشمند می‌توانند به طور یکپارچه تعداد زیادی از ابزارها و خدمات را برای دستیابی به اهداف ما تنظیم کنند. با این حال، این چشم انداز مشروط به رسیدگی به خطرات امنیتی ذاتی است که چنین فناوری قدرتمندی را همراهی می‌کند. همانطور که اینترنت به HTTPS برای تسهیل تجارت الکترونیک امن و سایر معاملات حساس نیاز داشت، عوامل هوش مصنوعی به استانداردهای امنیتی قوی برای تقویت اعتماد و فعال کردن پذیرش گسترده نیاز دارند.

چشم انداز فعلی توسعه عامل هوش مصنوعی با نوآوری و آزمایش سریع مشخص می‌شود. مدل‌ها، پروتکل‌ها و برنامه‌های کاربردی جدید با سرعتی بی سابقه در حال ظهور هستند. در حالی که این پویایی بدون شک هیجان انگیز است، یک چالش نیز ایجاد می‌کند: نگرانی‌های امنیتی اغلب در اولویت سرعت و عملکرد قرار می‌گیرند. این می‌تواند منجر به آسیب پذیری‌هایی شود که بازیگران مخرب می‌توانند از آنها سوء استفاده کنند، به طور بالقوه داده‌های کاربر را به خطر بیندازند، خدمات را مختل کنند و اعتماد به کل اکوسیستم را تضعیف کنند.

قیاس با روزهای اولیه اینترنت به ویژه مناسب است. در غیاب اقدامات امنیتی گسترده، اینترنت مملو از کلاهبرداری، تقلب و سایر فعالیت‌های مخرب بود. این امر رشد آن را مختل کرد و از دستیابی آن به پتانسیل کامل خود جلوگیری کرد. تنها با ظهور HTTPS و سایر پروتکل‌های امنیتی بود که اینترنت به یک پلتفرم امن و قابل اعتماد برای تجارت الکترونیک، بانکداری آنلاین و سایر معاملات حساس تبدیل شد.

به طور مشابه، عوامل هوش مصنوعی به یک پایه قوی از امنیت نیاز دارند تا پتانسیل تحول آفرین خود را درک کنند. بدون چنین پایه‌ای، آنها خطر تبدیل شدن به یک بستر برای اشکال جدیدی از جرایم سایبری و بهره برداری آنلاین را دارند. این می‌تواند نوآوری را خفه کند، اعتماد کاربر را از بین ببرد و در نهایت از تبدیل شدن عوامل هوش مصنوعی به فناوری فراگیر و مفیدی که بسیاری تصور می‌کنند، جلوگیری کند.

رسیدگی به چالش‌های امنیتی

چالش‌های امنیتی پیش روی عوامل هوش مصنوعی چندوجهی هستند و نیاز به یک رویکرد جامع دارند. برخی از چالش‌های کلیدی عبارتند از:

  • احراز هویت و مجوز: اطمینان از اینکه فقط عوامل مجاز می‌توانند به داده‌ها و منابع حساس دسترسی داشته باشند. این امر نیاز به مکانیسم‌های احراز هویت قوی و کنترل‌های دسترسی دقیق دارد.
  • حریم خصوصی داده‌ها: محافظت از داده‌های کاربر از دسترسی، استفاده یا افشای غیرمجاز. این امر مستلزم اجرای تکنیک‌های حفظ حریم خصوصی مانند ناشناس سازی، رمزگذاری و حریم خصوصی دیفرانسیل است.
  • تأیید قصد: تأیید اینکه قصد یک عامل با اهداف کاربر همسو است و توسط بازیگران مخرب دستکاری نمی‌شود. این امر مستلزم توسعه الگوریتم‌های پیچیده تشخیص و تأیید قصد است.
  • امنیت متنی: محافظت از عوامل در برابر حملات مخرب که از آسیب پذیری‌ها در محیط اطراف سوء استفاده می‌کنند. این امر مستلزم اجرای اقدامات امنیتی قوی در تمام لایه‌های سیستم، از سخت افزار تا نرم افزار است.
  • امنیت عامل به عامل: اطمینان از اینکه عوامل می‌توانند به طور ایمن با یکدیگر ارتباط برقرار کنند و همکاری کنند. این امر مستلزم توسعه پروتکل‌های ارتباطی امن و مکانیسم‌های اعتماد است.

ASL IIFAA یک گام امیدوارکننده در مسیر درست است. ASL با ارائه یک پیاده سازی نرم افزاری که امنیت MCP و A2A را افزایش می‌دهد، می‌تواند به رسیدگی به برخی از این چالش‌ها کمک کند. با این حال، برای ایجاد یک چارچوب امنیتی جامع برای عوامل هوش مصنوعی، باید کارهای بیشتری انجام شود.

مسیر پیش رو: همکاری و استانداردسازی

توسعه عوامل هوش مصنوعی امن نیازمند یک تلاش مشترک است که شامل محققان، توسعه دهندگان، سهامداران صنعت و سیاست گذاران می‌شود. برخی از مراحل کلیدی که باید انجام شود عبارتند از:

  • توسعه استانداردهای باز: ایجاد استانداردهای باز برای امنیت عامل هوش مصنوعی برای اطمینان از قابلیت همکاری و ترویج نوآوری بسیار مهم است.
  • به اشتراک گذاری بهترین شیوه‌ها: به اشتراک گذاری بهترین شیوه‌ها برای توسعه امن عامل هوش مصنوعی می‌تواند به جلوگیری از آسیب پذیری‌های رایج کمک کند و فرهنگ امنیت را ترویج کند.
  • سرمایه گذاری در تحقیق: سرمایه گذاری در تحقیق در مورد امنیت عامل هوش مصنوعی برای توسعه تکنیک‌ها و فناوری‌های جدید برای مقابله با تهدیدهای نوظهور ضروری است.
  • ترویج آموزش و آگاهی: ترویج آموزش و آگاهی در مورد امنیت عامل هوش مصنوعی می‌تواند به ارتقای سطح امنیت و تشویق توسعه مسئولانه کمک کند.
  • ایجاد چارچوب‌های نظارتی: ایجاد چارچوب‌های نظارتی برای امنیت عامل هوش مصنوعی می‌تواند به اطمینان از اولویت دادن به امنیت و محافظت از کاربران کمک کند.

با همکاری، می‌توانیم آینده‌ای را ایجاد کنیم که در آن عوامل هوش مصنوعی نه تنها قدرتمند و مفید، بلکه امن و قابل اعتماد باشند. این امر مستلزم یک تلاش هماهنگ برای رسیدگی به چالش‌های امنیتی پیش رو و ایجاد یک پایه قوی از امنیت برای اکوسیستم عامل هوش مصنوعیاست. تنها در این صورت می‌توانیم پتانسیل کامل عوامل هوش مصنوعی را باز کنیم و یک فناوری واقعاً تحول آفرین ایجاد کنیم. تلاش‌های سازمان‌هایی مانند IIFAA در پیشبرد این ابتکار شایسته تقدیر است، اما پذیرش گسترده و پایبندی به استانداردهای امنیتی برای توسعه امن و مرفه عوامل هوش مصنوعی بسیار مهم است.