صنعت عامل هوش مصنوعی در حال حاضر یک روایت آشنا را تجربه میکند. عوامل هوش مصنوعی از قابلیتهای عمومی مدلهای بزرگ برای خودکارسازی حل وظایف پیچیده کاربر با استفاده از فناوریها و ابزارهای موجود بهره میبرند. این امر آنها را به امیدوارکنندهترین راه برای استقرار فناوری مدل در حال حاضر تبدیل میکند.
در چند ماه گذشته، انفجاری در محصولات عامل هوش مصنوعی رخ داده است. پیشنهادات برجستهای مانند Manus توجه جریان اصلی را به خود جلب کردهاند و مدلهای جدید از OpenAI و Google به طور فزایندهای ‘عامل هوش مصنوعی’ شدهاند. به طور حیاتی، پروتکلهای استاندارد به سرعت در حال جلب توجه هستند.
Anthropic پروتکل MCP (پروتکل ارتباط مدل) را به عنوان منبع باز در پایان سال گذشته منتشر کرد. MCP با هدف ایجاد یک مشخصات باز و استاندارد است که مدلهای زبان بزرگ را قادر میسازد تا به طور یکپارچه با منابع داده و ابزارهای خارجی مختلف مانند نرمافزار تجاری، پایگاههای داده و مخازن کد تعامل داشته باشند. در عرض چند ماه پس از انتشار، OpenAI، Google، Alibaba و Tencent همگی از آن حمایت کرده و آن را ادغام کردهاند. پس از این، Google A2A (عامل به عامل) را راه اندازی کرد، با هدف خودکارسازی همکاری و گردش کار بین عوامل هوش مصنوعی. این امر به چشم انداز رو به رشد عامل هوش مصنوعی دامن زده است.
در اصل، این پروتکلها به دو چالش کلیدی میپردازند: MCP ارتباط بین عوامل و ارائه دهندگان ابزار/خدمات را تسهیل میکند، در حالی که A2A ارتباطات مشارکتی بین عوامل را برای انجام وظایف بسیار پیچیده امکان پذیر میکند.
بنابراین، MCP را میتوان به رابطهای یکپارچه اولیه تشبیه کرد، در حالی که A2A شبیه پروتکل HTTP است.
با این حال، در تاریخ اینترنت، ظهور HTTP با یک عنصر حیاتی دنبال شد که برای رونق واقعی اینترنت ضروری بود: استانداردهای امنیتی لایه بندی شده بر روی پروتکل.
امروز، MCP و A2A با یک مخمصه مشابه روبرو هستند.
زیکسی، رهبر فنی اتحاد احراز هویت مورد اعتماد IIFAA (اتحاد احراز هویت مالی صنعت اینترنت) و کارشناس امنیت عامل هوش مصنوعی توضیح میدهد: ‘هنگامی که HTTP ظهور کرد، بعداً با چالشهای امنیتی قابل توجهی روبرو شد. اینترنت این تکامل را تجربه کرد.’
این چالشها میتوانند به اشکال مختلف ظاهر شوند. در حال حاضر، بازیگران مخرب میتوانند ابزارهای جعلی ‘پرس و جو از آب و هوا’ ایجاد کرده و آنها را در سرورهای MCP ثبت کنند و به طور پنهانی اطلاعات پرواز کاربر را در پس زمینه سرقت کنند. هنگامی که یک کاربر از طریق یک عامل دارو خریداری میکند، عامل A ممکن است مسئول خرید سفپودوکسیم باشد، در حالی که عامل B الکل خریداری میکند. به دلیل عدم وجود قابلیتهای شناسایی ریسک بین پلتفرمی، سیستم نمیتواند هشدار ‘ترکیب خطرناک’ را ارائه دهد، همانطور که پلتفرمهای تجارت الکترونیک موجود انجام میدهند. مهمتر از همه، احراز هویت عامل به عامل و مالکیت دادهها نامشخص باقی میماند. آیا کاربر در حال تأیید یک برنامه محلی در دستگاه خود است یا در حال همگام سازی دادههای خصوصی با ابر است؟
‘A2A، در اسناد رسمی خود، بیان میکند که فقط امنیت انتقال سطح بالا را تضمین میکند. این مسئولیت اطمینان از منشاء هویت و اعتبار، حریم خصوصی دادهها و تشخیص قصد را به شرکتهای منفرد واگذار میکند.’
شکوفایی واقعی عوامل هوشمند مستلزم رسیدگی به این مسائل است. IIFAA، جایی که زیکسی در آن کار میکند، اولین سازمانی است که شروع به مقابله با این مشکل کرده است.
زیکسی میگوید: ‘در این زمینه، IIFAA به حل یک سری از مشکلاتی اختصاص دارد که عوامل هوشمند در آینده با آن روبرو خواهند شد. ‘در عصر A2A، ما همچنین محصول مشابهی به نام ASL (لایه امنیتی عامل) را تعریف کردهایم، که میتواند بر روی پروتکل MCP ساخته شود تا امنیت عوامل را از نظر مجوزها، دادهها، حریم خصوصی و سایر جنبهها تضمین کند. این محصول میانافزار همچنین به چالشهای انتقال A2A به استانداردهای امنیتی آینده میپردازد.’
گروه کاری اتصال متقابل مورد اعتماد عامل هوشمند IIFAA اولین سازمان همکاری اکوسیستم امنیت عامل هوش مصنوعی داخلی است. این گروه به طور مشترک توسط آکادمی فناوری اطلاعات و ارتباطات چین (CAICT)، گروه Ant و بیش از بیست شرکت و موسسه فناوری دیگر آغاز شده است.
از ASL تا مقیاس پذیری
زیکسی میگوید: ‘توسعه عوامل هوش مصنوعی سریعتر از آنچه انتظار داشتیم، هم از نظر فناوری و هم از نظر پذیرش استانداردها توسط اکوسیستم، در حال انجام است.’
مفهوم IIFAA از یک پروتکل امنیتی برای ارتباط عامل به عامل در اوایل نوامبر سال گذشته، قبل از انتشار MCP، ظهور کرد. گروه کاری اتصال متقابل مورد اعتماد عامل هوشمند IIFAA به طور رسمی در ماه دسامبر، همزمان با انتشار رسمی MCP، تأسیس شد.
یکی از اعضای IIFAA در ارائه قبلی اظهار داشت: ‘بازیگران مخرب گاهی اوقات سریعتر از مدافعان بر فناوریهای جدید تسلط پیدا میکنند. ما نمیتوانیم منتظر بمانیم تا مشکلات بوجود آیند و سپس در مورد نظم بحث کنیم. این ضرورت وجود این گروه کاری است.’ ایجاد هنجارهای صنعت برای امنیت و اعتماد متقابل با هم برای توسعه سالم بلندمدت بسیار مهم است.
به گفته زیکسی، تمرکز فعلی آنها بر روی پرداختن به مسائل کلیدی زیر در مرحله اول است:
هویت مورد اعتماد عامل: ‘هدف ما ایجاد یک سیستم صدور گواهینامه عامل بر اساس موسسات معتبر و مکانیسمهای شناخت متقابل است. درست مانند نیاز به گذرنامه و ویزا برای سفر بینالمللی، این امر به عوامل دارای گواهینامه اجازه میدهد تا به سرعت به یک شبکه همکاری بپیوندند و از اختلال عوامل فاقد گواهینامه در نظم مشارکتی جلوگیری کنند.’
اشتراک گذاری مورد اعتماد قصد: ‘همکاری بین عوامل هوشمند متکی به اصالت و دقت قصد است. بنابراین، اشتراک گذاری مورد اعتماد قصد برای اطمینان از همکاری کارآمد و قابل اعتماد چند عاملی بسیار مهم است.’
مکانیسم حفاظت از زمینه: ‘هنگامی که یک عامل هوش مصنوعی به چندین سرور MCP (پروتکل چند کاناله) متصل میشود، تمام اطلاعات توصیف ابزار در همان زمینه جلسه بارگذاری میشود. یک سرور MCP مخرب میتواند از این برای تزریق دستورالعملهای مخرب استفاده کند. حفاظت از زمینه میتواند از تداخل مخرب جلوگیری کند، امنیت سیستم را حفظ کند، یکپارچگی قصد کاربر را تضمین کند و از حملات مسمومیت جلوگیری کند.’
حفاظت از حریم خصوصی دادهها: ‘در همکاری چند عاملی، اشتراک گذاری دادهها میتواند منجر به نقض حریم خصوصی شود. حفاظت از حریم خصوصی برای جلوگیری از سوء استفاده از اطلاعات حساس بسیار مهم است.’
اشتراک گذاری مورد اعتماد حافظه عامل: ‘اشتراک گذاری حافظه کارایی همکاری چند عاملی را بهبود میبخشد. اشتراک گذاری مورد اعتماد حافظه از سازگاری، اصالت و امنیت دادهها اطمینان حاصل میکند، از دستکاری و نشت جلوگیری میکند، اثربخشی همکاری و اعتماد کاربر را افزایش میدهد.’
گردش مورد اعتماد هویت: ‘کاربران انتظار یک تجربه خدمات یکپارچه و روان در برنامههای بومی هوش مصنوعی دارند. بنابراین، دستیابی به تشخیص هویت بین پلتفرمی و غیر مزاحم کلید افزایش تجربه کاربر است.’
زیکسی توضیح میدهد: ‘اینها اهداف کوتاه مدت ما هستند. در مرحله بعد، ASL را برای کل صنعت منتشر خواهیم کرد. این یک پیاده سازی نرم افزاری است، نه یک مشخصات پروتکل. میتوان آن را در MCP و A2A اعمال کرد تا امنیت سطح سازمانی این دو پروتکل را افزایش دهد. این هدف کوتاه مدت است.’
‘در اوایل، ما چیزهایی را در لایه امنیتی مشخص نخواهیم کرد. ما A2AS را مشخص نخواهیم کرد. در عوض، ما امیدواریم که اگر کسی در آینده A2AS را مشخص کند، ASL ما میتواند به یک مؤلفه پیاده سازی نرم افزاری تبدیل شود، درست مانند SSL که یک مؤلفه پیاده سازی نرم افزاری از HTTPS است.’
قیاس HTTPS: تأمین امنیت آینده عوامل هوش مصنوعی
با ترسیم موازی با تاریخچه HTTPS، اطمینان از امنیت، پذیرش گسترده عملکردهایی مانند پرداخت را امکان پذیر میکند، در نتیجه راه را برای فرصتهای تجاری در مقیاس بزرگتر هموار میکند. یک ریتم مشابه در حال حاضر در حال پخش است. در 15 آوریل، Alipay با انجمن ModelScope همکاری کرد تا سرویس ‘سرور MCP پرداخت’ را رونمایی کند. این به توسعه دهندگان هوش مصنوعی اجازه میدهد تا به طور یکپارچه خدمات پرداخت Alipay را با استفاده از زبان طبیعی ادغام کنند و استقرار سریع عملکردهای پرداخت را در عوامل هوش مصنوعی تسهیل کنند.
رسیدگی به این اهداف کوتاه مدت یک به یک در نهایت منجر به تشکیل یک استاندارد و محیط همکاری عامل امن میشود. کلید این فرآیند دستیابی به اثر مقیاس گذاری است. ‘فروشگاههای’ MCP داخلی که به سرعت در حال حرکت هستند، قبلاً شروع به اقدام کردهاند. ‘منطقه MCP’ پلتفرم عامل هوشمند Baibaoxiang گروه Ant راه حلهای امنیتی IIFAA را ادغام خواهد کرد. این ‘فروشگاه MCP’ در حال حاضر از استقرار و فراخوانی خدمات مختلف MCP، از جمله Alipay، Amap و Wuying پشتیبانی میکند و سریعترین ایجاد یک عامل هوشمند متصل به خدمات MCP را تنها در 3 دقیقه امکان پذیر میکند.
زیکسی معتقد است که قابلیتهای عمومی مدلهای بزرگ این پتانسیل را دارند که به طور واقعی تجربههای کاربری و پارادایمهای تعامل را متحول کنند. در آینده، رویکرد فعلی فراخوانی برنامهها برای تکمیل وظایف ممکن است با یک ابر دروازه جایگزین شود که متکی به یک مجموعه ابزار پنهان در پشت صحنه است، شبیه به یک فروشگاه MCP. این سادهتر و درک بیشتری از نیازهای کاربر خواهد شد. تجاری سازی امکان پذیر میشود.
‘توسعه AGI اکنون وارد مرحله عامل هوشمند شده است. در مقایسه با رباتهای گفتگو و هوش مصنوعی با قابلیتهای استدلال محدود، عوامل هوشمند سرانجام از مرحله بسته نقطه به نقطه رها شدهاند و واقعاً فصل جدیدی را در برنامههای تجاری باز کردهاند.’
IIFAA اخیراً ASL را راه اندازی کرده و انتشار منبع باز آن را اعلام کرده است. با به اشتراک گذاری آشکار کد، استانداردها و تجربه، هدف آن تسریع نوآوری و تکرار فناوری، ترغیب شرکتهای صنعت و توسعه دهندگان به مشارکت گسترده و ترویج استانداردسازی فناوری در صنعت است. طرح منبع باز مجوز Apache 2.0 با بیشترین مجوز را اتخاذ خواهد کرد و شیوههای امنیتی سند طراحی کتابخانه کد را به صورت خارجی در دسترس قرار میدهد. توسعه دهندگان جهانی میتوانند در ساخت مشترک در انجمن Github شرکت کنند.
ضرورت امنیت در توسعه عامل هوش مصنوعی
ظهور عوامل هوش مصنوعی نشان دهنده یک تغییر پارادایم در نحوه تعامل ما با فناوری است. ما دیگر به برنامههای کاربردی مجزا محدود نیستیم، بلکه به سمت دنیایی پیش میرویم که در آن عوامل هوشمند میتوانند به طور یکپارچه تعداد زیادی از ابزارها و خدمات را برای دستیابی به اهداف ما تنظیم کنند. با این حال، این چشم انداز مشروط به رسیدگی به خطرات امنیتی ذاتی است که چنین فناوری قدرتمندی را همراهی میکند. همانطور که اینترنت به HTTPS برای تسهیل تجارت الکترونیک امن و سایر معاملات حساس نیاز داشت، عوامل هوش مصنوعی به استانداردهای امنیتی قوی برای تقویت اعتماد و فعال کردن پذیرش گسترده نیاز دارند.
چشم انداز فعلی توسعه عامل هوش مصنوعی با نوآوری و آزمایش سریع مشخص میشود. مدلها، پروتکلها و برنامههای کاربردی جدید با سرعتی بی سابقه در حال ظهور هستند. در حالی که این پویایی بدون شک هیجان انگیز است، یک چالش نیز ایجاد میکند: نگرانیهای امنیتی اغلب در اولویت سرعت و عملکرد قرار میگیرند. این میتواند منجر به آسیب پذیریهایی شود که بازیگران مخرب میتوانند از آنها سوء استفاده کنند، به طور بالقوه دادههای کاربر را به خطر بیندازند، خدمات را مختل کنند و اعتماد به کل اکوسیستم را تضعیف کنند.
قیاس با روزهای اولیه اینترنت به ویژه مناسب است. در غیاب اقدامات امنیتی گسترده، اینترنت مملو از کلاهبرداری، تقلب و سایر فعالیتهای مخرب بود. این امر رشد آن را مختل کرد و از دستیابی آن به پتانسیل کامل خود جلوگیری کرد. تنها با ظهور HTTPS و سایر پروتکلهای امنیتی بود که اینترنت به یک پلتفرم امن و قابل اعتماد برای تجارت الکترونیک، بانکداری آنلاین و سایر معاملات حساس تبدیل شد.
به طور مشابه، عوامل هوش مصنوعی به یک پایه قوی از امنیت نیاز دارند تا پتانسیل تحول آفرین خود را درک کنند. بدون چنین پایهای، آنها خطر تبدیل شدن به یک بستر برای اشکال جدیدی از جرایم سایبری و بهره برداری آنلاین را دارند. این میتواند نوآوری را خفه کند، اعتماد کاربر را از بین ببرد و در نهایت از تبدیل شدن عوامل هوش مصنوعی به فناوری فراگیر و مفیدی که بسیاری تصور میکنند، جلوگیری کند.
رسیدگی به چالشهای امنیتی
چالشهای امنیتی پیش روی عوامل هوش مصنوعی چندوجهی هستند و نیاز به یک رویکرد جامع دارند. برخی از چالشهای کلیدی عبارتند از:
- احراز هویت و مجوز: اطمینان از اینکه فقط عوامل مجاز میتوانند به دادهها و منابع حساس دسترسی داشته باشند. این امر نیاز به مکانیسمهای احراز هویت قوی و کنترلهای دسترسی دقیق دارد.
- حریم خصوصی دادهها: محافظت از دادههای کاربر از دسترسی، استفاده یا افشای غیرمجاز. این امر مستلزم اجرای تکنیکهای حفظ حریم خصوصی مانند ناشناس سازی، رمزگذاری و حریم خصوصی دیفرانسیل است.
- تأیید قصد: تأیید اینکه قصد یک عامل با اهداف کاربر همسو است و توسط بازیگران مخرب دستکاری نمیشود. این امر مستلزم توسعه الگوریتمهای پیچیده تشخیص و تأیید قصد است.
- امنیت متنی: محافظت از عوامل در برابر حملات مخرب که از آسیب پذیریها در محیط اطراف سوء استفاده میکنند. این امر مستلزم اجرای اقدامات امنیتی قوی در تمام لایههای سیستم، از سخت افزار تا نرم افزار است.
- امنیت عامل به عامل: اطمینان از اینکه عوامل میتوانند به طور ایمن با یکدیگر ارتباط برقرار کنند و همکاری کنند. این امر مستلزم توسعه پروتکلهای ارتباطی امن و مکانیسمهای اعتماد است.
ASL IIFAA یک گام امیدوارکننده در مسیر درست است. ASL با ارائه یک پیاده سازی نرم افزاری که امنیت MCP و A2A را افزایش میدهد، میتواند به رسیدگی به برخی از این چالشها کمک کند. با این حال، برای ایجاد یک چارچوب امنیتی جامع برای عوامل هوش مصنوعی، باید کارهای بیشتری انجام شود.
مسیر پیش رو: همکاری و استانداردسازی
توسعه عوامل هوش مصنوعی امن نیازمند یک تلاش مشترک است که شامل محققان، توسعه دهندگان، سهامداران صنعت و سیاست گذاران میشود. برخی از مراحل کلیدی که باید انجام شود عبارتند از:
- توسعه استانداردهای باز: ایجاد استانداردهای باز برای امنیت عامل هوش مصنوعی برای اطمینان از قابلیت همکاری و ترویج نوآوری بسیار مهم است.
- به اشتراک گذاری بهترین شیوهها: به اشتراک گذاری بهترین شیوهها برای توسعه امن عامل هوش مصنوعی میتواند به جلوگیری از آسیب پذیریهای رایج کمک کند و فرهنگ امنیت را ترویج کند.
- سرمایه گذاری در تحقیق: سرمایه گذاری در تحقیق در مورد امنیت عامل هوش مصنوعی برای توسعه تکنیکها و فناوریهای جدید برای مقابله با تهدیدهای نوظهور ضروری است.
- ترویج آموزش و آگاهی: ترویج آموزش و آگاهی در مورد امنیت عامل هوش مصنوعی میتواند به ارتقای سطح امنیت و تشویق توسعه مسئولانه کمک کند.
- ایجاد چارچوبهای نظارتی: ایجاد چارچوبهای نظارتی برای امنیت عامل هوش مصنوعی میتواند به اطمینان از اولویت دادن به امنیت و محافظت از کاربران کمک کند.
با همکاری، میتوانیم آیندهای را ایجاد کنیم که در آن عوامل هوش مصنوعی نه تنها قدرتمند و مفید، بلکه امن و قابل اعتماد باشند. این امر مستلزم یک تلاش هماهنگ برای رسیدگی به چالشهای امنیتی پیش رو و ایجاد یک پایه قوی از امنیت برای اکوسیستم عامل هوش مصنوعیاست. تنها در این صورت میتوانیم پتانسیل کامل عوامل هوش مصنوعی را باز کنیم و یک فناوری واقعاً تحول آفرین ایجاد کنیم. تلاشهای سازمانهایی مانند IIFAA در پیشبرد این ابتکار شایسته تقدیر است، اما پذیرش گسترده و پایبندی به استانداردهای امنیتی برای توسعه امن و مرفه عوامل هوش مصنوعی بسیار مهم است.