Tenable Research تحقیقات نوآورانهای را منتشر کرده است که رویکرد یک آسیبپذیری هوش مصنوعی را که به طور گسترده مورد بحث قرار گرفته است، بازتعریف میکند. بن اسمیت از Tenable در یک تجزیه و تحلیل دقیق نشان میدهد که چگونه میتوان از تکنیکهای مشابه تزریق اعلان به طور مؤثر برای ممیزی، نظارت و حتی ایجاد فایروال برای فراخوانی ابزارهای مدل زبان بزرگ (LLM) که در پروتکل زمینه مدل (MCP) که به طور فزایندهای محبوب است، استفاده کرد.
پروتکل زمینه مدل (MCP)، یک استاندارد جدید که توسط Anthropic توسعه یافته است، ادغام چتباتهای هوش مصنوعی با ابزارهای خارجی را تسهیل میکند و آنها را قادر میسازد تا وظایف را به طور مستقل انجام دهند. با این حال، این راحتی چالشهای امنیتی جدیدی را معرفی میکند. مهاجمان میتوانند دستورالعملهای پنهان، معروف به تزریق اعلان، را وارد کنند یا ابزارهای مخرب را برای دستکاری هوش مصنوعی به منظور نقض قوانین خود معرفی کنند. تحقیقات Tenable به طور جامع این خطرات را بررسی میکند و یک راهحل منحصر به فرد ارائه میدهد: استفاده از همان تکنیکهای مورد استفاده در حملات برای ایجاد دفاعهای قوی که هر ابزاری را که یک هوش مصنوعی قصد استفاده از آن را دارد، نظارت، بازرسی و کنترل میکند.
اهمیت حیاتی درک امنیت MCP
از آنجایی که کسبوکارها به طور فزایندهای LLMها را با ابزارهای حیاتی کسبوکار ادغام میکنند، برای مدیران ارشد امنیت اطلاعات (CISOs)، مهندسان هوش مصنوعی و محققان امنیتی بسیار مهم است که خطرات و فرصتهای دفاعی ارائه شده توسط MCP را به طور کامل درک کنند.
بن اسمیت، مهندس ارشد تحقیق در Tenable، خاطرنشان میکند که "MCP یک فناوری به سرعت در حال تکامل و نابالغ است که نحوه تعامل ما با هوش مصنوعی را تغییر میدهد. ابزارهای MCP به راحتی توسعه مییابند و فراوان هستند، اما اصول امنیت از طریق طراحی را تجسم نمیکنند و باید با احتیاط با آنها برخورد شود. بنابراین، در حالی که این تکنیکهای جدید برای ساخت ابزارهای قدرتمند مفید هستند، همان روشها میتوانند برای اهداف شوم مورد استفاده قرار گیرند. احتیاط را به باد ندهید. در عوض، سرورهای MCP را به عنوان توسعه سطح حمله خود در نظر بگیرید."
نکات برجسته کلیدی از تحقیق
- رفتار متقابل مدل متفاوت است:
- Claude Sonnet 3.7 و Gemini 2.5 Pro Experimental به طور مداوم فراخواننده گزارش را فراخوانی کرده و بخشهایی از اعلان سیستم را در معرض نمایش قرار دادند.
- GPT-4o همچنین فراخواننده گزارش را وارد کرد، اما مقادیر پارامترهای مختلف (و گاهی توهمی) را در هر اجرا تولید کرد.
- جنبه مثبت امنیتی: همان مکانیسمهایی که توسط مهاجمان استفاده میشود میتواند توسط مدافعان برای ممیزی زنجیرههای ابزار، شناسایی ابزارهای مخرب یا ناشناخته و ایجاد حفاظ در داخل میزبانهای MCP استفاده شود.
- تأیید صریح کاربر: MCP از قبل قبل از اجرای هر ابزاری به تأیید صریح کاربر نیاز دارد. این تحقیق بر نیاز به پیشفرضهای سختگیرانه حداقل امتیاز و بررسی و آزمایش کامل ابزار فردی تأکید میکند.
بررسی عمیق پروتکل زمینه مدل (MCP)
پروتکل زمینه مدل (MCP) نشان دهنده یک تغییر پارادایم در نحوه تعامل مدلهای هوش مصنوعی با دنیای خارج است. برخلاف سیستمهای هوش مصنوعی سنتی که به طور مجزا عمل میکنند، MCP به مدلهای هوش مصنوعی اجازه میدهد تا به طور یکپارچه با ابزارها و خدمات خارجی ادغام شوند و آنها را قادر میسازد تا طیف گستردهای از وظایف را انجام دهند، از دسترسی به پایگاه دادهها و ارسال ایمیلها گرفته تا کنترل دستگاههای فیزیکی. این ادغام امکانات جدیدی را برای برنامههای هوش مصنوعی باز میکند، اما همچنین خطرات امنیتی جدیدی را معرفی میکند که باید با دقت مورد توجه قرار گیرند.
درک معماری MCP
MCP در هسته خود از چندین جزء کلیدی تشکیل شده است که با هم کار میکنند تا ارتباط بین مدلهای هوش مصنوعی و ابزارهای خارجی را تسهیل کنند. این اجزا عبارتند از:
- مدل هوش مصنوعی: این هوش مرکزی است که سیستم را هدایت میکند. این میتواند یک مدل زبان بزرگ (LLM) مانند GPT-4 یا یک مدل هوش مصنوعی تخصصی باشد که برای یک کار خاص طراحی شده است.
- سرور MCP: این به عنوان یک واسطه بین مدل هوش مصنوعی و ابزارهای خارجی عمل میکند. این درخواستها را از مدل هوش مصنوعی دریافت میکند، آنها را تأیید میکند و آنها را به ابزار مناسب ارسال میکند.
- ابزارهای خارجی: اینها خدمات و برنامههایی هستند که مدل هوش مصنوعی با آنها تعامل دارد. آنها میتوانند شامل پایگاه دادهها، APIها، خدمات وب و حتی دستگاههای فیزیکی باشند.
- رابط کاربری: این راهی را برای کاربران فراهم میکند تا با سیستم هوش مصنوعی تعامل داشته باشند و رفتار آن را کنترل کنند. همچنین ممکن است راهی را برای کاربران فراهم کند تا درخواستهای ابزار را تأیید یا رد کنند.
مزایای MCP
پروتکل زمینه مدل چندین مزیت قابل توجه نسبت به سیستمهای هوش مصنوعی سنتی ارائه میدهد:
- افزایش عملکرد: با ادغام با ابزارهای خارجی، مدلهای هوش مصنوعی میتوانند طیف بسیار گستردهتری از وظایف را نسبت به آنچه که به تنهایی میتوانستند انجام دهند.
- بهبود کارایی: MCP میتواند وظایفی را که در غیر این صورت نیاز به مداخله انسانی دارند، خودکار کند و در زمان و منابع صرفهجویی کند.
- انعطافپذیری بیشتر: MCP به مدلهای هوش مصنوعی اجازه میدهد تا با شرایط متغیر سازگار شوند و به اطلاعات جدید در زمان واقعی پاسخ دهند.
- مقیاسپذیری بیشتر: MCP را میتوان به راحتی مقیاسبندی کرد تا تعداد رو به رشدی از کاربران و ابزارها را در خود جای دهد.
خطرات امنیتی در حال ظهور در MCP
MCP علیرغم مزایای خود، چندین خطر امنیتی را معرفی میکند که باید با دقت مورد توجه قرار گیرند. این خطرات ناشی از این واقعیت است که MCP به مدلهای هوش مصنوعی اجازه میدهد تا با دنیای خارج تعامل داشته باشند، که راههای جدیدی را برای سوء استفاده مهاجمان باز میکند.
حملات تزریق اعلان
حملات تزریق اعلان یک تهدید به ویژه نگرانکننده برای سیستمهای MCP هستند. در یک حمله تزریق اعلان، یک مهاجم یک ورودی مخرب را ایجاد میکند که مدل هوش مصنوعی را دستکاری میکند تا اقدامات ناخواسته انجام دهد. این میتواند با تزریق دستورات یا دستورالعملهای مخرب به ورودی مدل هوش مصنوعی انجام شود، که مدل سپس آن را به عنوان دستورات قانونی تفسیر میکند.
به عنوان مثال، یک مهاجم میتواند یک دستوری را تزریق کند که به مدل هوش مصنوعی میگوید تمام دادههای موجود در یک پایگاه داده را حذف کند یا اطلاعات حساس را برای یک طرف غیرمجاز ارسال کند. پیامدهای بالقوه یک حمله تزریق اعلان موفق میتواند شدید باشد، از جمله نقض دادهها، خسارات مالی و آسیب به شهرت.
ادغام ابزار مخرب
یکی دیگر از خطرات قابل توجه، ادغام ابزارهای مخرب در اکوسیستم MCP است. یک مهاجم میتواند ابزاری را ایجاد کند که به نظر قانونی میرسد اما در واقع حاوی کد مخرب است. هنگامی که مدل هوش مصنوعی با این ابزار تعامل میکند، کد مخرب میتواند اجرا شود و به طور بالقوه کل سیستم را به خطر بیندازد.
به عنوان مثال، یک مهاجم میتواند ابزاری را ایجاد کند که اعتبارنامههای کاربر را میدزدد یا بدافزار را روی سیستم نصب میکند. بسیار مهم است که قبل از ادغام آنها در اکوسیستم MCP، همه ابزارها را به دقت بررسی کنید تا از معرفی کد مخرب جلوگیری شود.
ارتقاء امتیاز
ارتقاء امتیاز یکی دیگر از خطرات امنیتی بالقوه در سیستمهای MCP است. اگر یک مهاجم بتواند به یک حساب کاربری با امتیازات محدود دسترسی پیدا کند، ممکن است بتواند از آسیبپذیریهای موجود در سیستم سوء استفاده کند تا امتیازات سطح بالاتری را به دست آورد. این میتواند به مهاجم اجازه دهد به دادههای حساس دسترسی پیدا کند، پیکربندیهای سیستم را تغییر دهد یا حتی کنترل کل سیستم را در دست بگیرد.
مسمومیت داده
مسمومیت داده شامل تزریق دادههای مخرب به دادههای آموزشی است که برای ساخت مدلهای هوش مصنوعی استفاده میشود. این میتواند رفتار مدل را خراب کند و باعث شود پیشبینیهای نادرست انجام دهد یا اقدامات ناخواسته انجام دهد. در زمینه MCP، از مسمومیت داده میتوان برای دستکاری مدل هوش مصنوعی برای تعامل با ابزارهای مخرب یا انجام سایر اقدامات مضر استفاده کرد.
فقدان دید و کنترل
ابزارهای امنیتی سنتی اغلب در شناسایی و جلوگیری از حملات علیه سیستمهای MCP بیاثر هستند. این به این دلیل است که ترافیک MCP اغلب رمزگذاری میشود و تشخیص آن از ترافیک قانونی دشوار است. در نتیجه، نظارت بر فعالیت مدل هوش مصنوعی و شناسایی رفتارهای مخرب میتواند چالش برانگیز باشد.
تغییر وضعیت: استفاده از تزریق اعلان برای دفاع
تحقیقات Tenable نشان میدهد که از همان تکنیکهای مورد استفاده در حملات تزریق اعلان میتوان برای ایجاد دفاعهای قوی برای سیستمهای MCP استفاده کرد. با ایجاد اعلانهای با طراحی دقیق، تیمهای امنیتی میتوانند فعالیت مدل هوش مصنوعی را نظارت کنند، ابزارهای مخرب را شناسایی کنند و حفاظهایی برای جلوگیری از حملات ایجاد کنند.
ممیزی زنجیرههای ابزار
یکی از کاربردهای دفاعی کلیدی تزریق اعلان، ممیزی زنجیرههای ابزار است. با تزریق اعلانهای خاص به ورودی مدل هوش مصنوعی، تیمهای امنیتی میتوانند ردیابی کنند که مدل هوش مصنوعی از کدام ابزارها استفاده میکند و چگونه با آنها تعامل دارد. از این اطلاعات میتوان برای شناسایی فعالیت مشکوک و اطمینان از اینکه مدل هوش مصنوعی فقط از ابزارهای مجاز استفاده میکند، استفاده کرد.
شناسایی ابزارهای مخرب یا ناشناخته
از تزریق اعلان میتوان برای شناسایی ابزارهای مخرب یا ناشناخته نیز استفاده کرد. با تزریق اعلانهایی که رفتارهای خاصی را تحریک میکنند، تیمهای امنیتی میتوانند ابزارهایی را که به طور مشکوکی عمل میکنند یا مجاز به استفاده نیستند، شناسایی کنند. این میتواند به جلوگیری از تعامل مدل هوش مصنوعی با ابزارهای مخرب و محافظت از سیستم در برابر حمله کمک کند.
ایجاد حفاظ در داخل میزبانهای MCP
شاید قویترین کاربرد دفاعی تزریق اعلان، ایجاد حفاظ در داخل میزبانهای MCP باشد. با تزریق اعلانهایی که سیاستهای امنیتی خاصی را اعمال میکنند، تیمهای امنیتی میتوانند از انجام اقدامات غیرمجاز یا دسترسی به دادههای حساس توسط مدل هوش مصنوعی جلوگیری کنند. این میتواند به ایجاد یک محیط امن برای اجرای مدل هوش مصنوعی و محافظت از سیستم در برابر حمله کمک کند.
اهمیت تأیید صریح کاربر
این تحقیق بر نیاز مبرم به تأیید صریح کاربر قبل از اجرای هر ابزاری در محیط MCP تأکید دارد. MCP از قبل این الزام را در خود جای داده است، اما یافتهها ضرورت پیشفرضهای سختگیرانه حداقل امتیاز و بررسی و آزمایش کامل ابزار فردی را تقویت میکنند. این رویکرد تضمین میکند که کاربران کنترل سیستم هوش مصنوعی را حفظ میکنند و میتوانند از انجام اقدامات ناخواسته توسط آن جلوگیری کنند.
پیشفرضهای حداقل امتیاز
اصل حداقل امتیاز حکم میکند که به کاربران فقط حداقل سطح دسترسی لازم برای انجام عملکردهای شغلی خود اعطا شود. در زمینه MCP، این بدان معناست که به مدلهای هوش مصنوعی فقط باید دسترسی به ابزارها و دادههایی داده شود که مطلقاً برای انجام وظایف خود به آنها نیاز دارند. این تأثیر بالقوه یک حمله موفق را کاهش میدهد و توانایی مهاجم را برای ارتقاء امتیاز محدود میکند.
بررسی و آزمایش کامل ابزار
قبل از ادغام هر ابزاری در اکوسیستم MCP، بسیار مهم است که آن را به طور کامل بررسی و آزمایش کنید تا مطمئن شوید که ایمن است و حاوی هیچ کد مخربی نیست. این باید شامل ترکیبی از تکنیکهای آزمایش خودکار و دستی، از جمله تجزیه و تحلیل کد، آزمایش نفوذ و اسکن آسیبپذیری باشد.
پیامدها و توصیهها
تحقیقات Tenable پیامدهای قابل توجهی برای سازمانهایی دارد که از MCP استفاده میکنند یا قصد دارند از آن استفاده کنند. یافتهها اهمیت درک خطرات امنیتی مرتبط با MCP و اجرای اقدامات امنیتی مناسب برای کاهش این خطرات را برجسته میکند.
توصیههای کلیدی
- اجرای اعتبارسنجی ورودی قوی: تمام ورودیهای مدل هوش مصنوعی باید به دقت اعتبارسنجی شوند تا از حملات تزریق اعلان جلوگیری شود. این باید شامل فیلتر کردن دستورات و دستورالعملهای مخرب و محدود کردن طول و پیچیدگی ورودی باشد.
- اعمال کنترلهای دسترسی سختگیرانه: دسترسی به دادهها و ابزارهای حساس باید به شدت کنترل شود تا از دسترسی غیرمجاز جلوگیری شود. این باید شامل استفاده از مکانیسمهای احراز هویت قوی و اجرای اصل حداقل امتیاز باشد.
- نظارت بر فعالیت مدل هوش مصنوعی: فعالیت مدل هوش مصنوعی باید از نزدیک نظارت شود تا رفتارهای مشکوک شناسایی شود. این باید شامل ثبت تمام درخواستها و پاسخهای ابزار و تجزیه و تحلیل دادهها برای ناهنجاریها باشد.
- اجرای یک طرح پاسخگویی به حادثه قوی: سازمانها باید یک طرح پاسخگویی به حادثه قوی برای رسیدگی به حوادث امنیتی مربوط به سیستمهای MCP داشته باشند. این باید شامل رویههایی برای شناسایی، مهار و بازیابی از حملات باشد.
- مطلع بمانید: چشم انداز MCP به طور مداوم در حال تحول است، بنابراین مهم است که در مورد آخرین خطرات امنیتی و بهترین روشها مطلع بمانید. این کار را میتوان با اشتراک در لیستهای پستی امنیتی، شرکت در کنفرانسهای امنیتی و دنبال کردن کارشناسان امنیتی در رسانههای اجتماعی انجام داد.
با پیروی از این توصیهها، سازمانها میتوانند به طور قابل توجهی خطر حملات علیه سیستمهای MCP خود را کاهش دهند و از دادههای حساس خود محافظت کنند. آینده هوش مصنوعی به توانایی ما در ساخت سیستمهای امن و قابل اعتماد بستگی دارد و این مستلزم رویکردی فعال و هوشیارانه در زمینه امنیت است.