خانه / اخبار تکنولوژی / ایجنت سندباکس: برای استقرار امن ایجنت‌های AI روی Kubernetes

ایجنت سندباکس: برای استقرار امن ایجنت‌های AI روی Kubernetes

ایجنت سندباکس: برای استقرار امن ایجنت‌های AI روی Kubernetes

نویسنده:

انتشار:

به‌روزرسانی:

تعداد نظرات: 0

زمان مطالعه: 3 دقیقه
👀 خبر در یک نگاه:

Agent Sandbox معرفی شد؛ یک راهکار متن‌باز مبتنی بر Kubernetes برای اجرای امن ایجنت‌های هوش مصنوعی. ابزار با ایزوله‌سازی محیط اجرا، ریسک RCE و دستکاری ابزارها را کاهش می‌دهد و طبق توصیه OWASP، سندباکس‌سازی موثرترین راهکار امنیتی است.

ایجنت سندباکس (Agent Sandbox) یک کنترلر Kubernetes متن‌باز است که یک API اعلانی (Declarative API) برای مدیریت یک پاد تکی و Stateful با هویت پایدار و ذخیره‌سازی ماندگار ارائه می‌دهد. این راهکار به‌طور ویژه برای ایجاد محیط‌های ایزوله جهت اجرای کدهای غیرقابل اعتماد تولیدشده توسط مدل‌های زبانی بزرگ مناسب است و همچنین برای اجرای بارهای کاری stateful دیگر هم کاربرد دارد.

اجرای محیط‌های موقتی به کاهش ریسک‌های اجرای مستقیم کدهای غیرقابل اعتماد در کلاستر کمک می‌کند؛ جایی که چنین کدی می‌تواند با اپلیکیشن‌های دیگر تداخل ایجاد کند یا حتی به نود زیرساختی کلاستر دسترسی پیدا کند.

Agent Sandbox یک محیط امن و ایزوله برای اجرای کدهای غیرقابل اعتماد فراهم می‌کند، از جمله کدهایی که توسط مدل‌های زبانی بزرگ (LLMs) تولید می‌شوند. اجرای مستقیم این نوع کدها در یک کلاستر، ریسک‌های امنیتی به همراه دارد، چون ممکن است به سایر اپلیکیشن‌ها یا نود اصلی کلاستر دسترسی پیدا کنند یا در عملکرد آن‌ها اختلال ایجاد کنند.

Agent Sandbox ایزوله‌سازی را با استفاده از gVisor انجام می‌دهد تا یک سد امنیتی بین اپلیکیشن و سیستم‌عامل نود کلاستر ایجاد کند و همچنین می‌تواند از فناوری‌های سندباکس دیگر مثل Kata Containers هم استفاده کند.

تعریف‌های منبع سفارشی سندباکس (CRD)، هویت پایدار، ذخیره‌سازی ماندگار که بین ری‌استارت‌ها حفظ می‌شود و قابلیت‌های مدیریت چرخه عمر مثل ایجاد، حذف زمان‌بندی‌شده، توقف و ازسرگیری را فراهم می‌کنند. علاوه بر این، از ازسرگیری خودکار سندباکس پس از اتصال مجدد شبکه، اشتراک‌گذاری حافظه بین سندباکس‌ها و یک API غنی پشتیبانی می‌کند که به توسعه‌دهنده‌ها اجازه می‌دهد سندباکس‌ها را از داخل اپلیکیشن‌ها یا ایجنت‌ها کنترل کنند.

در کنار API سندباکس، Agent Sandbox یک مکانیزم قالب‌بندی (Templating) ارائه می‌دهد که تعریف تعداد زیادی سندباکس مشابه را ساده می‌کند (SandboxTemplate) و امکان نمونه‌سازی از آن‌ها (SandboxClaim) را فراهم می‌سازد. همچنین مجموعه‌ای از پادهای سندباکس آماده‌به‌کار در اختیار می‌گذارد تا زمان مورد نیاز برای راه‌اندازی یک سندباکس جدید کاهش پیدا کند.

علاوه بر ایزوله‌سازی ایجنت‌های هوش مصنوعی، Agent Sandbox برای میزبانی اپلیکیشن‌های تک‌نسخه‌ای مثل بیلد ایجنت‌ها و پایگاه‌های داده کوچک که به هویت پایدار نیاز دارند هم کاملا مناسب است. همچنین برای اجرای سشن‌های ماندگار تک‌کانتینری برای ابزارهایی مثل Jupyter Notebooks کاربرد دارد.

OWASP، دستکاری تعامل ابزار ایجنت را به‌عنوان یکی از ۱۰ تهدید برتر ایجنت‌های هوش مصنوعی شناسایی کرده است:
آسیب‌پذیری‌های دستکاری تعامل ابزار ایجنت زمانی رخ می‌دهند که ایجنت‌های هوش مصنوعی با ابزارهایی تعامل دارند که ممکن است شامل زیرساخت‌های حیاتی، دستگاه‌های IoT یا سیستم‌های عملیاتی حساس باشند. این دسته از آسیب‌پذیری‌ها به‌طور خاص خطرناک هستند، چون می‌توانند باعث شوند ابزارها به شکل‌هایی ناخواسته و خارج از کنترل دستکاری شوند.

طبق گزارش OWASP، اقدام اصلی برای جلوگیری از این نوع سواستفاده‌ها، پیاده‌سازی ایزوله‌سازی سیستم است؛ در کنار آن، تفکیک دسترسی‌ها، مدیریت مجوزها، اعتبارسنجی دستورات و سایر مکانیزم‌های حفاظتی هم نقش کلیدی دارند.

یاسین بارقاش (Yassine Bargach)، مهندس امنیت، در وب‌سایت HackerNook می‌نویسد که هر ایجنت هوش مصنوعی به یک سندباکس نیاز دارد و برای این ادعا به رخدادها و افشای آسیب‌پذیری‌های اخیر اشاره می‌کند که نشان می‌دهند ضعف‌های امنیتی در ایجنت‌های هوش مصنوعی چگونه می‌توانند به اجرای کد از راه دور (RCE) منجر شوند.
از جمله این نمونه‌ها می‌توان به آسیب‌پذیری langflow کشف‌شده توسط Horizon3، یک آسیب‌پذیری در Cursor که امکان RCE از طریق اجرای خودکار را فراهم می‌کرد، پاک شدن پایگاه داده در Replit و موارد دیگر اشاره کرد. او همچنین تاکید می‌کند که سندباکس‌سازی احتمالا بهترین رویکرد برای کاهش ریسک‌های ناشی از مهندسی پرامپت مخرب است:

«بیشتر تلاش‌هایی که برای مقابله با این حملات انجام می‌شود، روی گاردریل‌ها، کلاسیفایرها و اسکنرها متمرکز است. فرض بر این است که این کار بیشتر مشکلات را حل می‌کند؛ اما سوال اینجاست: بهتر است زمان صرف بررسی تک‌تک ورودی‌های کاربر برای تشخیص مخرب بودن شود یا اینکه بتوان هر چیزی را در یک محیط امن اجرا کرد که هیچ تاثیری روی کاربر نهایی نداشته باشد؟»

توسعه‌دهنده‌هایی که به سندباکس‌سازی ایجنت‌های هوش مصنوعی علاقه‌مند هستند، می‌توانند علاوه بر Agent Sandbox، گزینه‌های جایگزین دیگری مثل container-use و litsandbox از Lightning AI را هم بررسی کنند.

منبع: infoq.com

فرصت‌های شغلی

ایجاد محیطی با ارزش های انسانی، توسعه محصولات مالی کارامد برای میلیون ها کاربر و استفاده از فناوری های به روز از مواردی هستند که در آسا به آن ها می بالیم. اگر هم مسیرمان هستید، رزومه تان را برایمان ارسال کنید.

دیدگاه‌ها

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *