سوال: ما واقعاً در مورد امنیت مدل زبان بزرگ (LLM) چه می دانیم؟ و آیا ما با کمال میل با استفاده از LLM در تجارت، درب ورودی را به روی هرج و مرج باز می کنیم؟
راب گورزیف، مدیرعامل CyCognito: تصور کنید: تیم مهندسی شما در حال بهره برداری از قابلیت های بسیار زیاد LLM برای "نوشتن کد" و توسعه سریع یک برنامه کاربردی است. این یک تغییر دهنده بازی برای مشاغل شما است. سرعت توسعه اکنون مرتبهای سریعتر است. شما 30 درصد تخفیف در زمان عرضه به بازار داشته اید. این برد-برد است - برای سازمان شما، سهامداران، کاربران نهایی شما.
شش ماه بعد، برنامه شما گزارش میشود که اطلاعات مشتری را فاش میکند. جیلبریک شده و کد آن دستکاری شده است. الان هستی با نقض SEC مواجه است و تهدید خروج مشتریان
دستاوردهای بهره وری فریبنده است، اما خطرات را نمی توان نادیده گرفت. در حالی که ما استانداردهای تثبیت شده ای برای امنیت در توسعه نرم افزارهای سنتی داریم، LLM ها جعبه های سیاهی هستند که نیازمند بازنگری در نحوه پخت در امنیت هستند.
انواع جدیدی از خطرات امنیتی برای LLM
LLM ها مملو از خطرات ناشناخته و مستعد حملاتی هستند که قبلاً در توسعه نرم افزار سنتی دیده نشده بود.
-
حملات تزریقی سریع شامل دستکاری مدل برای ایجاد پاسخ های ناخواسته یا مضر است. در اینجا، مهاجم استراتژیک دستوراتی را برای فریب دادن LLM فرموله می کند، به طور بالقوه دور زدن اقدامات امنیتی یا محدودیت های اخلاقی اعمال شده برای اطمینان از استفاده مسئولانه از هوش مصنوعی (AI). در نتیجه، پاسخ های LLM می تواند به طور قابل توجهی از رفتار مورد نظر یا مورد انتظار منحرف شود و خطرات جدی برای حریم خصوصی، امنیت و قابلیت اطمینان برنامه های مبتنی بر هوش مصنوعی ایجاد کند.
-
مدیریت ناامن خروجی زمانی ایجاد می شود که خروجی تولید شده توسط یک سیستم هوش مصنوعی LLM یا مشابه آن پذیرفته شده و در یک برنامه نرم افزاری یا سرویس وب گنجانده شود، بدون اینکه تحت بررسی یا اعتبارسنجی کافی قرار گیرد. این می تواند افشا کند سیستم های پشتیبان نسبت به آسیب پذیری هامانند برنامه نویسی بین سایتی (XSS)، جعل درخواست بین سایتی (CSRF)، جعل درخواست سمت سرور (SSRF)، افزایش امتیاز، و اجرای کد از راه دور (RCE).
-
مسمومیت داده های آموزشی زمانی اتفاق میافتد که دادههای مورد استفاده برای آموزش یک LLM به عمد دستکاری یا آلوده به اطلاعات مخرب یا مغرضانه شوند. فرآیند مسمومیت داده های آموزشی معمولاً شامل تزریق نقاط داده فریبنده، گمراه کننده یا مضر به مجموعه داده آموزشی است. این نمونههای داده دستکاری شده بهطور استراتژیک برای بهرهبرداری از آسیبپذیریها در الگوریتمهای یادگیری مدل یا القای سوگیریهایی که ممکن است منجر به نتایج نامطلوب در پیشبینیها و پاسخهای مدل شود، انتخاب میشوند.
طرحی برای حفاظت و کنترل برنامه های کاربردی LLM
در حالی که برخی از این است قلمرو جدید، بهترین شیوه هایی وجود دارد که می توانید برای محدود کردن قرار گرفتن در معرض آن اعمال کنید.
-
پاکسازی ورودی به عنوان پیشنهاد نام، شامل پاکسازی ورودی ها برای جلوگیری از اقدامات غیرمجاز و درخواست های داده که توسط درخواست های مخرب آغاز می شوند. اولین مرحله اعتبار سنجی ورودی است تا اطمینان حاصل شود که ورودی به فرمت ها و انواع داده های مورد انتظار پایبند است. مورد بعدی پاکسازی ورودی است که در آن کاراکترها یا کدهای بالقوه مضر حذف یا کدگذاری می شوند تا حملات را خنثی کنند. سایر تاکتیک ها شامل لیست سفید محتوای تایید شده، لیست سیاه محتوای ممنوعه، پرس و جوهای پارامتری شده برای تعاملات پایگاه داده، سیاست های امنیتی محتوا، عبارات منظم، ورود به سیستم، و نظارت مستمر، و همچنین به روز رسانی و آزمایش امنیتی است.
-
بررسی خروجی is مدیریت دقیق و ارزیابی خروجی تولید شده توسط LLM برای کاهش آسیبپذیریها، مانند XSS، CSRF و RCE. این فرآیند با اعتبارسنجی و فیلتر کردن پاسخهای LLM قبل از پذیرش آنها برای ارائه یا پردازش بیشتر آغاز میشود. این شامل تکنیک هایی مانند اعتبار سنجی محتوا، رمزگذاری خروجی، و خروج خروجی است که هدف همه آنها شناسایی و خنثی کردن خطرات امنیتی بالقوه در محتوای تولید شده است.
-
حفاظت از داده های آموزشی برای جلوگیری از مسمومیت داده های آموزشی ضروری است. این شامل اعمال کنترلهای دسترسی دقیق، استفاده از رمزگذاری برای حفاظت از دادهها، حفظ پشتیبانگیری از دادهها و کنترل نسخه، اجرای اعتبارسنجی دادهها و ناشناسسازی، ایجاد گزارش و نظارت جامع، انجام ممیزیهای منظم، و ارائه آموزش کارکنان در مورد امنیت دادهها است. همچنین بررسی قابلیت اطمینان منابع داده و اطمینان از شیوه های ذخیره سازی و انتقال ایمن بسیار مهم است.
-
اجرای سیاست های جعبه ایمنی و کنترل های دسترسی همچنین می تواند به کاهش خطر سوء استفاده های SSRF در عملیات LLM کمک کند. تکنیکهایی که میتوانند در اینجا اعمال شوند عبارتند از: ایزولهسازی جعبه ایمنی، کنترلهای دسترسی، فهرستبندی سفید و/یا فهرست سیاه، اعتبارسنجی درخواست، تقسیمبندی شبکه، اعتبارسنجی نوع محتوا، و بازرسی محتوا. به روز رسانی منظم، ثبت جامع و آموزش کارکنان نیز کلیدی است.
-
نظارت مستمر و فیلتر محتوا را می توان در خط لوله پردازش LLM برای شناسایی و جلوگیری از محتوای مضر یا نامناسب، با استفاده از فیلتر مبتنی بر کلمه کلیدی، تجزیه و تحلیل زمینه، مدل های یادگیری ماشینی، و فیلترهای قابل تنظیم، ادغام کرد. دستورالعملهای اخلاقی و اعتدال انسانی نقشهای کلیدی در حفظ تولید محتوای مسئولانه دارند، در حالی که نظارت مستمر در زمان واقعی، حلقههای بازخورد کاربر و شفافیت تضمین میکند که هرگونه انحراف از رفتار مطلوب بهسرعت رسیدگی میشود.
- محتوای مبتنی بر SEO و توزیع روابط عمومی. امروز تقویت شوید.
- PlatoData.Network Vertical Generative Ai. به خودت قدرت بده دسترسی به اینجا.
- PlatoAiStream. هوش وب 3 دانش تقویت شده دسترسی به اینجا.
- PlatoESG. کربن ، CleanTech، انرژی، محیط، خورشیدی، مدیریت پسماند دسترسی به اینجا.
- PlatoHealth. هوش بیوتکنولوژی و آزمایشات بالینی. دسترسی به اینجا.
- منبع: https://www.darkreading.com/application-security/how-do-we-integrate-llm-security-into-application-development-