هوش داده افلاطون
جستجوی عمودی و هوش مصنوعی

GPT-4 فقط با خواندن توصیه های تهدید می تواند از اکثر Vulns سوء استفاده کند

تاریخ:

عوامل هوش مصنوعی مجهز به GPT-4 می‌توانند از اکثر آسیب‌پذیری‌های عمومی که بر سیستم‌های دنیای واقعی تأثیر می‌گذارند، به سادگی با مطالعه آنلاین درباره آنها سوء استفاده کنند.

یافته های جدید از دانشگاه ایلینویز Urbana-Champaign (UIUC) تهدید می کند که تهدیدهای سایبری با هوش مصنوعی (AI) تا حدودی آهسته 18 ماهه را زنده می کند. بازیگران تهدید تاکنون استفاده کرده اند مدل های زبان بزرگ (LLM) برای تولید ایمیل های فیشینگ، همراه با برخی بدافزارهای اساسی، و به کمک به جنبه های جانبی تر کمپین های خود. با این حال، اکنون تنها با GPT-4 و یک چارچوب متن باز برای بسته بندی آن، آنها می توانند به محض ورود به مطبوعات، بهره برداری از آسیب پذیری ها را خودکار کنند.

دانیل کانگ، یکی از محققان اذعان می‌کند: «مطمئن نیستم که آیا مطالعات موردی ما به اطلاع‌رسانی چگونگی توقف تهدیدها کمک می‌کند یا خیر. من فکر می‌کنم که تهدیدات سایبری فقط افزایش می‌یابد، بنابراین سازمان‌ها باید به‌شدت اعمال بهترین شیوه‌های امنیتی را در نظر بگیرند.»

GPT-4 در مقابل CVE

برای سنجش اینکه آیا LLM ها می توانند از سیستم های دنیای واقعی بهره برداری کنند، تیمی متشکل از چهار محقق UIUC ابتدا به یک موضوع آزمایشی نیاز داشتند.

عامل LLM آنها از چهار جزء تشکیل شده بود: یک اعلان، یک LLM پایه، یک چارچوب - در این مورد ReAct، همانطور که در LangChain پیاده سازی شده است - و ابزارهایی مانند ترمینال و مفسر کد.

این عامل بر روی 15 آسیب پذیری شناخته شده در نرم افزار منبع باز (OSS) آزمایش شد. از جمله: اشکالاتی که بر وب سایت ها، کانتینرها و بسته های پایتون تأثیر می گذارند. به هشت نفر نمره شدت CVE "بالا" یا "بحرانی" داده شد. 11 مورد از تاریخ آموزش GPT-4 فاش شد، به این معنی که این اولین باری است که مدل در معرض آنها قرار می گیرد.

در حالی که فقط توصیه های امنیتی آنها ادامه داشت، عامل هوش مصنوعی به نوبه خود وظیفه بهره برداری از هر باگ را داشت. نتایج این آزمایش تصویر واضحی را ترسیم کرد.

از 10 مدل ارزیابی شده - از جمله GPT-3.5، Meta's Llama 2 Chat و موارد دیگر - XNUMX مدل نتوانستند حتی یک آسیب پذیری را هک کنند.

با این حال، GPT-4 با موفقیت از 13 یا 87 درصد از کل بهره برداری کرد.

فقط دو بار به دلایل کاملاً پیش پا افتاده شکست خورد. CVE-2024-25640، یک مشکل با رده‌بندی 4.6 CVSS در پلت‌فرم پاسخگویی به حادثه Iris، به‌دلیل یک پیچیدگی در روند پیمایش برنامه Iris، که مدل قادر به انجام آن نبود، سالم ماند. در همین حال، محققان حدس زدند که GPT-4 با CVE-2023-51653 - یک باگ "بحرانی" 9.8 در ابزار نظارت بر هرتزبیت به دلیل اینکه توضیحات آن به زبان چینی نوشته شده است، از دست رفته است.

همانطور که کانگ توضیح می‌دهد، «GPT-4 در بسیاری از وظایف از طیف وسیعی از مدل‌های دیگر بهتر عمل می‌کند. این شامل معیارهای استاندارد (MMLU و غیره) می شود. همچنین به نظر می رسد که GPT-4 در برنامه ریزی بسیار بهتر است. متأسفانه، از آنجایی که OpenAI جزئیات آموزش را منتشر نکرده است، ما مطمئن نیستیم که چرا.

GPT-4 خوب است

کانگ می‌گوید هر چقدر هم که LLM‌های مخرب ممکن است تهدیدکننده باشند، «در حال حاضر، این قابلیت‌های جدیدی را باز نمی‌کند که یک انسان متخصص نمی‌تواند انجام دهد. به این ترتیب، من فکر می کنم برای سازمان ها مهم است که بهترین شیوه های امنیتی را برای جلوگیری از هک شدن به کار گیرند، زیرا این عوامل هوش مصنوعی شروع به استفاده از راه های مخرب تری می کنند.

اگر هکرها شروع به استفاده از عوامل LLM برای سوء استفاده خودکار از آسیب‌پذیری‌های عمومی کنند، شرکت‌ها دیگر نمی‌توانند عقب بنشینند و منتظر باشند تا باگ‌های جدید را برطرف کنند. و ممکن است مجبور شوند از همان فناوری های LLM و همچنین دشمنانشان استفاده کنند.

Henrik Plate، محقق امنیتی Endor Labs، هشدار می‌دهد که حتی GPT-4 هنوز راه‌هایی برای رسیدن به یک دستیار امنیتی کامل دارد. در آزمایش‌های اخیر، Plate ChatGPT و Vertex AI گوگل را موظف کرد شناسایی نمونه های OSS به عنوان مخرب یا خوش خیمو به آنها امتیاز ریسک اختصاص می دهد. GPT-4 وقتی نوبت به توضیح کد منبع و ارائه ارزیابی برای کدهای خوانا می‌رسید، از همه مدل‌های دیگر بهتر بود، اما همه مدل‌ها تعدادی مثبت کاذب و منفی کاذب داشتند.

به عنوان مثال، مبهم سازی یک نقطه گیر بزرگ بود. «به نظر LLM اغلب به نظر می رسید که [کد] عمدا مبهم شده است تا یک بازبینی دستی سخت انجام شود. اما اغلب برای مقاصد قانونی، اندازه آن کاهش می‌یابد.»

پلیت در یکی از گزارش‌های خود نوشت: «اگرچه ارزیابی مبتنی بر LLM نباید به جای بررسی‌های دستی استفاده شود، اما مطمئناً می‌توان از آنها به عنوان سیگنال و ورودی اضافی برای بررسی‌های دستی استفاده کرد. به ویژه، آنها می توانند برای بررسی خودکار تعداد بیشتری از سیگنال های بدافزار تولید شده توسط آشکارسازهای پر سر و صدا مفید باشند (که در غیر این صورت در صورت محدود بودن قابلیت های بازبینی به طور کامل نادیده گرفته می شوند).

نقطه_img

جدیدترین اطلاعات

نقطه_img

چت با ما

سلام! چگونه می توانم به شما کمک کنم؟