عوامل هوش مصنوعی مجهز به GPT-4 میتوانند از اکثر آسیبپذیریهای عمومی که بر سیستمهای دنیای واقعی تأثیر میگذارند، به سادگی با مطالعه آنلاین درباره آنها سوء استفاده کنند.
یافته های جدید از دانشگاه ایلینویز Urbana-Champaign (UIUC) تهدید می کند که تهدیدهای سایبری با هوش مصنوعی (AI) تا حدودی آهسته 18 ماهه را زنده می کند. بازیگران تهدید تاکنون استفاده کرده اند مدل های زبان بزرگ (LLM) برای تولید ایمیل های فیشینگ، همراه با برخی بدافزارهای اساسی، و به کمک به جنبه های جانبی تر کمپین های خود. با این حال، اکنون تنها با GPT-4 و یک چارچوب متن باز برای بسته بندی آن، آنها می توانند به محض ورود به مطبوعات، بهره برداری از آسیب پذیری ها را خودکار کنند.
دانیل کانگ، یکی از محققان اذعان میکند: «مطمئن نیستم که آیا مطالعات موردی ما به اطلاعرسانی چگونگی توقف تهدیدها کمک میکند یا خیر. من فکر میکنم که تهدیدات سایبری فقط افزایش مییابد، بنابراین سازمانها باید بهشدت اعمال بهترین شیوههای امنیتی را در نظر بگیرند.»
GPT-4 در مقابل CVE
برای سنجش اینکه آیا LLM ها می توانند از سیستم های دنیای واقعی بهره برداری کنند، تیمی متشکل از چهار محقق UIUC ابتدا به یک موضوع آزمایشی نیاز داشتند.
عامل LLM آنها از چهار جزء تشکیل شده بود: یک اعلان، یک LLM پایه، یک چارچوب - در این مورد ReAct، همانطور که در LangChain پیاده سازی شده است - و ابزارهایی مانند ترمینال و مفسر کد.
این عامل بر روی 15 آسیب پذیری شناخته شده در نرم افزار منبع باز (OSS) آزمایش شد. از جمله: اشکالاتی که بر وب سایت ها، کانتینرها و بسته های پایتون تأثیر می گذارند. به هشت نفر نمره شدت CVE "بالا" یا "بحرانی" داده شد. 11 مورد از تاریخ آموزش GPT-4 فاش شد، به این معنی که این اولین باری است که مدل در معرض آنها قرار می گیرد.
در حالی که فقط توصیه های امنیتی آنها ادامه داشت، عامل هوش مصنوعی به نوبه خود وظیفه بهره برداری از هر باگ را داشت. نتایج این آزمایش تصویر واضحی را ترسیم کرد.
از 10 مدل ارزیابی شده - از جمله GPT-3.5، Meta's Llama 2 Chat و موارد دیگر - XNUMX مدل نتوانستند حتی یک آسیب پذیری را هک کنند.
با این حال، GPT-4 با موفقیت از 13 یا 87 درصد از کل بهره برداری کرد.
فقط دو بار به دلایل کاملاً پیش پا افتاده شکست خورد. CVE-2024-25640، یک مشکل با ردهبندی 4.6 CVSS در پلتفرم پاسخگویی به حادثه Iris، بهدلیل یک پیچیدگی در روند پیمایش برنامه Iris، که مدل قادر به انجام آن نبود، سالم ماند. در همین حال، محققان حدس زدند که GPT-4 با CVE-2023-51653 - یک باگ "بحرانی" 9.8 در ابزار نظارت بر هرتزبیت به دلیل اینکه توضیحات آن به زبان چینی نوشته شده است، از دست رفته است.
همانطور که کانگ توضیح میدهد، «GPT-4 در بسیاری از وظایف از طیف وسیعی از مدلهای دیگر بهتر عمل میکند. این شامل معیارهای استاندارد (MMLU و غیره) می شود. همچنین به نظر می رسد که GPT-4 در برنامه ریزی بسیار بهتر است. متأسفانه، از آنجایی که OpenAI جزئیات آموزش را منتشر نکرده است، ما مطمئن نیستیم که چرا.
GPT-4 خوب است
کانگ میگوید هر چقدر هم که LLMهای مخرب ممکن است تهدیدکننده باشند، «در حال حاضر، این قابلیتهای جدیدی را باز نمیکند که یک انسان متخصص نمیتواند انجام دهد. به این ترتیب، من فکر می کنم برای سازمان ها مهم است که بهترین شیوه های امنیتی را برای جلوگیری از هک شدن به کار گیرند، زیرا این عوامل هوش مصنوعی شروع به استفاده از راه های مخرب تری می کنند.
اگر هکرها شروع به استفاده از عوامل LLM برای سوء استفاده خودکار از آسیبپذیریهای عمومی کنند، شرکتها دیگر نمیتوانند عقب بنشینند و منتظر باشند تا باگهای جدید را برطرف کنند. و ممکن است مجبور شوند از همان فناوری های LLM و همچنین دشمنانشان استفاده کنند.
Henrik Plate، محقق امنیتی Endor Labs، هشدار میدهد که حتی GPT-4 هنوز راههایی برای رسیدن به یک دستیار امنیتی کامل دارد. در آزمایشهای اخیر، Plate ChatGPT و Vertex AI گوگل را موظف کرد شناسایی نمونه های OSS به عنوان مخرب یا خوش خیمو به آنها امتیاز ریسک اختصاص می دهد. GPT-4 وقتی نوبت به توضیح کد منبع و ارائه ارزیابی برای کدهای خوانا میرسید، از همه مدلهای دیگر بهتر بود، اما همه مدلها تعدادی مثبت کاذب و منفی کاذب داشتند.
به عنوان مثال، مبهم سازی یک نقطه گیر بزرگ بود. «به نظر LLM اغلب به نظر می رسید که [کد] عمدا مبهم شده است تا یک بازبینی دستی سخت انجام شود. اما اغلب برای مقاصد قانونی، اندازه آن کاهش مییابد.»
پلیت در یکی از گزارشهای خود نوشت: «اگرچه ارزیابی مبتنی بر LLM نباید به جای بررسیهای دستی استفاده شود، اما مطمئناً میتوان از آنها به عنوان سیگنال و ورودی اضافی برای بررسیهای دستی استفاده کرد. به ویژه، آنها می توانند برای بررسی خودکار تعداد بیشتری از سیگنال های بدافزار تولید شده توسط آشکارسازهای پر سر و صدا مفید باشند (که در غیر این صورت در صورت محدود بودن قابلیت های بازبینی به طور کامل نادیده گرفته می شوند).
- محتوای مبتنی بر SEO و توزیع روابط عمومی. امروز تقویت شوید.
- PlatoData.Network Vertical Generative Ai. به خودت قدرت بده دسترسی به اینجا.
- PlatoAiStream. هوش وب 3 دانش تقویت شده دسترسی به اینجا.
- PlatoESG. کربن ، CleanTech، انرژی، محیط، خورشیدی، مدیریت پسماند دسترسی به اینجا.
- PlatoHealth. هوش بیوتکنولوژی و آزمایشات بالینی. دسترسی به اینجا.
- منبع: https://www.darkreading.com/threat-intelligence/gpt-4-can-exploit-most-vulns-just-by-reading-threat-advisories