هوش داده افلاطون
جستجوی عمودی و هوش مصنوعی

بیش از 100 مدل اجرای کد مخرب در صورت در آغوش گرفتن

تاریخ:

محققان بیش از 100 مدل یادگیری ماشینی مخرب (ML) را در پلتفرم هوش مصنوعی Hugging Face کشف کرده‌اند که می‌تواند مهاجمان را قادر به تزریق کد مخرب به ماشین‌های کاربر کند.

اگرچه Hugging Face تدابیر امنیتی را اجرا می‌کند، اما یافته‌ها خطر رو به رشد «سلاح‌سازی» مدل‌های در دسترس عموم را نشان می‌دهد، زیرا آنها می‌توانند یک درب پشتی برای مهاجمان ایجاد کنند.

یافته‌های تحقیقات امنیتی JFrog بخشی از یک مطالعه در حال انجام برای تجزیه و تحلیل چگونگی استفاده هکرها از ML برای حمله به کاربران است.

محتوای مضر

با توجه به مقاله توسط محاسبهمحققان یک سیستم اسکن پیشرفته را برای بررسی دقیق مدل‌های میزبانی شده در پلتفرم هوش مصنوعی Hugging Face، مانند PyTorch و Tensorflow Keras، توسعه دادند.

Hugging Face پلتفرمی است که برای به اشتراک گذاری مدل های هوش مصنوعی، مجموعه داده ها و برنامه های کاربردی توسعه یافته است. پس از تجزیه و تحلیل مدل‌ها، محققان محموله‌های مضر را «در مدل‌های به ظاهر بی‌ضرر» کشف کردند.

این در حالی است که Hugging Face اقدامات امنیتی مانند بدافزار و اسکن ترشی را انجام می دهد. با این حال، این پلتفرم دانلود مدل‌هایی را که می‌توانند به طور بالقوه مضر باشند محدود نمی‌کند و همچنین در دسترس عموم را فعال می‌کند مدل های هوش مصنوعی مورد سوء استفاده و استفاده از سلاح کاربران قرار گیرد.

با بررسی پلتفرم و مدل‌های موجود، محققان امنیتی JFrog حدود 100 مدل هوش مصنوعی با عملکرد مخرب را کشف کردند. گزارش.

این گزارش نشان می‌دهد که برخی از این مدل‌ها قادر به اجرای کد بر روی ماشین‌های کاربران هستند، «در نتیجه یک درب پشتی دائمی برای مهاجمان ایجاد می‌کنند».

محققان همچنین نشان دادند که چنین یافته‌هایی از موارد مثبت کاذب حذف می‌شوند. آنها گفتند که اینها نمایش دقیقی از شیوع مدل های مخرب در پلتفرم است.

همچنین بخوانید: اپل تیم خودرو را به کاهش سرعت بازار AI Post-EV هدایت می کند

نمونه ها

طبق گزارش JFrog، یکی از موارد "هشدار" شامل یک PyTorch مدل. ظاهراً این مدل توسط کاربری با نام "baller423" آپلود شد که متعاقباً از پلتفرم Hugging Face حذف شد.

در بررسی دقیق بیشتر مدل، محققان متوجه شدند که حاوی یک بار مخرب است که آن را قادر می‌سازد یک پوسته معکوس بر روی یک میزبان مشخص (210.117.212.93) ایجاد کند.

دیوید کوهن، محقق ارشد امنیتی JFrog، گفت: «(این) به طور قابل توجهی مزاحم تر است و بالقوه مخرباو نوشت، زیرا ارتباط مستقیمی با یک سرور خارجی برقرار می‌کند، که نشان‌دهنده یک تهدید امنیتی بالقوه است نه نشان دادن آسیب‌پذیری صرف.

این روش از «روش _reduce_ ماژول ترشی پایتون برای اجرای کد دلخواه پس از بارگیری فایل مدل استفاده می کند و به طور موثر روش های تشخیص مرسوم را دور می زند».

محققان همچنین دریافتند که بار یکسانی به آدرس‌های IP مختلف ارتباط برقرار می‌کند، "به اپراتورها پیشنهاد می‌دهد که ممکن است محقق باشند تا هکرهای مخرب."

یک تماس بیدارباش

تیم JFrog خاطرنشان کرد که این یافته‌ها زنگ خطری برای Hugging Face است و نشان می‌دهد که پلتفرم آن مستعد دستکاری و تهدیدات بالقوه است.

گفت: «این حوادث به‌عنوان یادآور تهدیدهای مداومی است که مخازن Hugging Face و دیگر مخازن محبوب مانند Kaggle با آن مواجه هستند، که می‌تواند به طور بالقوه حریم خصوصی و امنیت سازمان‌هایی را که از این منابع استفاده می‌کنند، به خطر بیاندازد، علاوه بر آن چالش‌هایی را برای مهندسان AI/ML ایجاد می‌کند». محققان

این می آید امنیت سایبری تهدید می کند در سرتاسر جهان در حال افزایش هستند که به دلیل گسترش ابزارهای هوش مصنوعی، با بازیگران بد سوء استفاده از آنها برای اهداف مخرب، تقویت شده است. هکرها همچنین از هوش مصنوعی برای پیشبرد حملات فیشینگ و فریب مردم استفاده می کنند.

با این حال، تیم JFrog اکتشافات دیگری نیز انجام داد.

زمین بازی برای محققان

محققان همچنین خاطرنشان کردند که در آغوش کشیدن صورت به یک زمین بازی برای محققانی تبدیل شده است که "می خواهند با تهدیدهای نوظهور مبارزه کنند، همانطور که با مجموعه تاکتیک های متنوع برای دور زدن اقدامات امنیتی آن نشان داده شده است."

به عنوان مثال، بارگذاری بارگذاری شده توسط "baller423" یک اتصال پوسته معکوس به یک محدوده آدرس IP که متعلق به Kreonet (شبکه باز محیط تحقیقاتی کره) است، آغاز کرد.

مطابق با تاریک خوانی، Kreonet یک شبکه پرسرعت در کره جنوبی است که از فعالیت های تحقیقاتی و آموزشی پیشرفته پشتیبانی می کند. بنابراین، ممکن است محققان یا متخصصان هوش مصنوعی پشت این مدل بوده باشند.

کوهن می‌گوید: «ما می‌توانیم ببینیم که بیشتر بارهای مخرب در واقع تلاش‌های محققان و/یا پاداش باگ‌ها برای دریافت اجرای کد برای اهداف به ظاهر قانونی هستند.»

با وجود این اهداف قانونی، تیم JFrog هشدار داد که استراتژی های به کار گرفته شده توسط محققان به وضوح نشان می دهد که پلتفرم هایی مانند Hugging Face برای حملات زنجیره تامین باز هستند. به گفته این تیم، اینها را می توان برای تمرکز بر جمعیت شناسی خاص، مانند مهندسان هوش مصنوعی یا ML سفارشی کرد.

نقطه_img

جدیدترین اطلاعات

نقطه_img

چت با ما

سلام! چگونه می توانم به شما کمک کنم؟