محققان بیش از 100 مدل یادگیری ماشینی مخرب (ML) را در پلتفرم هوش مصنوعی Hugging Face کشف کردهاند که میتواند مهاجمان را قادر به تزریق کد مخرب به ماشینهای کاربر کند.
اگرچه Hugging Face تدابیر امنیتی را اجرا میکند، اما یافتهها خطر رو به رشد «سلاحسازی» مدلهای در دسترس عموم را نشان میدهد، زیرا آنها میتوانند یک درب پشتی برای مهاجمان ایجاد کنند.
یافتههای تحقیقات امنیتی JFrog بخشی از یک مطالعه در حال انجام برای تجزیه و تحلیل چگونگی استفاده هکرها از ML برای حمله به کاربران است.
محتوای مضر
با توجه به مقاله توسط محاسبهمحققان یک سیستم اسکن پیشرفته را برای بررسی دقیق مدلهای میزبانی شده در پلتفرم هوش مصنوعی Hugging Face، مانند PyTorch و Tensorflow Keras، توسعه دادند.
Hugging Face پلتفرمی است که برای به اشتراک گذاری مدل های هوش مصنوعی، مجموعه داده ها و برنامه های کاربردی توسعه یافته است. پس از تجزیه و تحلیل مدلها، محققان محمولههای مضر را «در مدلهای به ظاهر بیضرر» کشف کردند.
این در حالی است که Hugging Face اقدامات امنیتی مانند بدافزار و اسکن ترشی را انجام می دهد. با این حال، این پلتفرم دانلود مدلهایی را که میتوانند به طور بالقوه مضر باشند محدود نمیکند و همچنین در دسترس عموم را فعال میکند مدل های هوش مصنوعی مورد سوء استفاده و استفاده از سلاح کاربران قرار گیرد.
با بررسی پلتفرم و مدلهای موجود، محققان امنیتی JFrog حدود 100 مدل هوش مصنوعی با عملکرد مخرب را کشف کردند. گزارش.
این گزارش نشان میدهد که برخی از این مدلها قادر به اجرای کد بر روی ماشینهای کاربران هستند، «در نتیجه یک درب پشتی دائمی برای مهاجمان ایجاد میکنند».
محققان همچنین نشان دادند که چنین یافتههایی از موارد مثبت کاذب حذف میشوند. آنها گفتند که اینها نمایش دقیقی از شیوع مدل های مخرب در پلتفرم است.
همچنین بخوانید: اپل تیم خودرو را به کاهش سرعت بازار AI Post-EV هدایت می کند
نمونه ها
طبق گزارش JFrog، یکی از موارد "هشدار" شامل یک PyTorch مدل. ظاهراً این مدل توسط کاربری با نام "baller423" آپلود شد که متعاقباً از پلتفرم Hugging Face حذف شد.
در بررسی دقیق بیشتر مدل، محققان متوجه شدند که حاوی یک بار مخرب است که آن را قادر میسازد یک پوسته معکوس بر روی یک میزبان مشخص (210.117.212.93) ایجاد کند.
دیوید کوهن، محقق ارشد امنیتی JFrog، گفت: «(این) به طور قابل توجهی مزاحم تر است و بالقوه مخرباو نوشت، زیرا ارتباط مستقیمی با یک سرور خارجی برقرار میکند، که نشاندهنده یک تهدید امنیتی بالقوه است نه نشان دادن آسیبپذیری صرف.
این روش از «روش _reduce_ ماژول ترشی پایتون برای اجرای کد دلخواه پس از بارگیری فایل مدل استفاده می کند و به طور موثر روش های تشخیص مرسوم را دور می زند».
محققان همچنین دریافتند که بار یکسانی به آدرسهای IP مختلف ارتباط برقرار میکند، "به اپراتورها پیشنهاد میدهد که ممکن است محقق باشند تا هکرهای مخرب."
یک تماس بیدارباش
تیم JFrog خاطرنشان کرد که این یافتهها زنگ خطری برای Hugging Face است و نشان میدهد که پلتفرم آن مستعد دستکاری و تهدیدات بالقوه است.
گفت: «این حوادث بهعنوان یادآور تهدیدهای مداومی است که مخازن Hugging Face و دیگر مخازن محبوب مانند Kaggle با آن مواجه هستند، که میتواند به طور بالقوه حریم خصوصی و امنیت سازمانهایی را که از این منابع استفاده میکنند، به خطر بیاندازد، علاوه بر آن چالشهایی را برای مهندسان AI/ML ایجاد میکند». محققان
این می آید امنیت سایبری تهدید می کند در سرتاسر جهان در حال افزایش هستند که به دلیل گسترش ابزارهای هوش مصنوعی، با بازیگران بد سوء استفاده از آنها برای اهداف مخرب، تقویت شده است. هکرها همچنین از هوش مصنوعی برای پیشبرد حملات فیشینگ و فریب مردم استفاده می کنند.
با این حال، تیم JFrog اکتشافات دیگری نیز انجام داد.
زمین بازی برای محققان
محققان همچنین خاطرنشان کردند که در آغوش کشیدن صورت به یک زمین بازی برای محققانی تبدیل شده است که "می خواهند با تهدیدهای نوظهور مبارزه کنند، همانطور که با مجموعه تاکتیک های متنوع برای دور زدن اقدامات امنیتی آن نشان داده شده است."
به عنوان مثال، بارگذاری بارگذاری شده توسط "baller423" یک اتصال پوسته معکوس به یک محدوده آدرس IP که متعلق به Kreonet (شبکه باز محیط تحقیقاتی کره) است، آغاز کرد.
مطابق با تاریک خوانی، Kreonet یک شبکه پرسرعت در کره جنوبی است که از فعالیت های تحقیقاتی و آموزشی پیشرفته پشتیبانی می کند. بنابراین، ممکن است محققان یا متخصصان هوش مصنوعی پشت این مدل بوده باشند.
کوهن میگوید: «ما میتوانیم ببینیم که بیشتر بارهای مخرب در واقع تلاشهای محققان و/یا پاداش باگها برای دریافت اجرای کد برای اهداف به ظاهر قانونی هستند.»
با وجود این اهداف قانونی، تیم JFrog هشدار داد که استراتژی های به کار گرفته شده توسط محققان به وضوح نشان می دهد که پلتفرم هایی مانند Hugging Face برای حملات زنجیره تامین باز هستند. به گفته این تیم، اینها را می توان برای تمرکز بر جمعیت شناسی خاص، مانند مهندسان هوش مصنوعی یا ML سفارشی کرد.
- محتوای مبتنی بر SEO و توزیع روابط عمومی. امروز تقویت شوید.
- PlatoData.Network Vertical Generative Ai. به خودت قدرت بده دسترسی به اینجا.
- PlatoAiStream. هوش وب 3 دانش تقویت شده دسترسی به اینجا.
- PlatoESG. کربن ، CleanTech، انرژی، محیط، خورشیدی، مدیریت پسماند دسترسی به اینجا.
- PlatoHealth. هوش بیوتکنولوژی و آزمایشات بالینی. دسترسی به اینجا.
- منبع: https://metanews.com/over-100-malicious-code-execution-models-on-hugging-face-backdoors-users-devices/