نظر
به عنوان کارشناسان امنیت سایبری یک سال پیش پیش بینی شده بودهوش مصنوعی (AI) یکی از بازیگران اصلی در چشم انداز جرایم سایبری در سال 2023 بوده است و باعث افزایش حملات شده و در عین حال به بهبود دفاع در برابر حملات آینده کمک می کند. در حال حاضر، با رفتن به سال 2024، کارشناسان در سراسر صنعت انتظار دارند که هوش مصنوعی نفوذ بیشتری در امنیت سایبری داشته باشد.
La پیشبینی امنیت سایبری Google Cloud 2024 هوش مصنوعی مولد و مدلهای زبان بزرگ را میبیند که در افزایش اشکال مختلف حملات سایبری نقش دارند. بیش از 90 درصد از مدیران اجرایی کانادایی در نظرسنجی KPMG فکر کنید هوش مصنوعی مولد آنها را در برابر نقض آسیب پذیرتر می کند. و یک گزارش دولت بریتانیا می گوید که هوش مصنوعی یک تهدیدی برای انتخابات آینده کشور.
در حالی که تهدیدات مرتبط با هوش مصنوعی هنوز در مراحل اولیه خود هستند، حجم و پیچیدگی حملات مبتنی بر هوش مصنوعی هر روز در حال افزایش است. سازمان ها باید خود را برای آنچه در پیش است آماده کنند.
4 روشی که مجرمان سایبری از هوش مصنوعی استفاده می کنند
چهار راه اصلی وجود دارد که دشمنان از ابزارهای رایج هوش مصنوعی مانند ChatGPT، Dall-E و Midjourney استفاده می کنند: حملات فیشینگ خودکار، حملات جعل هویت، حملات مهندسی اجتماعی، و چت ربات های جعلی پشتیبانی مشتری.
حملات Spear-phishing از هوش مصنوعی تقویت شده است. در گذشته، شناسایی تلاشهای فیشینگ تنها به این دلیل سادهتر بود که بسیاری از آنها با اشتباهات گرامری و املایی ضعیف مواجه بودند. خوانندگان فهیم می توانند چنین ارتباطات عجیب و غریب و ناخواسته ای را ببینند، با این فرض که احتمالاً از کشوری ایجاد شده است که زبان انگلیسی در آن زبان اصلی نیست.
ChatGPT تا حد زیادی این نکته را حذف کرد. با کمک ChatGPT، یک مجرم سایبری میتواند ایمیلی با گرامر و زبان انگلیسی کامل بنویسد که به زبان یک منبع قانونی استایلبندی شده است. مجرمان سایبری میتوانند ارتباطات خودکار را تقلید کنند، به عنوان مثال، مرجعی در بانکی که از کاربران درخواست میکند وارد سیستم شوند و اطلاعاتی درباره حسابهای 401(k) خود ارائه دهند. زمانی که کاربر روی لینکی کلیک می کند تا اطلاعات را ارائه کند، هکر کنترل حساب را در دست می گیرد.
این ترفند چقدر محبوب است؟ SlashNext گزارش وضعیت فیشینگ 2023 افزایش 1,265 درصدی ایمیل های فیشینگ مخرب از سه ماهه چهارم سال 2022 تا حد زیادی به هدف گذاری شده نسبت داده شده است. خطرات ایمیل تجاری با استفاده از ابزارهای هوش مصنوعی
حملات جعل هویت نیز در حال افزایش هستند. با استفاده از ChatGPT و سایر ابزارها، کلاهبرداران جعل هویت افراد و سازمان های واقعی، سرقت هویت و کلاهبرداری را انجام می دهند. درست مانند حملات فیشینگ، آنها از چتباتها برای ارسال پیامهای صوتی با تظاهر به یک دوست، همکار یا یکی از اعضای خانواده مورد اعتماد در تلاش برای دریافت اطلاعات یا دسترسی به یک حساب استفاده میکنند.
یک مثال در اوایل سال 2023 در ساسکاچوان، کانادا اتفاق افتاد. یک زوج سالخورده از شخصی که خود را به جای نوه خود جا زده بود، تماس گرفت و ادعا کرد که او در یک تصادف رانندگی قرار گرفته و در زندان به سر می برد. تماسگیرنده داستانی را نقل میکند که آسیب دیده، کیف پولش را گم کرده است و برای تسویه حساب با صاحب ماشین دیگر به 9,400 دلار پول نقد نیاز دارد تا از اتهامات وارده جلوگیری کند. پدربزرگ و مادربزرگ برای برداشت پول به بانک خود رفتند، اما وقتی یکی از مقامات بانک آنها را متقاعد کرد که این درخواست قانونی نیست، از کلاهبرداری جلوگیری کردند.
در حالی که کارشناسان صنعت بر این باور بودند که این استفاده پیچیده از فناوری شبیهسازی صدای هوش مصنوعی در چند سال آینده توسعه خواهد یافت، تعداد کمی انتظار داشتند که به این سرعت به این سرعت عمل کند.
مجرمان سایبری از ChatGPT و سایر رباتهای چت هوش مصنوعی برای انجام حملات مهندسی اجتماعی استفاده میکنند که هرج و مرج را دامن میزند. آنها از ترکیبی از شبیهسازی صدا و فنآوری دیپفیک استفاده میکنند تا به نظر برسد که کسی چیزی آتشزا میگوید.
این اتفاق شب قبل از انتخابات شهرداری شیکاگو در ماه فوریه رخ داد. یک هکر یک ویدیوی دیپ فیک ایجاد کرد و آن را در X، که قبلاً توییتر نامیده میشد، پست کرد و نشان میداد که نامزد انتخاباتی پل والاس ظاهراً اظهارنظرهای تحریکآمیز نادرستی میکند و دیدگاههای سیاسی بحثبرانگیزی را مطرح میکند. این ویدیو قبل از حذف شدن از پلتفرم هزاران بازدید ایجاد کرد.
آخرین تاکتیک، چت ربات های جعلی برای خدمات مشتری، وجود دارد، اما احتمالاً یک یا دو سال تا محبوبیت گسترده فاصله دارد. یک سایت بانکی تقلبی می تواند با استفاده از یک چت ربات خدمات مشتری که به نظر انسان می رسد ایجاد شود. از ربات چت می توان برای دستکاری قربانیان ناآگاه برای تحویل اطلاعات حساس شخصی و حساب کاربری استفاده کرد.
چگونه امنیت سایبری در حال مبارزه است
خبر خوب این است که هوش مصنوعی همچنین به عنوان یک ابزار امنیتی برای مبارزه با کلاهبرداری های مبتنی بر هوش مصنوعی استفاده می شود. در اینجا سه راه برای مقابله با صنعت امنیت سایبری آورده شده است.
توسعه هوش مصنوعی دشمن خود
اساساً، این ایجاد «هوش مصنوعی خوب» و آموزش آن برای مبارزه با «هوش مصنوعی بد» است. شرکت های سایبری با توسعه شبکه های متخاصم مولد خود (GAN) می توانند یاد بگیرند که در صورت حمله چه انتظاری داشته باشند. GAN ها از دو شبکه عصبی تشکیل شده اند: یک مولد که نمونه های داده جدید را ایجاد می کند و یک تشخیص دهنده که نمونه های تولید شده را از نمونه های اصلی متمایز می کند.
با استفاده از این فناوریها، GANها میتوانند الگوهای حمله جدیدی تولید کنند که شبیه الگوهای حمله قبلی دیده شده است. با آموزش مدلی بر روی این الگوها، سیستمها میتوانند در مورد نوع حملاتی که میتوانیم انتظار مشاهده آن را داشته باشیم و روشهایی که مجرمان سایبری از آن تهدیدات سوءاستفاده میکنند، پیشبینی کنند.
تشخیص ناهنجاری
این عبارت است از درک خط اصلی رفتار عادی و سپس شناسایی زمانی که فردی از آن رفتار منحرف می شود. هنگامی که شخصی از مکانی متفاوت از حد معمول وارد حساب کاربری می شود یا اگر بخش حسابداری به طور مرموزی از یک سیستم PowerShell که معمولاً توسط توسعه دهندگان نرم افزار استفاده می شود استفاده می کند، این می تواند نشان دهنده یک حمله باشد. در حالی که سیستمهای امنیت سایبری مدتهاست از این مدل استفاده میکنند، مدلهای هوش مصنوعی اسب بخاری فناوری اضافه شده میتوانند پیامهایی را که به طور بالقوه مشکوک هستند بهطور مؤثرتری پرچمگذاری کنند.
پاسخ تشخیص
با استفاده از سیستمهای هوش مصنوعی، ابزارها و سرویسهای امنیت سایبری مانند شناسایی و پاسخ مدیریت شده (MDR) میتوانند تهدیدها را بهتر شناسایی کرده و اطلاعات مربوط به آنها را به تیمهای امنیتی منتقل کنند. هوش مصنوعی به تیمهای امنیتی کمک میکند تا با دریافت اطلاعات مختصر و مرتبط، تهدیدات مشروع را با سرعت بیشتری شناسایی و به آنها رسیدگی کنند. صرف زمان کمتر برای تعقیب موارد مثبت کاذب و تلاش برای رمزگشایی گزارشهای امنیتی به تیمها کمک میکند تا پاسخهای مؤثرتری را ارائه دهند.
نتیجه
ابزارهای هوش مصنوعی چشمان جامعه را به روی امکانات جدید تقریباً در هر زمینه کاری باز می کنند. از آنجایی که هکرها از فناوریهای مدل زبان بزرگ بهره میبرند، صنعت باید برای تحت کنترل نگه داشتن تهدید هوش مصنوعی سرعت خود را حفظ کند.
- محتوای مبتنی بر SEO و توزیع روابط عمومی. امروز تقویت شوید.
- PlatoData.Network Vertical Generative Ai. به خودت قدرت بده دسترسی به اینجا.
- PlatoAiStream. هوش وب 3 دانش تقویت شده دسترسی به اینجا.
- PlatoESG. کربن ، CleanTech، انرژی، محیط، خورشیدی، مدیریت پسماند دسترسی به اینجا.
- PlatoHealth. هوش بیوتکنولوژی و آزمایشات بالینی. دسترسی به اینجا.
- منبع: https://www.darkreading.com/vulnerabilities-threats/how-ai-shaping-future-cybercrime