شرکت ها به طور فزاینده ای از هوش مصنوعی مولد برای خودکارسازی فرآیندهای فناوری اطلاعات، شناسایی تهدیدات امنیتی و در اختیار گرفتن عملکردهای خط مقدم خدمات مشتری استفاده می کنند. یک نظرسنجی IBM در سال 2023 دریافتند که 42 درصد از شرکت های بزرگ به طور فعال از هوش مصنوعی استفاده می کنند و 40 درصد دیگر در حال کاوش یا آزمایش با هوش مصنوعی هستند.
در تقاطع اجتنابناپذیر هوش مصنوعی و ابر، شرکتها باید به این فکر کنند که چگونه ابزارهای هوش مصنوعی را در فضای ابری ایمن کنند. یکی از افرادی که در مورد این موضوع بسیار فکر کرده است، کریس بتز است که در آگوست گذشته به عنوان CISO در خدمات وب آمازون انتخاب شد.
قبل از AWS، بتز معاون اجرایی و CISO Capital One بود. بتز همچنین به عنوان معاون ارشد و مدیر ارشد امنیتی در Lumen Technologies و در نقشهای امنیتی در اپل، مایکروسافت و CBS کار میکرد.
دارک ریدینگ اخیراً با بتز درباره این موضوع صحبت کرده است امنیت بارهای کاری هوش مصنوعی در فضای ابری. نسخه ویرایش شده آن گفتگو در ادامه می آید.
Dark Reading: برخی از چالشهای بزرگ برای ایمن کردن حجم کاری هوش مصنوعی در فضای ابری چیست؟
کریس بتز: هنگامی که من با بسیاری از مشتریان خود در مورد هوش مصنوعی مولد صحبت می کنم، آن مکالمات اغلب با این جمله شروع می شود: «من این داده های واقعا حساس را دارم و به دنبال ارائه قابلیتی به مشتریانم هستم. چگونه این کار را به روشی ایمن و مطمئن انجام دهم؟» من واقعاً از این مکالمه قدردانی می کنم زیرا بسیار مهم است که مشتریان ما بر نتیجه ای که می خواهند به آن دست یابند تمرکز کنند.
Dark Reading: مشتریان بیشتر نگران چه چیزی هستند؟
بتز: مکالمه باید با این مفهوم شروع شود که "داده های شما داده های شما هستند." ما یک مزیت بزرگ داریم که میتوانم بر روی زیرساختهای فناوری اطلاعات ایجاد کنم که کار واقعاً خوبی برای نگه داشتن دادهها در جایی که هستند انجام میدهد. بنابراین اولین توصیه ای که می کنم این است: بدانید که داده های شما کجا هستند. چگونه محافظت می شود؟ چگونه از آن در مدل هوش مصنوعی مولد استفاده می شود؟
دومین موردی که ما در مورد آن صحبت می کنیم این است که در تعامل با یک مدل هوش مصنوعی مولد اغلب از حساس ترین داده های مشتریانشان استفاده می شود. هنگامی که از یک مدل هوش مصنوعی مولد در مورد یک تراکنش خاص سوال می کنید، از اطلاعات افراد درگیر در آن تراکنش استفاده خواهید کرد.
Dark Reading: آیا شرکتها هم در مورد کاری که هوش مصنوعی با دادههای داخلی شرکتشان انجام میدهد و هم درباره اطلاعات مشتریان نگران هستند؟
بتز: مشتریان بیشتر مایلند از هوش مصنوعی مولد در تعاملات خود با مشتریان خود و در استخراج و بهره گیری از حجم عظیمی از داده هایی که در داخل دارند استفاده کنند و این کار را برای کارمندان داخلی یا مشتریان خود انجام دهند. برای شرکتها بسیار مهم است که دادههای فوقالعاده حساس را به روشی ایمن و مطمئن مدیریت کنند، زیرا این رگ حیاتی کسبوکارشان است.
شرکتها باید به این فکر کنند که دادههایشان کجاست و چگونه هنگام ارائه درخواستهای هوش مصنوعی و زمانی که پاسخها را دریافت میکنند، محافظت میشوند.
Dark Reading: آیا کیفیت پاسخ ها و امنیت داده ها به هم مرتبط هستند؟
بتز: کاربران هوش مصنوعی همیشه باید به این فکر کنند که آیا پاسخ های باکیفیتی دریافت می کنند یا خیر. دلیل امنیت این است که مردم به سیستم های کامپیوتری خود اعتماد کنند. اگر این سیستم پیچیده را که از یک مدل هوش مصنوعی مولد برای ارائه چیزی به مشتری استفاده میکند، کنار هم میگذارید، باید مشتری اطمینان داشته باشد که هوش مصنوعی اطلاعات درستی را به آنها میدهد تا بر اساس آن عمل کنند و از اطلاعات او محافظت میکند.
Dark Reading: آیا راههای خاصی وجود دارد که AWS بتواند در مورد نحوه محافظت در برابر حملات به هوش مصنوعی در فضای ابری به اشتراک بگذارد؟ من در مورد تزریق سریع، حملات مسمومیت، حملات خصمانه، این نوع چیزها فکر می کنم.
بتز: با وجود پایههای قوی از قبل، AWS به خوبی آماده بود تا با این چالش روبرو شود، زیرا ما سالها با هوش مصنوعی کار میکردیم. ما تعداد زیادی راهحلهای هوش مصنوعی داخلی و تعدادی سرویس داریم که مستقیماً به مشتریان خود ارائه میکنیم، و امنیت یکی از موارد مهم در نحوه توسعه این راهحلها بوده است. این چیزی است که مشتریان ما در مورد آن می پرسند، و این همان چیزی است که آنها انتظار دارند.
به عنوان یکی از بزرگترین ارائه دهندگان ابر، ما دید گسترده ای نسبت به نیازهای امنیتی در حال تکامل در سراسر جهان داریم. اطلاعات تهدیدی که ما دریافت میکنیم جمعآوری میشود و برای ایجاد بینشهای عملی استفاده میشود که در ابزارها و خدمات مشتری مانند GuardDuty. علاوه بر این، اطلاعات تهدید ما برای ایجاد اقدامات امنیتی خودکار از طرف مشتریان برای ایمن نگه داشتن داده های آنها استفاده می شود.
Dark Reading: ما در مورد فروشندگان امنیت سایبری که از هوش مصنوعی و یادگیری ماشینی برای شناسایی تهدیدها با جستجوی رفتار غیرعادی در سیستم هایشان استفاده می کنند، زیاد شنیده ایم. راه های دیگری که شرکت ها از هوش مصنوعی برای کمک به امنیت خود استفاده می کنند چیست؟
بتز: من مشتریانی را دیده ام که کارهای شگفت انگیزی با هوش مصنوعی مولد انجام می دهند. ما دیدهایم که آنها از CodeWhisperer [سازنده کد مبتنی بر هوش مصنوعی AWS] برای نمونهسازی سریع و توسعه فناوریها استفاده میکنند. من تیم هایی را دیده ام که از CodeWhisperer برای کمک به آنها استفاده می کنند کد امن بسازید و اطمینان حاصل کنیم که با شکاف های کد مقابله می کنیم.
ما همچنین راهحلهای هوش مصنوعی مولد ساختهایم که با برخی از سیستمهای امنیتی داخلی ما در ارتباط است. همانطور که می توانید تصور کنید، بسیاری از تیم های امنیتی با حجم عظیمی از اطلاعات سر و کار دارند. هوش مصنوعی مولد به ترکیبی از این دادهها اجازه میدهد تا برای سازندگان و تیمهای امنیتی بسیار قابل استفاده باشد تا بفهمند در سیستمها چه میگذرد، سؤالات بهتری بپرسید و آن دادهها را جمع آوری کنید.
وقتی شروع کردم به فکر کردن در مورد کمبود استعداد در امنیت سایبری، هوش مصنوعی مولد امروزه نه تنها به بهبود سرعت توسعه نرم افزار و بهبود کدگذاری ایمن کمک می کند، بلکه به جمع آوری داده ها نیز کمک می کند. این به ما کمک خواهد کرد زیرا توانایی های انسانی ما را تقویت می کند. هوش مصنوعی به ما کمک می کند تا اطلاعات را برای حل مشکلات پیچیده گرد هم بیاوریم و به ارائه داده ها به مهندسان امنیتی و تحلیلگران کمک می کند تا بتوانند سوالات بهتری بپرسند.
Dark Reading: آیا هیچ تهدید امنیتی مخصوص هوش مصنوعی و فضای ابری می بینید؟
بتز: من زمان زیادی را با محققان امنیتی صرف بررسی حملات پیشرفته هوش مصنوعی و نحوه نگاه مهاجمان به آن کردهام. من در این فضا به دو دسته چیز فکر می کنم. اولین طبقه این است که ما می بینیم که بازیگران مخرب شروع به استفاده از هوش مصنوعی مولد می کنند تا در کاری که قبلا انجام می دهند سریعتر و بهتر عمل کنند. محتوای مهندسی اجتماعی نمونه ای از این موارد است.
مهاجمان همچنین از فناوری هوش مصنوعی برای کمک به نوشتن کد سریعتر استفاده می کنند. این بسیار شبیه به جایی است که دفاع در آن قرار دارد. بخشی از قدرت این فناوری این است که دسته ای از فعالیت ها را آسان می کند و این در مورد مهاجمان صادق است، اما در مورد مدافعان نیز بسیار صادق است.
حوزه دیگری که می بینم محققان شروع به بررسی بیشتر کردند این است که این مدل های هوش مصنوعی مولد کد هستند. مانند سایر کدها، آنها مستعد داشتن نقاط ضعف هستند. این مهم است که بدانیم چگونه آنها را ایمن کنیم و مطمئن شویم که آنها در محیطی که دارای دفاع است وجود دارند.
- محتوای مبتنی بر SEO و توزیع روابط عمومی. امروز تقویت شوید.
- PlatoData.Network Vertical Generative Ai. به خودت قدرت بده دسترسی به اینجا.
- PlatoAiStream. هوش وب 3 دانش تقویت شده دسترسی به اینجا.
- PlatoESG. کربن ، CleanTech، انرژی، محیط، خورشیدی، مدیریت پسماند دسترسی به اینجا.
- PlatoHealth. هوش بیوتکنولوژی و آزمایشات بالینی. دسترسی به اینجا.
- منبع: https://www.darkreading.com/cloud-security/aws-ciso-cloud-customers-need-secure-ai-workloads