هوش داده افلاطون
جستجوی عمودی و هوش مصنوعی

مایکروسافت این ابزارهای ایمنی را برای هوش مصنوعی Azure عرضه می کند

تاریخ:

مایکروسافت مجموعه‌ای از ابزارها را برای کمک به ایمن‌تر کردن مدل‌های هوش مصنوعی در Azure معرفی کرده است.

از زمانی که تجارت ابر و کد شروع به جمع‌آوری سرمایه در OpenAI کرد و امپراتوری نرم‌افزاری خود را با قابلیت‌های ربات‌های چت القا کرد – نمایشی که رقبا در میان وعده‌های بزرگ در مورد بهره‌وری با شور و شوق مشابهی به اجرا در می‌آورد – مایکروسافت مجبور است اذعان کند که هوش مصنوعی مولد با خطراتی همراه است.

La خطرات به طور گسترده ای شناخته شده اند و گاهی اوقات با خیال راحت کنار گذاشته می شوند. یک دهه پیش، ایلان ماسک هشدار داد که هوش مصنوعی ممکن است درست باشد بشریت را نابود کند. با این حال، این نگرانی مانع از آن نشد که هوش مصنوعی را در دسترس قرار دهد اتومبیل، در خود مگافون رسانه های اجتماعی، و شاید به زودی در ربات ها.

ظهور مدل‌های زبانی بزرگ که توهم می‌کنند و پاسخ‌های نادرست یا مضر ارائه می‌دهند، منجر به بازگشت به تابلوی طراحی، اما برای بودجه بیشتر به اتاق هیئت مدیره شده است. صنعت فناوری به جای تولید یک محصول ایمن و اخلاقی، سعی می‌کند مدل‌های وحشی را رام کند، یا حداقل آن‌ها را به اندازه کافی از مشتریانی دور نگه دارد که می‌توانند بدون آسیب رساندن به کسی سرگردان شوند.

و اگر این کار نکرد، همیشه وجود دارد غرامت از ادعاهای قانونی، مشروط به شرایط خاص، از تامین کنندگان.

تعهدات صنعت به ایمنی هوش مصنوعی با خواسته‌های دولت مطابقت دارد. روز پنجشنبه در ایالات متحده، دفتر مدیریت و بودجه کاخ سفید (OMB) صادر شده اولین سیاست گسترده دولتی آن برای مقابله با خطرات هوش مصنوعی.

این سیاست از آژانس‌های فدرال می‌خواهد تا «هنگام استفاده از هوش مصنوعی به شیوه‌ای که می‌تواند بر حقوق یا ایمنی آمریکایی‌ها تأثیر بگذارد، تدابیر ملموسی را اجرا کنند.» این به معنای ارزیابی خطر، آزمایش و نظارت، تلاش برای محدود کردن تبعیض و تعصب، و ترویج است. شفافیت برای برنامه های کاربردی هوش مصنوعی در زمینه سلامت، آموزش، مسکن و اشتغال.

بنابراین مایکروسافت آخرین اقدامات ایمنی هوش مصنوعی خود را از طریق سارا برد، مدیر ارشد تولید هوش مصنوعی مسئول، عنوانی که حاکی از وجود هوش مصنوعی غیرمسئولانه است - اگر می‌توانید تصور کنید، به میان می‌آورد.

برد می‌گوید که رهبران کسب‌وکار سعی می‌کنند بین نوآوری و مدیریت ریسک تعادل برقرار کنند تا به آنها اجازه دهند که از هوش مصنوعی مولد استفاده کنند بدون اینکه توسط آن گاز گرفته شوند.

Bird توضیح می دهد: "حملات تزریق سریع به عنوان یک چالش مهم ظاهر شده اند، جایی که عوامل مخرب سعی می کنند یک سیستم هوش مصنوعی را برای انجام کاری خارج از هدف مورد نظر خود، مانند تولید محتوای مضر یا نفوذ به داده های محرمانه دستکاری کنند." پست های وبلاگ.

علاوه بر کاهش این خطرات امنیتی، سازمان‌ها به کیفیت و قابلیت اطمینان نیز توجه دارند. آنها می‌خواهند اطمینان حاصل کنند که سیستم‌های هوش مصنوعی آنها خطا ایجاد نمی‌کند یا اطلاعاتی را که در منابع داده‌ای برنامه ثابت نشده است اضافه نمی‌کند، که می‌تواند اعتماد کاربران را از بین ببرد.»

از آنجایی که ایمنی و دقت در هزینه اشتراک هوش مصنوعی لحاظ نشده است، مایکروسافت فرصتی را می بیند برای فروش آنها به عنوان یک افزونه

مشتریانی که از Azure AI Studio برای کمک به ایجاد برنامه های هوش مصنوعی مولد استفاده می کنند، می توانند منتظر چهار ابزار جدید باشند.

اول ، وجود دارد Prompt Shields، که قول کمک به دفاع در برابر حملات تزریق سریع را می دهد. قبلاً به عنوان تشخیص خطر فرار از زندان شناخته می شد و اکنون در پیش نمایش عمومی است، راهی برای کاهش خطر دخالت مستقیم و غیرمستقیم فوری در مدل های پایه است.

حملات مستقیم شامل اعلان‌ها (ورودی‌هایی) است که به گونه‌ای طراحی شده‌اند که مدل آموزش ایمنی خود را نادیده بگیرد. حملات غیرمستقیم به تلاش هایی برای ورود مخفیانه به یک مدل اشاره دارد. یکی از راه‌های انجام این کار ممکن است گنجاندن متن مخفی در ایمیل با آگاهی از این موضوع باشد که یک مدل هوش مصنوعی که از طرف گیرنده، مثلاً Copilot در Outlook عمل می‌کند، پیام را تجزیه می‌کند، متن پنهان را به عنوان یک دستور تفسیر می‌کند، و امیدواریم. طبق دستورالعمل‌ها عمل کنید، کاری مانند پاسخ دادن بی‌صدا با داده‌های حساس انجام دهید.

دوم این است تشخیص پایه، سیستمی برای تشخیص زمانی که مدل‌های هوش مصنوعی توهم می‌زنند یا چیزهایی را می‌سازند. در صورت شناسایی ادعای نادرست، چندین گزینه را به مشتریان ارائه می دهد، از جمله ارسال پاسخ برای بازبینی قبل از نمایش. مایکروسافت می‌گوید که این کار را با ساخت یک مدل زبان سفارشی که ادعاهای غیرقابل اثبات را بر اساس اسناد منبع ارزیابی می‌کند، انجام داده است. بنابراین، پاسخ ایمنی مدل هوش مصنوعی، شما حدس زدید، مدل دیگری است.

اگرچه این یک گام فوق العاده به سمت هوش مصنوعی قابل اعتماد است، اما مشکل هنوز حل نشده است

سوم، داریم ارزیابی های ایمنی به کمک هوش مصنوعی در AI Studio، که یک چارچوب آزمایشی برای ارائه الگوها و پارامترهای سریع برای مدل‌سازی ارائه می‌کند که تعاملات متخاصم مختلف را با برنامه مشتری آزمایش می‌کند. باز هم، این هوش مصنوعی برای آزمایش هوش مصنوعی است.

و سرانجام ، آنجا وجود دارد "ریسک ها و نظارت بر ایمنی"، یک ویژگی برای سرویس OpenAI Azure که معیارهای محتوای مضر را ارائه می دهد.

وینو سانکار ساداسیوان، دانشجوی دکترا در دانشگاه مریلند که به توسعه آن کمک کرد حمله جانوران در LLM، گفت ثبت نام که اگرچه دیدن ابزارهای ساخت Azure برای ایمن‌تر کردن هوش مصنوعی هیجان‌انگیز است، اما افزودن مدل‌های بیشتر به این ترکیب، سطح حمله احتمالی را گسترش می‌دهد.

او گفت: «ارزیابی‌های ایمنی Azure و ابزارهای نظارت بر ریسک و ایمنی برای بررسی قابلیت اطمینان مدل‌های هوش مصنوعی مهم هستند. اگرچه این یک گام فوق العاده به سمت هوش مصنوعی قابل اعتماد است، اما مشکل هنوز حل نشده است. به عنوان مثال، Prompt Shields که آنها معرفی می‌کنند احتمالاً از یک مدل هوش مصنوعی دیگر برای شناسایی و مسدود کردن حملات سریع غیرمستقیم استفاده می‌کنند. این مدل هوش مصنوعی می تواند در برابر تهدیداتی مانند حملات خصمانه آسیب پذیر باشد.

«دشمنان می‌توانند از این آسیب‌پذیری‌ها برای دور زدن Prompt Shields استفاده کنند. اگرچه پیام‌های سیستم ایمنی در برخی موارد مؤثر بوده‌اند، حملات موجود مانند BEAST می‌توانند به طور خصمانه به مدل‌های هوش مصنوعی حمله کنند تا در کمترین زمان آنها را از زندان فراری دهند. در حالی که اجرای سیستم‌های دفاعی برای سیستم‌های هوش مصنوعی مفید است، ضروری است که از معایب احتمالی آنها آگاه باشیم. ®

نقطه_img

جدیدترین اطلاعات

نقطه_img

چت با ما

سلام! چگونه می توانم به شما کمک کنم؟