ذكاء بيانات أفلاطون.
البحث العمودي و Ai.

تطرح Microsoft أدوات الأمان هذه لـ Azure AI

التاريخ:

قدمت Microsoft مجموعة من الأدوات التي يُزعم أنها تساعد في جعل نماذج الذكاء الاصطناعي أكثر أمانًا للاستخدام في Azure.

منذ أن بدأت أعمال السحابة والبرمجة في ضخ الأموال إلى OpenAI وتزويد إمبراطوريتها البرمجية بقدرات برامج الدردشة الآلية ــ وهي الدراما التي تم تمثيلها بحماس مماثل من قبل المنافسين وسط وعود عظيمة بشأن الإنتاجية ــ كان على مايكروسوفت أن تعترف بأن الذكاء الاصطناعي التوليدي يأتي مصحوبا بالمخاطر.

الأخطار معروفة على نطاق واسع، وأحيانًا يتم تجاهلها بلا مبالاة. قبل عقد من الزمن، حذّر إيلون ماسك من أن الذكاء الاصطناعي قد يكون عادلاً تدمير البشرية. ومع ذلك، فإن هذا القلق لم يمنعه من إتاحة الذكاء الاصطناعي cars، عليه وسائل الاعلام الاجتماعية مكبر الصوت، وربما قريبا في الروبوتات.

وقد أدى ظهور نماذج لغوية كبيرة تهلوس وتقدم استجابات غير صحيحة أو ضارة إلى العودة إلى لوحة الرسم، ولكن إلى مجلس الإدارة للحصول على مزيد من التمويل. فبدلاً من إنتاج منتج آمن وأخلاقي، تحاول صناعة التكنولوجيا ترويض النماذج الوحشية، أو على الأقل إبقائها بعيدة بما فيه الكفاية عن العملاء الذين يمكن أن يفسدوا دون إيذاء أي شخص.

وإذا لم ينجح ذلك، فهناك دائمًا التعويض من المطالبات القانونية، الخاضعة لشروط معينة، من الموردين.

تتوافق التزامات الصناعة بسلامة الذكاء الاصطناعي مع المطالب الحكومية المقابلة. في الولايات المتحدة يوم الخميس، التقى مكتب البيت الأبيض للإدارة والميزانية (OMB) نشر أول سياسة على مستوى الحكومة لمعالجة مخاطر الذكاء الاصطناعي.

وتتطلب هذه السياسة من الوكالات الفيدرالية "تنفيذ ضمانات ملموسة عند استخدام الذكاء الاصطناعي بطريقة يمكن أن تؤثر على حقوق الأميركيين أو سلامتهم"، بحلول الأول من ديسمبر/كانون الأول. وهذا يعني تقييمات المخاطر، والاختبار، والمراقبة، والجهود المبذولة للحد من التمييز والتحيز، وتعزيز الشفافية في تطبيقات الذكاء الاصطناعي التي تمس الصحة والتعليم والإسكان والتوظيف.

وهكذا، تقدم مايكروسوفت معلومات عن أحدث تدابيرها الخاصة بسلامة الذكاء الاصطناعي من خلال سارة بيرد، كبيرة مسؤولي المنتجات في الذكاء الاصطناعي المسؤول، وهو اللقب الذي يشير ضمناً إلى وجود ذكاء اصطناعي غير مسؤول - إذا كنت تستطيع أن تتخيل ذلك.

يقول بيرد إن قادة الأعمال يحاولون الموازنة بين الابتكار وإدارة المخاطر، للسماح لهم باستخدام الذكاء الاصطناعي التوليدي دون أن يتأثروا به.

"لقد ظهرت هجمات الحقن الفوري كتحدي كبير، حيث تحاول الجهات الفاعلة الخبيثة التلاعب بنظام الذكاء الاصطناعي للقيام بشيء خارج الغرض المقصود منه، مثل إنتاج محتوى ضار أو تسريب بيانات سرية"، يوضح بيرد في مقالة له. بلوق وظيفة.

"بالإضافة إلى تخفيف هذه المخاطر الأمنية، تهتم المؤسسات أيضًا بالجودة والموثوقية. إنهم يريدون التأكد من أن أنظمة الذكاء الاصطناعي الخاصة بهم لا تنتج أخطاء أو تضيف معلومات غير مثبتة في مصادر بيانات التطبيق، مما قد يؤدي إلى تآكل ثقة المستخدم.

نظرًا لعدم تضمين السلامة والدقة في رسوم الاشتراك في الذكاء الاصطناعي، ترى Microsoft فرصة لبيعها كإضافة.

يمكن للعملاء الذين يستخدمون Azure AI Studio لمساعدتهم في إنشاء تطبيقات الذكاء الاصطناعي المنتجة أن يتطلعوا إلى أربع أدوات جديدة.

أولاً ، هناك الدروع الفورية، والتي تعد بالمساعدة في الدفاع ضد هجمات الحقن السريعة. كانت تعرف سابقًا باسم Jailbreak Risk Detection وهي الآن متاحة للمعاينة العامة، وهي طريقة للتخفيف من مخاطر التدخل المباشر وغير المباشر في النماذج الأساسية.

تتضمن الهجمات المباشرة مطالبات (مدخلات) مصممة لجعل النموذج يتجاهل التدريب على السلامة الخاص به. تشير الهجمات غير المباشرة إلى الجهود المبذولة لتسلل المدخلات إلى النموذج. قد تكون إحدى الطرق للقيام بذلك هي تضمين نص مخفي في رسالة بريد إلكتروني مع العلم أن نموذج الذكاء الاصطناعي الذي يعمل نيابة عن المستلم من خلال برنامج Copilot في Outlook، على سبيل المثال، سوف يقوم بتحليل الرسالة، وتفسير النص المخفي كأمر، ونأمل أن التصرف وفقًا للتعليمات، والقيام بشيء مثل الرد بصمت ببيانات حساسة.

الثاني هو كشف التأريض، وهو نظام لرصد الحالات التي تهلوس فيها نماذج الذكاء الاصطناعي، أو تختلق الأشياء. وهو يوفر للعملاء عدة خيارات عند اكتشاف مطالبة كاذبة، بما في ذلك إرسال الرد مرة أخرى لمراجعته قبل عرضه. تقول Microsoft إنها أنجزت ذلك من خلال إنشاء نموذج لغة مخصص يقوم بتقييم المطالبات غير المدعومة بالأدلة بناءً على المستندات المصدر. لذا فإن الإجابة على سلامة نماذج الذكاء الاصطناعي هي، كما خمنت، نموذج آخر.

على الرغم من أن هذه خطوة رائعة نحو الذكاء الاصطناعي الجدير بالثقة، إلا أن المشكلة لا تزال دون حل

ثالثًا ، لدينا تقييمات السلامة بمساعدة الذكاء الاصطناعي في AI Studio، والتي توفر إطار عمل اختباري لتقديم قوالب ومعلمات سريعة لنموذج يختبر التفاعلات العدائية المختلفة مع تطبيق العميل. مرة أخرى، الذكاء الاصطناعي هو اختبار الذكاء الاصطناعي.

وأخيرًا ، هناك "مراقبة المخاطر والسلامة"، وهي إحدى ميزات خدمة Azure OpenAI التي توفر مقاييس المحتوى الضار.

فينو سانكار ساداسيفان، طالب الدكتوراه في جامعة ميريلاند الذي ساعد في تطوير هجوم الوحش على LLMs، قال السجل على الرغم من أنه من المثير رؤية أدوات إنشاء Azure لجعل الذكاء الاصطناعي أكثر أمانًا، إلا أن إضافة المزيد من النماذج إلى هذا المزيج يوسع سطح الهجوم المحتمل.

وقال: "تعد تقييمات السلامة وأدوات مراقبة المخاطر والسلامة في Azure مهمة للتحقق من موثوقية نماذج الذكاء الاصطناعي". "على الرغم من أن هذه خطوة رائعة نحو الذكاء الاصطناعي الجدير بالثقة، إلا أن المشكلة لا تزال دون حل. على سبيل المثال، من المفترض أن تستخدم الدروع المطالبة التي يقدمونها نموذجًا آخر للذكاء الاصطناعي لاكتشاف الهجمات السريعة غير المباشرة ومنعها. يمكن أن يكون نموذج الذكاء الاصطناعي هذا عرضة للتهديدات مثل الهجمات العدائية.

"يمكن للخصوم الاستفادة من نقاط الضعف هذه لتجاوز الدروع الفورية. على الرغم من أن رسائل نظام الأمان أثبتت فعاليتها في بعض الحالات، إلا أن الهجمات الحالية مثل BEAST يمكنها مهاجمة نماذج الذكاء الاصطناعي بشكل عدائي لكسر حمايتها في وقت قصير. وفي حين أنه من المفيد تنفيذ دفاعات لأنظمة الذكاء الاصطناعي، فمن الضروري أن تظل على دراية بعيوبها المحتملة. ®

بقعة_صورة

أحدث المعلومات الاستخباراتية

بقعة_صورة

الدردشة معنا

أهلاً! كيف يمكنني مساعدك؟