เพลโต ดาต้า อินเทลลิเจนซ์
ค้นหาแนวตั้ง & Ai

NSA เสนอคำแนะนำด้านความปลอดภัยของ AI ให้กับโลกเทคโนโลยีการป้องกันประเทศเป็นหลัก

วันที่:

NSA ได้เผยแพร่คำแนะนำเพื่อช่วยให้องค์กรต่างๆ ปกป้องระบบ AI ของตน และปกป้องอุตสาหกรรมการป้องกันประเทศได้ดียิ่งขึ้น

เอกสารข้อมูลความปลอดภัยทางไซเบอร์ (CSI) ในหัวข้อ “การปรับใช้ระบบ AI อย่างปลอดภัย: แนวทางปฏิบัติที่ดีที่สุดสำหรับการปรับใช้ระบบ AI ที่ปลอดภัยและยืดหยุ่น” แสดงถึงการระดมพลครั้งแรกจากศูนย์รักษาความปลอดภัยปัญญาประดิษฐ์ (AISC) ซึ่งก่อตั้งโดยหน่วยงานเฝ้าระวังระดับสูงเมื่อฤดูใบไม้ร่วงปีที่แล้ว ซึ่งเป็นส่วนหนึ่งของศูนย์ความร่วมมือด้านความปลอดภัยทางไซเบอร์ (CCC) ความร่วมมือระหว่างภาครัฐและอุตสาหกรรมเพื่อปกป้ององค์กรที่เกี่ยวข้องในการ ฐานอุตสาหกรรมกลาโหม.

ซีเอสไอนี้ [รูปแบบไฟล์ PDF] ได้รับการพัฒนาโดยการปรึกษาหารือกับหน่วยงานอื่นๆ ของสหรัฐอเมริกา รวมถึง CISA และ FBI ตลอดจนหน่วยงานในออสเตรเลีย แคนาดา นิวซีแลนด์ และสหราชอาณาจักร

เหตุผลในการมีคำแนะนำด้านความปลอดภัยที่ชัดเจนสำหรับระบบ AI ก็คือผู้คุกคามอาจใช้กลยุทธ์ที่แตกต่างกันเพื่อล้มล้างโมเดลการเรียนรู้ของเครื่องและแอปพลิเคชัน

เนื่องจากเวกเตอร์การโจมตีที่หลากหลาย การป้องกันจึงต้องมีความหลากหลายและครอบคลุม

“ผู้ประสงค์ร้ายที่กำหนดเป้าหมายระบบ AI อาจใช้เวกเตอร์การโจมตีที่เป็นเอกลักษณ์เฉพาะของระบบ AI รวมถึงเทคนิคมาตรฐานที่ใช้กับไอทีแบบดั้งเดิม” CSI อ่าน “เนื่องจากเวกเตอร์การโจมตีที่หลากหลาย การป้องกันจึงต้องมีความหลากหลายและครอบคลุม”

ดูเหมือนจะมีความจำเป็นในการรักษาความปลอดภัย AI ที่ดีขึ้น ซึ่งอาจจะไม่น่าแปลกใจเนื่องจากมีความต้องการความปลอดภัยทางไซเบอร์ที่ดีขึ้นโดยทั่วไป ในนั้น รายงานภาพรวมภัยคุกคามจาก AI ปี 2024ผู้จำหน่ายระบบรักษาความปลอดภัย Hidden Layer อ้างว่า “77 เปอร์เซ็นต์ของบริษัทรายงานว่าระบุการละเมิด AI ของตนในปีที่ผ่านมา ที่เหลือไม่แน่ใจว่าโมเดล AI ของพวกเขาถูกโจมตีหรือไม่”

รายงาน Hidden Layer จะระบุการโจมตีหลักสามประเภทบนระบบ AI: การโจมตีการเรียนรู้ของเครื่องของฝ่ายตรงข้ามที่พยายามเปลี่ยนพฤติกรรมของอัลกอริทึม; การโจมตี AI แบบเจนเนอเรชั่นที่พยายามหลีกเลี่ยงกลไกด้านความปลอดภัยและเรียกร้องเนื้อหาส่วนตัวหรือที่เป็นอันตราย และการโจมตีห่วงโซ่อุปทาน ซึ่งในขณะเดียวกันก็คล้ายคลึงกับการโจมตีห่วงโซ่อุปทานของซอฟต์แวร์ทั่วไป มีลักษณะเฉพาะของตนเอง ที่เกี่ยวข้องกับเอไอ

คำแนะนำของ NSA ส่วนใหญ่นำไปใช้กับความปลอดภัยด้านไอทีทั่วไป เช่น การทำความเข้าใจสภาพแวดล้อมที่มีการปรับใช้ AI และตรวจสอบให้แน่ใจว่ามีการกำกับดูแลและการควบคุมที่เหมาะสม

แต่ยังมีเรื่องเล็กน้อยเกี่ยวกับการตรวจสอบโมเดล AI อย่างต่อเนื่อง ผู้ที่ใช้ระบบ AI ไม่ควรคาดหวังที่จะลงนามและเสร็จสิ้นด้วยการรักษาความปลอดภัยของ AI NSA ให้คำแนะนำไม่เพียงแต่การตรวจสอบระบบ AI ก่อนและระหว่างการใช้งานเท่านั้น แต่ยังรักษาความปลอดภัยของ API ที่ถูกเปิดเผย การตรวจสอบพฤติกรรมของโมเดลอย่างแข็งขัน การปกป้องน้ำหนักของโมเดล การบังคับใช้การควบคุมการเข้าถึง การฝึกอบรมผู้ใช้ การตรวจสอบ การทดสอบการเจาะระบบ และอื่นๆ

“ท้ายที่สุดแล้ว การรักษาความปลอดภัยของระบบ AI เกี่ยวข้องกับกระบวนการอย่างต่อเนื่องในการระบุความเสี่ยง การดำเนินการบรรเทาที่เหมาะสม และการติดตามปัญหา” CSI กล่าวสรุป “ด้วยการทำตามขั้นตอนที่ระบุไว้ในรายงานนี้เพื่อความปลอดภัยในการใช้งานและการทำงานของระบบ AI องค์กรสามารถลดความเสี่ยงที่เกี่ยวข้องได้อย่างมาก”

และเช่นเดียวกับคำแนะนำด้านความปลอดภัยด้านไอทีทั่วไป องค์กรที่เห็นระบบ AI ของตนถูกบุกรุกจะสงสัยว่าเหตุใดพวกเขาจึงไม่ระมัดระวังมากขึ้นเมื่อมีโอกาส

จุด_img

ข่าวกรองล่าสุด

จุด_img

แชทกับเรา

สวัสดี! ฉันจะช่วยคุณได้อย่างไร?