NSA ได้เผยแพร่คำแนะนำเพื่อช่วยให้องค์กรต่างๆ ปกป้องระบบ AI ของตน และปกป้องอุตสาหกรรมการป้องกันประเทศได้ดียิ่งขึ้น
เอกสารข้อมูลความปลอดภัยทางไซเบอร์ (CSI) ในหัวข้อ “การปรับใช้ระบบ AI อย่างปลอดภัย: แนวทางปฏิบัติที่ดีที่สุดสำหรับการปรับใช้ระบบ AI ที่ปลอดภัยและยืดหยุ่น” แสดงถึงการระดมพลครั้งแรกจากศูนย์รักษาความปลอดภัยปัญญาประดิษฐ์ (AISC) ซึ่งก่อตั้งโดยหน่วยงานเฝ้าระวังระดับสูงเมื่อฤดูใบไม้ร่วงปีที่แล้ว ซึ่งเป็นส่วนหนึ่งของศูนย์ความร่วมมือด้านความปลอดภัยทางไซเบอร์ (CCC) ความร่วมมือระหว่างภาครัฐและอุตสาหกรรมเพื่อปกป้ององค์กรที่เกี่ยวข้องในการ ฐานอุตสาหกรรมกลาโหม.
ซีเอสไอนี้ [รูปแบบไฟล์ PDF] ได้รับการพัฒนาโดยการปรึกษาหารือกับหน่วยงานอื่นๆ ของสหรัฐอเมริกา รวมถึง CISA และ FBI ตลอดจนหน่วยงานในออสเตรเลีย แคนาดา นิวซีแลนด์ และสหราชอาณาจักร
เหตุผลในการมีคำแนะนำด้านความปลอดภัยที่ชัดเจนสำหรับระบบ AI ก็คือผู้คุกคามอาจใช้กลยุทธ์ที่แตกต่างกันเพื่อล้มล้างโมเดลการเรียนรู้ของเครื่องและแอปพลิเคชัน
เนื่องจากเวกเตอร์การโจมตีที่หลากหลาย การป้องกันจึงต้องมีความหลากหลายและครอบคลุม
“ผู้ประสงค์ร้ายที่กำหนดเป้าหมายระบบ AI อาจใช้เวกเตอร์การโจมตีที่เป็นเอกลักษณ์เฉพาะของระบบ AI รวมถึงเทคนิคมาตรฐานที่ใช้กับไอทีแบบดั้งเดิม” CSI อ่าน “เนื่องจากเวกเตอร์การโจมตีที่หลากหลาย การป้องกันจึงต้องมีความหลากหลายและครอบคลุม”
ดูเหมือนจะมีความจำเป็นในการรักษาความปลอดภัย AI ที่ดีขึ้น ซึ่งอาจจะไม่น่าแปลกใจเนื่องจากมีความต้องการความปลอดภัยทางไซเบอร์ที่ดีขึ้นโดยทั่วไป ในนั้น รายงานภาพรวมภัยคุกคามจาก AI ปี 2024ผู้จำหน่ายระบบรักษาความปลอดภัย Hidden Layer อ้างว่า “77 เปอร์เซ็นต์ของบริษัทรายงานว่าระบุการละเมิด AI ของตนในปีที่ผ่านมา ที่เหลือไม่แน่ใจว่าโมเดล AI ของพวกเขาถูกโจมตีหรือไม่”
รายงาน Hidden Layer จะระบุการโจมตีหลักสามประเภทบนระบบ AI: การโจมตีการเรียนรู้ของเครื่องของฝ่ายตรงข้ามที่พยายามเปลี่ยนพฤติกรรมของอัลกอริทึม; การโจมตี AI แบบเจนเนอเรชั่นที่พยายามหลีกเลี่ยงกลไกด้านความปลอดภัยและเรียกร้องเนื้อหาส่วนตัวหรือที่เป็นอันตราย และการโจมตีห่วงโซ่อุปทาน ซึ่งในขณะเดียวกันก็คล้ายคลึงกับการโจมตีห่วงโซ่อุปทานของซอฟต์แวร์ทั่วไป มีลักษณะเฉพาะของตนเอง ที่เกี่ยวข้องกับเอไอ
คำแนะนำของ NSA ส่วนใหญ่นำไปใช้กับความปลอดภัยด้านไอทีทั่วไป เช่น การทำความเข้าใจสภาพแวดล้อมที่มีการปรับใช้ AI และตรวจสอบให้แน่ใจว่ามีการกำกับดูแลและการควบคุมที่เหมาะสม
แต่ยังมีเรื่องเล็กน้อยเกี่ยวกับการตรวจสอบโมเดล AI อย่างต่อเนื่อง ผู้ที่ใช้ระบบ AI ไม่ควรคาดหวังที่จะลงนามและเสร็จสิ้นด้วยการรักษาความปลอดภัยของ AI NSA ให้คำแนะนำไม่เพียงแต่การตรวจสอบระบบ AI ก่อนและระหว่างการใช้งานเท่านั้น แต่ยังรักษาความปลอดภัยของ API ที่ถูกเปิดเผย การตรวจสอบพฤติกรรมของโมเดลอย่างแข็งขัน การปกป้องน้ำหนักของโมเดล การบังคับใช้การควบคุมการเข้าถึง การฝึกอบรมผู้ใช้ การตรวจสอบ การทดสอบการเจาะระบบ และอื่นๆ
“ท้ายที่สุดแล้ว การรักษาความปลอดภัยของระบบ AI เกี่ยวข้องกับกระบวนการอย่างต่อเนื่องในการระบุความเสี่ยง การดำเนินการบรรเทาที่เหมาะสม และการติดตามปัญหา” CSI กล่าวสรุป “ด้วยการทำตามขั้นตอนที่ระบุไว้ในรายงานนี้เพื่อความปลอดภัยในการใช้งานและการทำงานของระบบ AI องค์กรสามารถลดความเสี่ยงที่เกี่ยวข้องได้อย่างมาก”
และเช่นเดียวกับคำแนะนำด้านความปลอดภัยด้านไอทีทั่วไป องค์กรที่เห็นระบบ AI ของตนถูกบุกรุกจะสงสัยว่าเหตุใดพวกเขาจึงไม่ระมัดระวังมากขึ้นเมื่อมีโอกาส
- เนื้อหาที่ขับเคลื่อนด้วย SEO และการเผยแพร่ประชาสัมพันธ์ รับการขยายวันนี้
- PlatoData.Network Vertical Generative Ai เพิ่มพลังให้กับตัวเอง เข้าถึงได้ที่นี่.
- เพลโตไอสตรีม. Web3 อัจฉริยะ ขยายความรู้ เข้าถึงได้ที่นี่.
- เพลโตESG. คาร์บอน, คลีนเทค, พลังงาน, สิ่งแวดล้อม แสงอาทิตย์, การจัดการของเสีย. เข้าถึงได้ที่นี่.
- เพลโตสุขภาพ เทคโนโลยีชีวภาพและข่าวกรองการทดลองทางคลินิก เข้าถึงได้ที่นี่.
- ที่มา: https://go.theregister.com/feed/www.theregister.com/2024/04/17/us_national_security_agency_publishes/