Platón adatintelligencia.
Vertical Search & Ai.

Az NSA elsősorban a védelmi technológiai világ számára kínál AI biztonsági tanácsokat

Találka:

Az NSA útmutatást adott ki, hogy segítse a szervezeteket mesterséges intelligencia-rendszereik védelmében és a védelmi ipar jobb védelmében.

A kiberbiztonsági információs lap (CSI) „Az AI-rendszerek biztonságos telepítése: A biztonságos és rugalmas mesterségesintelligencia-rendszerek telepítésének legjobb gyakorlatai” a felügyeleti szuperügynökség által tavaly ősszel létrehozott Mesterséges Intelligencia Biztonsági Központ (AISC) első védjegye. a Kiberbiztonsági Együttműködési Központ részeként (CCC), a kormányzat és az ipar együttműködése az érintett szervezetek védelmében Védelmi Ipari Bázis.

Ez a CSI [PDF] más amerikai ügynökségekkel, köztük a CISA-val és az FBI-val, valamint Ausztráliában, Kanadában, Új-Zélandon és az Egyesült Királyságban működő megfelelőkkel együttműködve fejlesztették ki.

A mesterséges intelligencia-rendszerekre vonatkozó külön biztonsági útmutatás indoka az, hogy a fenyegetés szereplői különböző taktikákat alkalmazhatnak a gépi tanulási modellek és alkalmazások felforgatására.

A támadási vektorok sokfélesége miatt a védekezésnek sokrétűnek és átfogónak kell lennie

„A mesterséges intelligencia rendszereit megcélzó rosszindulatú szereplők az AI-rendszerekre jellemző egyedi támadási vektorokat, valamint a hagyományos IT ellen használt szabványos technikákat használhatják” – olvasható a CSI-ben. "A támadási vektorok sokfélesége miatt a védekezésnek sokrétűnek és átfogónak kell lennie."

Úgy tűnik, hogy jobb mesterséges intelligencia biztonságra van szükség, ami talán nem meglepő, mivel általában jobb kiberbiztonságra van szükség. Abban 2024. évi mesterséges intelligencia-táji jelentés, a Hidden Layer biztonsági szállító azt állította: „A vállalatok 77 százaléka számolt be arról, hogy az elmúlt évben megsértették az AI-t. A többiek bizonytalanok voltak abban, hogy mesterséges intelligencia modelljeik láttak-e támadást.”

A Hidden Layer jelentés az AI-rendszerek elleni támadások három elsődleges típusát azonosítja: Ellenkező gépi tanulási támadások, amelyek megpróbálják megváltoztatni az algoritmus viselkedését; generatív mesterséges intelligencia támadások, amelyek megpróbálják megkerülni a biztonsági mechanizmusokat, és személyes vagy káros tartalmakat kérni; és az ellátási lánc támadásai, amelyek bár hasonlóak az általános szoftveres ellátási lánc támadásokhoz megvannak a saját egyedi jellemzőik AI-val kapcsolatos.

Az NSA útmutatásainak nagy része az általános IT-biztonságra vonatkozik, például a mesterséges intelligencia alkalmazási környezeteinek megértésére, valamint a megfelelő irányítás és ellenőrzések meglétére.

De az AI-modellek folyamatos monitorozásáról is elég kevés szó van. Az AI-rendszereket alkalmazók ne számítsanak arra, hogy kijelentkeznek, és végeznek az AI-biztonsággal. Az NSA nem csak az AI-rendszerek használat előtti és alatti érvényesítését tanácsolja, hanem a kitett API-k védelmét, a modell viselkedésének aktív nyomon követését, a modell súlyának megőrzését, a hozzáférés-ellenőrzések betartatását, a felhasználók képzését, auditálását, behatolási tesztelését és így tovább.

„Végül egy mesterséges intelligencia-rendszer biztonságossá tétele magában foglalja a kockázatok azonosításának, a megfelelő mérséklések végrehajtásának és a problémák figyelésének folyamatos folyamatát” – zárta a CSI. „Az AI-rendszerek telepítésének és működésének biztosítására irányuló, ebben a jelentésben felvázolt lépésekkel egy szervezet jelentősen csökkentheti az ezzel járó kockázatokat.”

És az általános IT-biztonsági ajánlásokhoz hasonlóan azok a szervezetek, amelyek úgy látják, hogy mesterséges intelligencia rendszereik veszélybe kerültek, csodálkoznak, miért nem voltak óvatosabbak, amikor lehetőségük nyílt rá. ®

spot_img

Legújabb intelligencia

spot_img

Beszélj velünk

Szia! Miben segíthetek?