A GPT-4-gyel felszerelt mesterséges intelligencia-ügynökök kihasználhatják a legtöbb nyilvános sebezhetőséget, amelyek ma a való világ rendszereit érintik, egyszerűen csak online olvasnak róluk.
Új eredmények Az Illinois Egyetem Urbana-Champaign (UIUC) munkatársai azzal fenyegetőznek, hogy radikálisan felélénkítik a mesterséges intelligencia (AI) által támogatott kiberfenyegetések 18 hónapos, kissé lassú ütemét. A fenyegetés szereplői eddig használtak nagy nyelvi modellek (LLM-ek) adathalász e-mailek előállításához, együtt néhány alapvető rosszindulatú program, és a kampányaik kiegészítő vonatkozásaiban. Most azonban, mivel csak a GPT-4 és egy nyílt forráskódú keretrendszer csomagolja be, képesek automatizálni a sebezhetőségek kihasználását, amint sajtó alá kerülnek.
„Nem vagyok biztos abban, hogy esettanulmányaink segítenek-e tájékoztatni a fenyegetések megállításáról” – vallja be Daniel Kang, az egyik kutató. „Úgy gondolom, hogy a kiberfenyegetések csak növekedni fognak, ezért a szervezeteknek erősen fontolóra kell venniük a legjobb biztonsági gyakorlatok alkalmazását.”
GPT-4 kontra CVE
Annak felméréséhez, hogy az LLM-ek képesek-e kihasználni a valós rendszereket, az UIUC négy kutatói csoportjának először egy tesztalanyra volt szüksége.
Az LLM-ügynökük négy komponensből állt: egy promptból, egy alap LLM-ből, egy keretrendszerből – jelen esetben a ReActból, ahogyan a LangChainben implementálták – és olyan eszközökből, mint a terminál és a kódértelmező.
Az ügynököt a nyílt forráskódú szoftverek (OSS) 15 ismert sebezhetőségén tesztelték. Köztük: webhelyeket, konténereket és Python-csomagokat érintő hibák. Nyolcan kaptak „magas” vagy „kritikus” CVE súlyossági pontszámot. 11-et hoztak nyilvánosságra a GPT-4 betanításának időpontja után, ami azt jelenti, hogy ez lesz az első alkalom, hogy a modellt megismertették velük.
Mivel csak a biztonsági tanácsaikat folytatták, az AI-ügynök feladata volt, hogy minden hibát sorban kihasználjon. A kísérlet eredményei éles képet festettek.
A 10 értékelt modell közül – köztük a GPT-3.5, a Meta's Llama 2 Chat és még sok más – kilenc egyetlen sebezhetőséget sem tudott feltörni.
A GPT-4 azonban 13-at, vagyis az összes 87%-át sikeresen kihasználta.
Csak kétszer bukott meg teljesen hétköznapi okokból. A CVE-2024-25640, az Iris incidensreagáló platform 4.6-os CVSS-besorolású problémája, sértetlenül megúszta az Iris alkalmazásának navigálása során tapasztalt furcsaság miatt, amelyet a modell nem tudott kezelni. Eközben a kutatók azt feltételezték, hogy a GPT-4 hiányzott a CVE-2023-51653-ból – ez egy 9.8-as „kritikus” hiba a Hertzbeat megfigyelőeszközben, mivel a leírása kínai nyelven íródott.
Ahogy Kang elmagyarázza: „A GPT-4 számos feladatban felülmúlja más modellek széles körét. Ez magában foglalja a szabványos benchmarkokat (MMLU stb.). Az is látszik, hogy a GPT-4 sokkal jobb a tervezésben. Sajnos, mivel az OpenAI nem hozta nyilvánosságra a képzés részleteit, nem tudjuk biztosan, miért.”
GPT-4 Jó
Bármennyire is fenyegetőek a rosszindulatú LLM-ek, Kang azt mondja: „Jelen pillanatban ez nem szabadít fel olyan új képességeket, amelyeket egy szakértő ember ne tudna megtenni. Ezért fontosnak tartom, hogy a szervezetek bevált biztonsági gyakorlatokat alkalmazzanak a feltörések elkerülése érdekében, mivel ezeket az AI-ügynököket rosszindulatúbb módokon kezdik használni.”
Ha a hackerek LLM-ügynököket kezdenek használni a nyilvános sebezhetőségek automatikus kihasználására, a vállalatok többé nem tudnak hátradőlni és várni az új hibák kijavítására (ha volt ilyen). És lehet, hogy el kell kezdeniük ugyanazokat az LLM-technológiákat használni, ahogyan azt ellenfeleik is fogják.
De még a GPT-4-nek is van még néhány lépése, hogy tökéletes biztonsági asszisztenssé váljon – figyelmeztet Henrik Plate, az Endor Labs biztonsági kutatója. A legutóbbi kísérletekben a Plate a ChatGPT-t és a Google Vertex AI-t bízta meg ezzel az OSS minták rosszindulatú vagy jóindulatúként történő azonosításaés kockázati pontszámokat rendel hozzájuk. A GPT-4 felülmúlta az összes többi modellt a forráskód magyarázata és az olvasható kód értékelése terén, de mindegyik modell számos téves pozitív és hamis negatív eredményt adott.
Az elhomályosítás például nagy akadozó pont volt. „Az LLM-nek nagyon gyakran úgy tűnt, mintha [a kódot] szándékosan megzavarták volna, hogy megnehezítsék a kézi ellenőrzést. De gyakran csak törvényes célból csökkentették a méretét” – magyarázza Plate.
„Annak ellenére, hogy az LLM-alapú értékelést nem szabad manuális felülvizsgálatok helyett használni” – írta Plate egyik jelentésében, „minden bizonnyal használhatók további jelként és bemenetként a kézi felülvizsgálatokhoz. Különösen hasznosak lehetnek a zajos detektorok által keltett, nagyobb számú rosszindulatú programjelek automatikus ellenőrzésére (amelyek egyébként korlátozott áttekintési képességek esetén teljes figyelmen kívül hagyásra kerülnek).
- SEO által támogatott tartalom és PR terjesztés. Erősödjön még ma.
- PlatoData.Network Vertical Generative Ai. Erősítse meg magát. Hozzáférés itt.
- PlatoAiStream. Web3 Intelligence. Felerősített tudás. Hozzáférés itt.
- PlatoESG. Carbon, CleanTech, Energia, Környezet, Nap, Hulladékgazdálkodás. Hozzáférés itt.
- PlatoHealth. Biotechnológiai és klinikai vizsgálatok intelligencia. Hozzáférés itt.
- Forrás: https://www.darkreading.com/threat-intelligence/gpt-4-can-exploit-most-vulns-just-by-reading-threat-advisories