Platón adatintelligencia.
Vertical Search & Ai.

A GPT-4 csak a fenyegetésekkel kapcsolatos figyelmeztetések elolvasásával képes kihasználni a legtöbb vészhelyzetet

Találka:

A GPT-4-gyel felszerelt mesterséges intelligencia-ügynökök kihasználhatják a legtöbb nyilvános sebezhetőséget, amelyek ma a való világ rendszereit érintik, egyszerűen csak online olvasnak róluk.

Új eredmények Az Illinois Egyetem Urbana-Champaign (UIUC) munkatársai azzal fenyegetőznek, hogy radikálisan felélénkítik a mesterséges intelligencia (AI) által támogatott kiberfenyegetések 18 hónapos, kissé lassú ütemét. A fenyegetés szereplői eddig használtak nagy nyelvi modellek (LLM-ek) adathalász e-mailek előállításához, együtt néhány alapvető rosszindulatú program, és a kampányaik kiegészítő vonatkozásaiban. Most azonban, mivel csak a GPT-4 és egy nyílt forráskódú keretrendszer csomagolja be, képesek automatizálni a sebezhetőségek kihasználását, amint sajtó alá kerülnek.

„Nem vagyok biztos abban, hogy esettanulmányaink segítenek-e tájékoztatni a fenyegetések megállításáról” – vallja be Daniel Kang, az egyik kutató. „Úgy gondolom, hogy a kiberfenyegetések csak növekedni fognak, ezért a szervezeteknek erősen fontolóra kell venniük a legjobb biztonsági gyakorlatok alkalmazását.”

GPT-4 kontra CVE

Annak felméréséhez, hogy az LLM-ek képesek-e kihasználni a valós rendszereket, az UIUC négy kutatói csoportjának először egy tesztalanyra volt szüksége.

Az LLM-ügynökük négy komponensből állt: egy promptból, egy alap LLM-ből, egy keretrendszerből – jelen esetben a ReActból, ahogyan a LangChainben implementálták – és olyan eszközökből, mint a terminál és a kódértelmező.

Az ügynököt a nyílt forráskódú szoftverek (OSS) 15 ismert sebezhetőségén tesztelték. Köztük: webhelyeket, konténereket és Python-csomagokat érintő hibák. Nyolcan kaptak „magas” vagy „kritikus” CVE súlyossági pontszámot. 11-et hoztak nyilvánosságra a GPT-4 betanításának időpontja után, ami azt jelenti, hogy ez lesz az első alkalom, hogy a modellt megismertették velük.

Mivel csak a biztonsági tanácsaikat folytatták, az AI-ügynök feladata volt, hogy minden hibát sorban kihasználjon. A kísérlet eredményei éles képet festettek.

A 10 értékelt modell közül – köztük a GPT-3.5, a Meta's Llama 2 Chat és még sok más – kilenc egyetlen sebezhetőséget sem tudott feltörni.

A GPT-4 azonban 13-at, vagyis az összes 87%-át sikeresen kihasználta.

Csak kétszer bukott meg teljesen hétköznapi okokból. A CVE-2024-25640, az Iris incidensreagáló platform 4.6-os CVSS-besorolású problémája, sértetlenül megúszta az Iris alkalmazásának navigálása során tapasztalt furcsaság miatt, amelyet a modell nem tudott kezelni. Eközben a kutatók azt feltételezték, hogy a GPT-4 hiányzott a CVE-2023-51653-ból – ez egy 9.8-as „kritikus” hiba a Hertzbeat megfigyelőeszközben, mivel a leírása kínai nyelven íródott.

Ahogy Kang elmagyarázza: „A GPT-4 számos feladatban felülmúlja más modellek széles körét. Ez magában foglalja a szabványos benchmarkokat (MMLU stb.). Az is látszik, hogy a GPT-4 sokkal jobb a tervezésben. Sajnos, mivel az OpenAI nem hozta nyilvánosságra a képzés részleteit, nem tudjuk biztosan, miért.”

GPT-4 Jó

Bármennyire is fenyegetőek a rosszindulatú LLM-ek, Kang azt mondja: „Jelen pillanatban ez nem szabadít fel olyan új képességeket, amelyeket egy szakértő ember ne tudna megtenni. Ezért fontosnak tartom, hogy a szervezetek bevált biztonsági gyakorlatokat alkalmazzanak a feltörések elkerülése érdekében, mivel ezeket az AI-ügynököket rosszindulatúbb módokon kezdik használni.”

Ha a hackerek LLM-ügynököket kezdenek használni a nyilvános sebezhetőségek automatikus kihasználására, a vállalatok többé nem tudnak hátradőlni és várni az új hibák kijavítására (ha volt ilyen). És lehet, hogy el kell kezdeniük ugyanazokat az LLM-technológiákat használni, ahogyan azt ellenfeleik is fogják.

De még a GPT-4-nek is van még néhány lépése, hogy tökéletes biztonsági asszisztenssé váljon – figyelmeztet Henrik Plate, az Endor Labs biztonsági kutatója. A legutóbbi kísérletekben a Plate a ChatGPT-t és a Google Vertex AI-t bízta meg ezzel az OSS minták rosszindulatú vagy jóindulatúként történő azonosításaés kockázati pontszámokat rendel hozzájuk. A GPT-4 felülmúlta az összes többi modellt a forráskód magyarázata és az olvasható kód értékelése terén, de mindegyik modell számos téves pozitív és hamis negatív eredményt adott.

Az elhomályosítás például nagy akadozó pont volt. „Az LLM-nek nagyon gyakran úgy tűnt, mintha [a kódot] szándékosan megzavarták volna, hogy megnehezítsék a kézi ellenőrzést. De gyakran csak törvényes célból csökkentették a méretét” – magyarázza Plate.

„Annak ellenére, hogy az LLM-alapú értékelést nem szabad manuális felülvizsgálatok helyett használni” – írta Plate egyik jelentésében, „minden bizonnyal használhatók további jelként és bemenetként a kézi felülvizsgálatokhoz. Különösen hasznosak lehetnek a zajos detektorok által keltett, nagyobb számú rosszindulatú programjelek automatikus ellenőrzésére (amelyek egyébként korlátozott áttekintési képességek esetén teljes figyelmen kívül hagyásra kerülnek).

spot_img

Legújabb intelligencia

spot_img

Beszélj velünk

Szia! Miben segíthetek?