Trí thông minh dữ liệu Plato.
Tìm kiếm dọc & Ai.

GPT-4 có thể khai thác các lỗ hổng thực sự bằng cách đọc các lời khuyên

Ngày:

Các tác nhân AI, kết hợp các mô hình ngôn ngữ lớn với phần mềm tự động hóa, có thể khai thác thành công các lỗ hổng bảo mật trong thế giới thực bằng cách đọc các tư vấn bảo mật, các học giả tuyên bố.

Trong một mới phát hành giấy, bốn nhà khoa học máy tính của Đại học Illinois Urbana-Champaign (UIUC) – Richard Fang, Rohan Bindu, Akul Gupta và Daniel Kang – báo cáo rằng mô hình ngôn ngữ lớn GPT-4 (LLM) của OpenAI có thể tự động khai thác các lỗ hổng trong các hệ thống trong thế giới thực nếu được cung cấp một lời khuyên CVE mô tả lỗ hổng.

Các tác giả có trụ sở tại Hoa Kỳ giải thích trong bài báo của họ: “Để chứng minh điều này, chúng tôi đã thu thập một tập dữ liệu gồm 15 lỗ hổng trong một ngày, bao gồm các lỗ hổng được phân loại là mức độ nghiêm trọng nghiêm trọng trong mô tả CVE”.

“Khi được cung cấp mô tả CVE, GPT-4 có khả năng khai thác 87% số lỗ hổng này so với 0% đối với mọi mô hình khác mà chúng tôi kiểm tra (GPT-3.5, LLM nguồn mở) và trình quét lỗ hổng nguồn mở (ZAP và Metasploit) .”

Nếu bạn ngoại suy những gì các mô hình trong tương lai có thể làm, có vẻ như chúng sẽ có khả năng cao hơn nhiều so với những gì mà những đứa trẻ viết kịch bản có thể tiếp cận ngày nay

Thuật ngữ “lỗ hổng một ngày” dùng để chỉ các lỗ hổng đã được tiết lộ nhưng chưa được vá. Và theo mô tả CVE, nhóm muốn nói đến lời khuyên được gắn thẻ CVE được NIST chia sẻ – ví dụ: này cho CVE-2024-28859.

Các mô hình đã được thử nghiệm không thành công – GPT-3.5, OpenHermes-2.5-Mistral-7B, Llama-2 Chat (70B), LLaMA-2 Chat (13B), LLaMA-2 Chat (7B), Mixtral-8x7B Instruct, Mistral (7B) Instruct v0.2, Nous Hermes-2 Yi 34B và OpenChat 3.5 – không có hai đối thủ thương mại hàng đầu của GPT-4 là Claude 3 của Anthropic và Gemini 1.5 Pro của Google. Các nhà nghiên cứu UIUC không có quyền truy cập vào các mô hình đó, mặc dù họ hy vọng sẽ kiểm tra chúng vào một lúc nào đó.

Công việc của các nhà nghiên cứu được xây dựng dựa trên những phát hiện trước đó rằng LLM có thể được sử dụng để tự động hóa các cuộc tấn công vào các trang web trong môi trường hộp cát.

GPT-4, Daniel Kang, trợ lý giáo sư tại UIUC, cho biết trong một email tới Đăng ký, “thực sự có thể tự động thực hiện các bước để thực hiện một số cách khai thác nhất định mà máy quét lỗ hổng nguồn mở không thể tìm thấy (tại thời điểm viết bài).”

Kang cho biết anh mong đợi các đại lý LLM, được tạo ra bằng cách (trong trường hợp này) kết nối mô hình chatbot với Phản ứng Khung tự động hóa được triển khai trong LangChain sẽ giúp mọi người khai thác dễ dàng hơn nhiều. Chúng tôi được biết các đại lý này có thể theo các liên kết trong mô tả CVE để biết thêm thông tin.

Ông nói: “Ngoài ra, nếu bạn ngoại suy những gì GPT-5 và các mẫu tương lai có thể làm, có vẻ như chúng sẽ có khả năng cao hơn nhiều so với những gì mà lũ trẻ viết kịch bản có thể tiếp cận ngày nay”.

Việc từ chối quyền truy cập của tác nhân LLM (GPT-4) vào mô tả CVE có liên quan đã làm giảm tỷ lệ thành công của nó từ 87% xuống chỉ còn XNUMX%. Tuy nhiên, Kang cho biết anh không tin rằng việc hạn chế công khai thông tin bảo mật là một cách khả thi để chống lại các tác nhân LLM.

Ông giải thích: “Cá nhân tôi không nghĩ rằng bảo mật thông qua sự tối nghĩa là có thể sử dụng được, điều này dường như là quan điểm phổ biến của các nhà nghiên cứu bảo mật”. “Tôi hy vọng công việc của tôi và các công việc khác sẽ khuyến khích các biện pháp bảo mật chủ động như cập nhật gói thường xuyên khi có bản vá bảo mật.”

Tác nhân LLM không khai thác được chỉ hai trong số 15 mẫu: Iris XSS (CVE-2024-25640) và Hertzbeat RCE (CVE-2023-51653). Theo bài báo, ứng dụng trước đây tỏ ra có vấn đề vì ứng dụng web Iris có giao diện khiến nhân viên cực kỳ khó điều hướng. Và phần sau có mô tả chi tiết bằng tiếng Trung, điều này có lẽ đã gây nhầm lẫn cho tác nhân LLM hoạt động theo lời nhắc bằng tiếng Anh.

Mười một lỗ hổng được kiểm tra đã xảy ra sau thời gian ngừng đào tạo của GPT-4, có nghĩa là mô hình chưa tìm hiểu được bất kỳ dữ liệu nào về chúng trong quá trình đào tạo. Tỷ lệ thành công của nó đối với các CVE này thấp hơn một chút ở mức 82%, tương đương 9 trên 11.

Về bản chất của các lỗi, tất cả chúng đều được liệt kê trong bài báo trên và chúng tôi được thông báo: “Các lỗ hổng của chúng tôi bao gồm các lỗ hổng trang web, lỗ hổng vùng chứa và các gói Python dễ bị tấn công. Hơn một nửa được phân loại là mức độ nghiêm trọng 'cao' hoặc 'nghiêm trọng' theo mô tả CVE.”

Kang và các đồng nghiệp của ông đã tính toán chi phí để thực hiện một cuộc tấn công đặc vụ LLM thành công và đưa ra con số 8.80 USD cho mỗi lần khai thác, theo họ là thấp hơn khoảng 2.8 lần so với chi phí thuê một người kiểm tra sự xâm nhập của con người trong 30 phút.

Theo Kang, mã tác nhân chỉ bao gồm 91 dòng mã và 1,056 mã thông báo cho lời nhắc. Các nhà nghiên cứu đã được OpenAI, nhà sản xuất GPT-4, yêu cầu không đưa ra lời nhắc của họ cho công chúng, mặc dù họ nói rằng họ sẽ cung cấp chúng theo yêu cầu.

OpenAI đã không trả lời ngay lập tức yêu cầu bình luận. ®

tại chỗ_img

Tin tức mới nhất

tại chỗ_img

Trò chuyện trực tiếp với chúng tôi (chat)

Chào bạn! Làm thế nào để tôi giúp bạn?