- AI Agents Are Getting Better at Writing Code—and Hacking It as Well
- One of the best bug-hunters in the world is an AI tool called Xbow, just one of many signs of the coming age of cybersecurity automation.
AI Đi Săn Lỗi
Will Knight, Nhà văn cao cấp
Các mô hình trí tuệ nhân tạo (AI) mới nhất không chỉ có khả năng đáng kể trong kỹ thuật phần mềm—nghiên cứu mới cho thấy chúng ngày càng giỏi hơn trong việc tìm lỗi trong phần mềm.
Các nhà nghiên cứu AI tại UC Berkeley đã kiểm tra mức độ hiệu quả của các mô hình và tác nhân AI mới nhất trong việc tìm ra các lỗ hổng trong 188 cơ sở mã nguồn mở lớn. Sử dụng một chuẩn mực mới có tên CyberGym, các mô hình AI đã xác định 17 lỗi mới, bao gồm 15 lỗi chưa từng biết đến, hoặc lỗi “zero-day”. “Nhiều lỗ hổng trong số này là rất quan trọng,” theo Dawn Song, một giáo sư tại UC Berkeley, người đã dẫn đầu công trình nghiên cứu.
Nhiều chuyên gia kỳ vọng các mô hình AI sẽ trở thành những vũ khí an ninh mạng đáng gờm. Một công cụ AI từ công ty khởi nghiệp Xbow hiện đã vươn lên trong bảng xếp hạng của HackerOne để săn lỗi và hiện đang ở vị trí dẫn đầu. Gần đây, công ty đã công bố khoản tài trợ mới trị giá 75 triệu đô la.
Song nói rằng các kỹ năng viết mã của các mô hình AI mới nhất kết hợp với khả năng lập luận ngày càng được cải thiện đang bắt đầu thay đổi bối cảnh an ninh mạng. “Đây là một thời điểm then chốt,” cô nói. “Nó thực sự vượt quá mong đợi chung của chúng tôi.”
Khi các mô hình tiếp tục được cải thiện, chúng sẽ tự động hóa quá trình khám phá và khai thác các lỗ hổng bảo mật. Điều này có thể giúp các công ty giữ an toàn cho phần mềm của họ nhưng cũng có thể hỗ trợ tin tặc đột nhập vào hệ thống. Song nói: “Chúng tôi thậm chí còn không cố gắng quá nhiều. “Nếu chúng tôi tăng ngân sách, cho phép các tác nhân chạy lâu hơn, chúng có thể làm tốt hơn nữa.”
Nhóm UC Berkeley đã thử nghiệm các mô hình AI tiên tiến thông thường từ OpenAI, Google và Anthropic, cũng như các dịch vụ nguồn mở từ Meta, DeepSeek và Alibaba kết hợp với một số tác nhân để tìm lỗi, bao gồm OpenHands, Cybench và EnIGMA.
Các nhà nghiên cứu đã sử dụng các mô tả về các lỗ hổng phần mềm đã biết từ 188 dự án phần mềm. Sau đó, họ cung cấp các mô tả cho các tác nhân an ninh mạng được hỗ trợ bởi các mô hình AI tiên tiến để xem liệu chúng có thể tự xác định các lỗi tương tự bằng cách phân tích các cơ sở mã mới, chạy các bài kiểm tra và tạo ra các khai thác bằng chứng khái niệm hay không. Nhóm cũng yêu cầu các tác nhân tự tìm kiếm các lỗ hổng mới trong các cơ sở mã.
Thông qua quá trình này, các công cụ AI đã tạo ra hàng trăm khai thác bằng chứng khái niệm và trong số các khai thác này, các nhà nghiên cứu đã xác định được 15 lỗ hổng chưa từng thấy trước đây và hai lỗ hổng đã được tiết lộ và vá trước đó. Công việc này bổ sung bằng chứng ngày càng tăng rằng AI có thể tự động hóa việc khám phá các lỗ hổng zero-day, vốn có khả năng nguy hiểm (và có giá trị) vì chúng có thể cung cấp một cách để hack các hệ thống trực tiếp.
AI dường như sẽ trở thành một phần quan trọng của ngành an ninh mạng.
Chuyên gia bảo mật Sean Heelan gần đây đã phát hiện ra một lỗ hổng zero-day trong nhân Linux được sử dụng rộng rãi với sự trợ giúp của mô hình lập luận o3 của OpenAI. Tháng 11 năm ngoái, Google đã thông báo rằng họ đã phát hiện ra một lỗ hổng phần mềm chưa từng biết trước đây bằng AI thông qua một chương trình có tên là Project Zero.
Giống như các bộ phận khác của ngành phần mềm, nhiều công ty an ninh mạng đang say mê với tiềm năng của AI. Công trình mới thực sự cho thấy rằng AI có thể thường xuyên tìm thấy những sai sót mới, nhưng nó cũng làm nổi bật những hạn chế còn lại với công nghệ này. Các hệ thống AI không thể tìm thấy hầu hết các sai sót và bị bối rối bởi những sai sót đặc biệt phức tạp.
“Công việc thật tuyệt vời,” theo Katie Moussouris, người sáng lập và Giám đốc điều hành của Luta Security, một phần vì nó cho thấy AI vẫn không thể sánh bằng chuyên môn của con người—sự kết hợp tốt nhất giữa mô hình và tác nhân (Claude và OpenHands) chỉ có thể tìm thấy khoảng 2% các lỗ hổng. Moussouris nói: “Đừng thay thế những người đi săn lỗi của bạn bằng con người.”
Moussouris cho biết cô ít lo lắng về việc AI hack phần mềm hơn là các công ty đầu tư quá nhiều vào AI mà phải trả giá bằng các kỹ thuật khác.