- Claude Code Security là tính năng bảo mật dựa trên AI, có khả năng phát hiện lỗ hổng trong codebase và đề xuất bản vá để con người xem xét
- Phát hiện các lỗ hổng phức tạp mà công cụ phân tích tĩnh hiện có bỏ sót bằng cách theo dõi tương tác giữa các đoạn mã và luồng dữ liệu như một nhà nghiên cứu con người
- Mọi kết quả đều được hiển thị trên dashboard sau khi trải qua xác minh nhiều bước và đánh giá mức độ nghiêm trọng, và không tự động sửa nếu chưa có phê duyệt của nhà phát triển
- Anthropic cung cấp tính năng này dưới dạng bản xem trước nghiên cứu giới hạn cho khách hàng Enterprise·Team và maintainer mã nguồn mở
- Nhắm tới nâng cao mức độ an toàn của toàn ngành, để chuẩn bị cho thời đại AI có thể tìm lỗ hổng nhanh hơn kẻ tấn công
Tổng quan về Claude Code Security
- Claude Code Security là tính năng mới được tích hợp trong phiên bản web của Claude Code, dùng để quét codebase nhằm phát hiện lỗ hổng bảo mật và đề xuất bản vá
- Được cung cấp dưới dạng bản xem trước nghiên cứu và với tiền đề là có con người xem xét
- Được thiết kế như một công cụ nhằm giải quyết tình trạng thiếu nhân lực và quá tải lỗ hổng mà các đội bảo mật hiện nay phải đối mặt
- Các công cụ phân tích hiện có chủ yếu dựa trên mẫu đã biết, nhưng Claude có thể phát hiện cả những lỗ hổng mới và phụ thuộc ngữ cảnh
Cách hoạt động
- Phân tích tĩnh truyền thống phát hiện các mẫu lỗ hổng đã biết dựa trên luật, nhưng dễ bỏ sót lỗi logic nghiệp vụ hoặc lỗi kiểm soát truy cập
- Claude Code Security hiểu ý nghĩa của mã và suy luận như một nhà nghiên cứu con người để bắt được các lỗ hổng phức tạp
- Theo dõi tương tác giữa các thành phần và luồng dữ liệu
- Kết quả phát hiện trải qua quy trình xác minh nhiều bước để giảm thiểu false positive
- Claude tự rà soát lại kết quả và gán mức độ nghiêm trọng
- Các kết quả đã xác minh được hiển thị trên dashboard để nhóm có thể xem xét và phê duyệt
- Mỗi mục có kèm điểm độ tin cậy, và không áp dụng sửa đổi nếu chưa có phê duyệt của con người
Nền tảng nghiên cứu an ninh mạng của Claude
- Claude Code Security được phát triển dựa trên hơn 1 năm nghiên cứu bảo mật của Claude
- Frontier Red Team của Anthropic đã đưa Claude tham gia các cuộc thi Capture-the-Flag và hợp tác với Pacific Northwest National Laboratory để thực hiện thử nghiệm phòng thủ hạ tầng dựa trên AI
- Sử dụng mô hình mới nhất Claude Opus 4.6 để phát hiện hơn 500 lỗ hổng trong mã nguồn mở
- Bao gồm cả những lỗi đã tồn tại sau hàng chục năm được chuyên gia xem xét
- Hiện đang tiến hành quy trình công bố có trách nhiệm cùng với các maintainer
- Anthropic cũng đang dùng Claude cho bảo mật mã nội bộ, và phát triển tính năng này để mang cùng năng lực phòng thủ đó ra bên ngoài
Triển vọng sắp tới
- Thời điểm AI có thể quét phần lớn codebase trên thế giới đang đến gần
- Các mô hình AI có thể phát hiện hiệu quả những lỗi đã ẩn mình trong thời gian dài
- Kẻ tấn công cũng có thể dùng AI để nhanh chóng tìm ra lỗ hổng, nhưng rủi ro có thể giảm nếu bên phòng thủ vá lỗi trước một bước
- Claude Code Security được giới thiệu như một bước tiến nhằm hướng tới codebase an toàn hơn và nâng cao tiêu chuẩn bảo mật của toàn ngành
Tham gia và truy cập
- Được mở dưới dạng bản xem trước nghiên cứu cho khách hàng Enterprise và Team
- Người tham gia có thể làm việc trực tiếp với đội Anthropic để cải thiện công cụ
- Maintainer mã nguồn mở có thể đăng ký truy cập miễn phí và nhanh chóng
- Thông tin chi tiết có tại claude.com/solutions/claude-code-security
1 bình luận
Ý kiến trên Hacker News
Việc Anthropic tung ra tính năng phát hiện lỗ hổng không có gì đáng ngạc nhiên
vì OpenAI đã công bố Aardvark, còn Google thì có BigSleep
Theo tôi, điểm cốt lõi là quy mô và độ chính xác. Anthropic nói rằng với Opus 4.6 họ đã tìm ra 500 lỗ hổng “mức độ nghiêm trọng cao”, nhưng tôi vẫn nghi ngờ liệu chúng có thực sự nghiêm trọng hay không. BigSleep chỉ khoảng 20, còn Aardvark thì không công bố con số
Khi tôi sáng lập Semgrep, điều khiến tôi ấn tượng ở các đội tham gia phát hiện lỗ hổng dựa trên LLM trong cuộc thi DARPA AIxCC là việc bị yêu cầu công bố chi phí trên mỗi lỗ hổng và ma trận nhầm lẫn. Không có các dữ liệu này thì rất khó biết mô hình nào thực sự vượt trội
Nếu cấp cho các tác nhân bảo mật LLM quyền truy cập vào các công cụ như Semgrep hay CodeQL thì tỷ lệ dương tính giả sẽ giảm đáng kể. Tương lai có lẽ sẽ là con người đóng vai trò quản lý AppSec để điều phối các tác nhân kỹ sư bảo mật ảo như thế này
Tôi cũng đã thử kết hợp đối sánh mẫu + LLM và thấy khá hiệu quả. Tuy vậy nó chỉ áp dụng được cho SAST; còn các mảng như SCA hay container image, vốn chiếm 90% nhiễu của đội bảo mật, thì vẫn rất khó giải quyết
Làm nghiên cứu thì thú vị, nhưng là công cụ thực chiến thì còn hạn chế
Dịch vụ đó là SquirrelScan; tác nhân sẽ điều chỉnh cấu hình một cách động dựa trên các quy tắc do con người viết để loại bỏ dương tính giả và thực hiện xác minh
Có một câu đùa kiểu “Anakin: Tôi sẽ cứu thế giới bằng máy quét lỗ hổng AI”
rồi Padme hỏi “Vậy là anh quét để sửa các lỗ hổng đó đúng không?”, một kiểu hài hước châm biếm mục đích của máy quét AI
Một lựa chọn mã nguồn mở thay thế là DeepAudit
Hy vọng Anthropic có một hệ thống cảnh báo sớm để phát hiện các mẫu sử dụng bất thường
Với tư cách là người điều hành một công ty audit bảo mật, tôi thực sự cảm nhận được việc các công ty LLM lớn đang tiến vào cả thị trường audit
Các dịch vụ dựa trên AI của chúng tôi như zkao.io cũng đang chịu áp lực cạnh tranh
Tương lai có lẽ sẽ có hai kịch bản.
Một là thế giới nơi kiểm toán viên và lập trình viên con người biến mất, hai là thế giới tiến hóa thành một thị trường ngách vẫn cần chuyên môn và cảm quan của con người
Những công ty nghiêm túc vẫn sẽ muốn hợp tác với con người, và có khả năng mô hình SaaS + hỗ trợ từ con người sẽ còn tồn tại
Ngược lại, các “vibe coder” sẽ dùng những công cụ như Claude Code Security, và chất lượng của nó cũng sẽ ở mức “vibe coding” — đủ dùng nhưng không hoàn hảo
Thực tế mà nói, tôi thấy khả năng này cao hơn. Những công cụ như vậy sẽ khiến các đội audit chuyên sâu quy mô nhỏ như chúng tôi mạnh hơn
Trong phần mô tả của Anthropic, câu “Claude Code Security đọc mã và suy luận như một nhà nghiên cứu con người” khá thú vị
Đội của chúng tôi cũng đã kết hợp static analysis với AI, nên tôi nghĩ đây là hướng tiến hóa của tự động hóa bảo mật
Tuyên bố “suy luận như con người” có vẻ là một câu marketing phóng đại
Claude Code Opus 4.5 đã đạt độ chính xác khoảng 71% trên OpenSSF CVE Benchmark
Chúng tôi dùng SAST như một bộ lọc đầu tiên, sau đó để LLM tận dụng các đầu ra của static analysis như đồ thị luồng dữ liệu và đồ thị phụ thuộc
Cách làm này hiệu quả hơn nhiều so với việc chỉ đơn giản bảo nó “hãy hành xử như một nhà nghiên cứu bảo mật”. Khi tính năng mới được công bố, chúng tôi sẽ cập nhật benchmark
Các sản phẩm của đối thủ đã gây thất vọng. Phần lớn chỉ phát hiện lại những vấn đề mà công cụ static analysis hiện có đã tìm ra, và trong quét AI thì có rất nhiều dương tính giả
Lần này tôi hy vọng kết quả sẽ tốt hơn
Có nhiều hoài nghi về việc liệu AI có thể có tư duy sáng tạo ở mức kỹ sư bảo mật cấp senior hay không, nhưng tôi nghĩ đó là cuộc tranh luận bỏ lỡ bản chất vấn đề
Giá trị thực sự của các công cụ như thế này nằm ở tự động hóa các công việc bảo mật lặp đi lặp lại.
Những vấn đề đơn giản như thiếu kiểm tra đầu vào hay sử dụng thành phần dễ tổn thương thì không nhất thiết phải cần nhân lực cao cấp xem xét
Tôi hy vọng các công cụ này sẽ trở thành trợ thủ giúp giảm việc vặt cho đội bảo mật
Cấu trúc cộng tác giữa con người và tác nhân có lẽ sẽ là cách vận hành đội bảo mật trong tương lai
Tôi đang đốt cả đống token Claude để xây dựng một hệ thống phòng thủ chống bot AI, nên lúc đầu tôi tưởng Anthropic đã phát hiện ra việc đó