4 điểm bởi GN⁺ 2026-02-21 | 1 bình luận | Chia sẻ qua WhatsApp
  • Claude Code Security là tính năng bảo mật dựa trên AI, có khả năng phát hiện lỗ hổng trong codebase và đề xuất bản vá để con người xem xét
  • Phát hiện các lỗ hổng phức tạp mà công cụ phân tích tĩnh hiện có bỏ sót bằng cách theo dõi tương tác giữa các đoạn mã và luồng dữ liệu như một nhà nghiên cứu con người
  • Mọi kết quả đều được hiển thị trên dashboard sau khi trải qua xác minh nhiều bước và đánh giá mức độ nghiêm trọng, và không tự động sửa nếu chưa có phê duyệt của nhà phát triển
  • Anthropic cung cấp tính năng này dưới dạng bản xem trước nghiên cứu giới hạn cho khách hàng Enterprise·Team và maintainer mã nguồn mở
  • Nhắm tới nâng cao mức độ an toàn của toàn ngành, để chuẩn bị cho thời đại AI có thể tìm lỗ hổng nhanh hơn kẻ tấn công

Tổng quan về Claude Code Security

  • Claude Code Security là tính năng mới được tích hợp trong phiên bản web của Claude Code, dùng để quét codebase nhằm phát hiện lỗ hổng bảo mật và đề xuất bản vá
    • Được cung cấp dưới dạng bản xem trước nghiên cứu và với tiền đề là có con người xem xét
  • Được thiết kế như một công cụ nhằm giải quyết tình trạng thiếu nhân lực và quá tải lỗ hổng mà các đội bảo mật hiện nay phải đối mặt
  • Các công cụ phân tích hiện có chủ yếu dựa trên mẫu đã biết, nhưng Claude có thể phát hiện cả những lỗ hổng mới và phụ thuộc ngữ cảnh

Cách hoạt động

  • Phân tích tĩnh truyền thống phát hiện các mẫu lỗ hổng đã biết dựa trên luật, nhưng dễ bỏ sót lỗi logic nghiệp vụ hoặc lỗi kiểm soát truy cập
  • Claude Code Security hiểu ý nghĩa của mã và suy luận như một nhà nghiên cứu con người để bắt được các lỗ hổng phức tạp
    • Theo dõi tương tác giữa các thành phần và luồng dữ liệu
  • Kết quả phát hiện trải qua quy trình xác minh nhiều bước để giảm thiểu false positive
    • Claude tự rà soát lại kết quả và gán mức độ nghiêm trọng
  • Các kết quả đã xác minh được hiển thị trên dashboard để nhóm có thể xem xét và phê duyệt
    • Mỗi mục có kèm điểm độ tin cậy, và không áp dụng sửa đổi nếu chưa có phê duyệt của con người

Nền tảng nghiên cứu an ninh mạng của Claude

  • Claude Code Security được phát triển dựa trên hơn 1 năm nghiên cứu bảo mật của Claude
  • Frontier Red Team của Anthropic đã đưa Claude tham gia các cuộc thi Capture-the-Flag và hợp tác với Pacific Northwest National Laboratory để thực hiện thử nghiệm phòng thủ hạ tầng dựa trên AI
  • Sử dụng mô hình mới nhất Claude Opus 4.6 để phát hiện hơn 500 lỗ hổng trong mã nguồn mở
    • Bao gồm cả những lỗi đã tồn tại sau hàng chục năm được chuyên gia xem xét
    • Hiện đang tiến hành quy trình công bố có trách nhiệm cùng với các maintainer
  • Anthropic cũng đang dùng Claude cho bảo mật mã nội bộ, và phát triển tính năng này để mang cùng năng lực phòng thủ đó ra bên ngoài

Triển vọng sắp tới

  • Thời điểm AI có thể quét phần lớn codebase trên thế giới đang đến gần
    • Các mô hình AI có thể phát hiện hiệu quả những lỗi đã ẩn mình trong thời gian dài
  • Kẻ tấn công cũng có thể dùng AI để nhanh chóng tìm ra lỗ hổng, nhưng rủi ro có thể giảm nếu bên phòng thủ vá lỗi trước một bước
  • Claude Code Security được giới thiệu như một bước tiến nhằm hướng tới codebase an toàn hơn và nâng cao tiêu chuẩn bảo mật của toàn ngành

Tham gia và truy cập

  • Được mở dưới dạng bản xem trước nghiên cứu cho khách hàng Enterprise và Team
    • Người tham gia có thể làm việc trực tiếp với đội Anthropic để cải thiện công cụ
  • Maintainer mã nguồn mở có thể đăng ký truy cập miễn phí và nhanh chóng
  • Thông tin chi tiết có tại claude.com/solutions/claude-code-security

1 bình luận

 
GN⁺ 2026-02-21
Ý kiến trên Hacker News
  • Việc Anthropic tung ra tính năng phát hiện lỗ hổng không có gì đáng ngạc nhiên
    vì OpenAI đã công bố Aardvark, còn Google thì có BigSleep
    Theo tôi, điểm cốt lõi là quy mô và độ chính xác. Anthropic nói rằng với Opus 4.6 họ đã tìm ra 500 lỗ hổng “mức độ nghiêm trọng cao”, nhưng tôi vẫn nghi ngờ liệu chúng có thực sự nghiêm trọng hay không. BigSleep chỉ khoảng 20, còn Aardvark thì không công bố con số
    Khi tôi sáng lập Semgrep, điều khiến tôi ấn tượng ở các đội tham gia phát hiện lỗ hổng dựa trên LLM trong cuộc thi DARPA AIxCC là việc bị yêu cầu công bố chi phí trên mỗi lỗ hổngma trận nhầm lẫn. Không có các dữ liệu này thì rất khó biết mô hình nào thực sự vượt trội
    Nếu cấp cho các tác nhân bảo mật LLM quyền truy cập vào các công cụ như Semgrep hay CodeQL thì tỷ lệ dương tính giả sẽ giảm đáng kể. Tương lai có lẽ sẽ là con người đóng vai trò quản lý AppSec để điều phối các tác nhân kỹ sư bảo mật ảo như thế này

    • Vấn đề lớn nhất của các công cụ SAST như Semgrep là dương tính giả. Lập trình viên chỉ muốn các kết quả thuộc 0,1% thực sự dẫn đến vấn đề, nhưng cách đối sánh mẫu tạo ra quá nhiều nhiễu
      Tôi cũng đã thử kết hợp đối sánh mẫu + LLM và thấy khá hiệu quả. Tuy vậy nó chỉ áp dụng được cho SAST; còn các mảng như SCA hay container image, vốn chiếm 90% nhiễu của đội bảo mật, thì vẫn rất khó giải quyết
    • Tính năng kiểu này ổn nếu chỉ quét một lần với repo nhỏ, nhưng trong thực tế mã nguồn thay đổi liên tục thì chi phí quét lại là quá lớn. Các luồng công việc thực tế như tạo PR, xử lý xung đột hay tìm người review vẫn còn thiếu
      Làm nghiên cứu thì thú vị, nhưng là công cụ thực chiến thì còn hạn chế
    • Tôi cũng đang làm theo hướng tương tự. Tôi đã mở rộng công cụ nội bộ tập trung vào bảo mật, hiệu năng và SEO website theo hướng agent-based, và kết quả rất đáng ngạc nhiên
      Dịch vụ đó là SquirrelScan; tác nhân sẽ điều chỉnh cấu hình một cách động dựa trên các quy tắc do con người viết để loại bỏ dương tính giả và thực hiện xác minh
  • Có một câu đùa kiểu “Anakin: Tôi sẽ cứu thế giới bằng máy quét lỗ hổng AI”
    rồi Padme hỏi “Vậy là anh quét để sửa các lỗ hổng đó đúng không?”, một kiểu hài hước châm biếm mục đích của máy quét AI

    • Tôi nghĩ đó cũng là lý do tính năng này bị giới hạn ở dạng yêu cầu quyền truy cập chỉ dành cho team và enterprise.
      Một lựa chọn mã nguồn mở thay thế là DeepAudit
    • Có lo ngại rằng kẻ xấu sẽ quét hàng loạt các dự án mã nguồn mở hoặc gói npm để tìm zero-day.
      Hy vọng Anthropic có một hệ thống cảnh báo sớm để phát hiện các mẫu sử dụng bất thường
    • Trớ trêu là chính các phòng thí nghiệm nghiên cứu lại đang tung ra những bộ công cụ hack mạnh nhất, trong khi giá cổ phiếu các công ty phòng thủ an ninh mạng lại đang giảm. Tôi không hiểu logic thị trường này
    • Cũng có người phản hồi là họ không hiểu ý nghĩa của câu đùa đó
  • Với tư cách là người điều hành một công ty audit bảo mật, tôi thực sự cảm nhận được việc các công ty LLM lớn đang tiến vào cả thị trường audit
    Các dịch vụ dựa trên AI của chúng tôi như zkao.io cũng đang chịu áp lực cạnh tranh
    Tương lai có lẽ sẽ có hai kịch bản.
    Một là thế giới nơi kiểm toán viên và lập trình viên con người biến mất, hai là thế giới tiến hóa thành một thị trường ngách vẫn cần chuyên môn và cảm quan của con người
    Những công ty nghiêm túc vẫn sẽ muốn hợp tác với con người, và có khả năng mô hình SaaS + hỗ trợ từ con người sẽ còn tồn tại
    Ngược lại, các “vibe coder” sẽ dùng những công cụ như Claude Code Security, và chất lượng của nó cũng sẽ ở mức “vibe coding” — đủ dùng nhưng không hoàn hảo
    Thực tế mà nói, tôi thấy khả năng này cao hơn. Những công cụ như vậy sẽ khiến các đội audit chuyên sâu quy mô nhỏ như chúng tôi mạnh hơn

    • Sửa chính tả: đúng phải là “cease”, không phải “seize”
    • Lập trình viên sẽ không biến mất. Họ chỉ tiến hóa thành một dạng lập trình viên mới mà thôi. Nhưng tương lai của kiểm toán viên thì khá u ám
  • Trong phần mô tả của Anthropic, câu “Claude Code Security đọc mã và suy luận như một nhà nghiên cứu con người” khá thú vị
    Đội của chúng tôi cũng đã kết hợp static analysis với AI, nên tôi nghĩ đây là hướng tiến hóa của tự động hóa bảo mật

    • Nhưng câu đó thực ra không đúng. LLM rốt cuộc vẫn là cỗ máy đối sánh mẫu. Nhà nghiên cứu con người làm được nhiều hơn đối sánh mẫu đơn thuần
      Tuyên bố “suy luận như con người” có vẻ là một câu marketing phóng đại
  • Claude Code Opus 4.5 đã đạt độ chính xác khoảng 71% trên OpenSSF CVE Benchmark
    Chúng tôi dùng SAST như một bộ lọc đầu tiên, sau đó để LLM tận dụng các đầu ra của static analysis như đồ thị luồng dữ liệu và đồ thị phụ thuộc
    Cách làm này hiệu quả hơn nhiều so với việc chỉ đơn giản bảo nó “hãy hành xử như một nhà nghiên cứu bảo mật”. Khi tính năng mới được công bố, chúng tôi sẽ cập nhật benchmark

  • Các sản phẩm của đối thủ đã gây thất vọng. Phần lớn chỉ phát hiện lại những vấn đề mà công cụ static analysis hiện có đã tìm ra, và trong quét AI thì có rất nhiều dương tính giả
    Lần này tôi hy vọng kết quả sẽ tốt hơn

  • Có nhiều hoài nghi về việc liệu AI có thể có tư duy sáng tạo ở mức kỹ sư bảo mật cấp senior hay không, nhưng tôi nghĩ đó là cuộc tranh luận bỏ lỡ bản chất vấn đề
    Giá trị thực sự của các công cụ như thế này nằm ở tự động hóa các công việc bảo mật lặp đi lặp lại.
    Những vấn đề đơn giản như thiếu kiểm tra đầu vào hay sử dụng thành phần dễ tổn thương thì không nhất thiết phải cần nhân lực cao cấp xem xét
    Tôi hy vọng các công cụ này sẽ trở thành trợ thủ giúp giảm việc vặt cho đội bảo mật

    • LLM, đặc biệt là Claude, thực sự thể hiện năng lực ở mức kỹ sư bảo mật. Startup của chúng tôi đang xây dựng tác nhân cho kiểm thử xâm nhập chủ động, và chỉ cần chạy vài giờ là nó đã tìm ra những lỗ hổng kỳ lạ mà con người có thể bỏ sót
    • Ngược lại, trong giới nghiên cứu lỗ hổng lại có khá nhiều sự lạc quan không công khai. So với những người công khai tỏ ra hoài nghi, số chuyên gia âm thầm thử nghiệm và nhìn thấy tiềm năng còn nhiều hơn hẳn
    • Với tư cách là một pentester tại công ty trong Fortune 500, tôi đồng ý với đánh giá này. Phần lớn phát hiện nội bộ chỉ ở mức “best practice”, nên nếu tác nhân có thể tự động xử lý các phần đó thì sẽ hiệu quả hơn rất nhiều
      Cấu trúc cộng tác giữa con người và tác nhân có lẽ sẽ là cách vận hành đội bảo mật trong tương lai
    • Chúng tôi cũng đã thử Claude Opus 4.6, và tỷ lệ dương tính giả dưới 50% là điều cực kỳ ấn tượng
  • Tôi đang đốt cả đống token Claude để xây dựng một hệ thống phòng thủ chống bot AI, nên lúc đầu tôi tưởng Anthropic đã phát hiện ra việc đó

    • Bên tôi cũng đã tự phát triển hệ thống riêng suốt vài năm nay. Có thể bạn sẽ thấy hữu ích nếu tham khảo Tirreno, do các kỹ sư của chúng tôi tự xây dựng