8 điểm bởi GN⁺ 2026-03-07 | 2 bình luận | Chia sẻ qua WhatsApp
  • Claude Opus 4.6 đã phát hiện 22 lỗ hổng trong Firefox thông qua hợp tác với Mozilla, trong đó 14 lỗ hổng được phân loại ở mức nguy cơ cao
  • Điều này chứng minh rằng mô hình AI có thể nhanh chóng phát hiện lỗ hổng zero-day trong phần mềm phức tạp, và các bản sửa lỗi đã được phản ánh trong Firefox 148.0
  • Claude đã phân tích hàng nghìn tệp trong các khu vực mã nguồn bao gồm JavaScript engine và gửi 112 báo cáo, Mozilla đã tiến hành sửa lỗi dựa trên các báo cáo này
  • Dù AI có khả năng phát hiện lỗ hổng rất nổi bật, nhưng khả năng viết exploit (mã tấn công) thực tế được xác nhận là còn hạn chế
  • Anthropic đưa ra mô hình hợp tác nghiên cứu bảo mật dựa trên AI và kêu gọi tăng cường bảo mật theo hướng ưu tiên bên phòng thủ thông qua hợp tác với hệ sinh thái mã nguồn mở

Tổng quan về hợp tác với Mozilla

  • Claude Opus 4.6 đã phát hiện 22 lỗ hổng của Firefox trong 2 tuần phân tích, và Mozilla phân loại 14 trường hợp là nguy cơ cao
    • Con số này tương đương khoảng 20% số lỗ hổng nguy cơ cao đã được sửa trong Firefox năm 2025
    • Các bản sửa lỗi đã được đưa vào Firefox 148.0 và phân phối tới hàng trăm triệu người dùng
  • Mozilla đã xác minh các báo cáo từ Anthropic đồng thời chia sẻ tiêu chuẩn và quy trình bug report, qua đó xây dựng một hệ thống xác minh hợp tác
  • Sự hợp tác này được giới thiệu như một ví dụ về mô hình cộng tác giữa nhà nghiên cứu bảo mật dựa trên AI và các maintainer

Quy trình phát hiện lỗ hổng bằng mô hình AI

  • Anthropic đã xây dựng bộ dữ liệu Firefox CVE để thực hiện thử nghiệm thực tế vượt ra ngoài benchmark CyberGym
    • Firefox là một dự án mã nguồn mở phức tạp và có mức bảo mật cao, rất phù hợp để kiểm chứng năng lực phát hiện của AI
  • Sau khi tái hiện các CVE trước đây, Claude tiếp tục thử phát hiện các lỗ hổng mới trong phiên bản mới nhất
    • Chỉ trong 20 phút đầu tiên, mô hình đã phát hiện lỗ hổng bộ nhớ Use After Free, sau đó được xác minh độc lập và báo cáo cho Mozilla
  • Sau đó Claude đã phân tích hơn 6.000 tệp C++ và gửi 112 báo cáo riêng biệt
    • Phần lớn vấn đề đã được sửa trong Firefox 148, một số khác dự kiến sẽ được xử lý ở các phiên bản sau

Thử nghiệm exploit lỗ hổng

  • Để đánh giá giới hạn trên của năng lực bảo mật của Claude, Anthropic đã thử nghiệm xem các lỗ hổng được phát hiện có thể được chuyển thành mã tấn công thực tế hay không
    • Họ đã thực hiện hàng trăm lần thử nghiệm và chi khoảng 4.000 USD chi phí API
    • Kết quả là chỉ có 2 trường hợp exploit thành công, cho thấy năng lực tạo tấn công thấp hơn nhiều so với năng lực phát hiện
  • Các exploit thành công chỉ hoạt động trong môi trường thử nghiệm, khi các tính năng bảo mật sandbox của trình duyệt đã bị loại bỏ
    • Hệ thống phòng thủ nhiều lớp của Firefox có thể giảm thiểu các kiểu tấn công này
  • Thông qua thí nghiệm này, Anthropic cảnh báo về khả năng AI tự động tạo ra công cụ tấn công

Thực tiễn tốt nhất cho nghiên cứu bảo mật dựa trên AI

  • Thông qua nghiên cứu về patching agent, Anthropic đang phát triển cách để LLM có thể sửa lỗi và xác minh kết quả
    • Họ sử dụng công cụ hỗ trợ mang tên Task verifier để xác minh đầu ra của AI theo thời gian thực
    • Tự động kiểm tra cả việc lỗ hổng đã được loại bỏ hay chưa và chương trình có còn hoạt động đúng hay không
  • Ba thành phần cốt lõi trong các báo cáo được Mozilla tin cậy là:
    • test case tái hiện tối thiểu
    • Proof-of-Concept chi tiết
    • patch đề xuất
  • Anthropic khuyến nghị các nhà nghiên cứu khi gửi báo cáo lỗ hổng dựa trên LLM nên kèm theo bằng chứng có thể xác minh và tái hiện được

Triển vọng sắp tới và nhu cầu tăng cường bảo mật

  • Ngoài Firefox, Claude Opus 4.6 còn phát hiện lỗ hổng trong các dự án lớn như Linux kernel
  • Ở thời điểm hiện tại, AI đang mạnh hơn ở khả năng phát hiện và sửa lỗi so với khả năng tạo exploit, đây là tình thế có lợi cho bên phòng thủ
  • Tuy nhiên, xét đến tốc độ phát triển của mô hình, khoảng cách với năng lực tấn công có thể nhanh chóng thu hẹp
  • Thông qua Claude Code Security, Anthropic hiện đang cung cấp các tính năng phát hiện lỗ hổng và vá lỗi cho nhà nghiên cứu và maintainer
  • Công ty kêu gọi các nhà phát triển tận dụng thời điểm vàng để tăng cường bảo mật, đồng thời lên kế hoạch cho:
    • hợp tác tìm kiếm lỗ hổng
    • phát triển công cụ phân loại bug report
    • mở rộng tính năng đề xuất bản vá tự động

2 bình luận

 
mammal 2026-03-07

Mozilla Foundation Security Advisory 2026-13

Quá kinh ngạc.

Đây có vẻ là một ví dụ nữa nhắc lại rằng các test case nghiêm ngặt quan trọng đến mức nào.

 
GN⁺ 2026-03-07
Ý kiến trên Hacker News
  • Nếu đang chịu trách nhiệm duy trì bảo mật cho một dự án mã nguồn mở, nên thử yêu cầu Claude Code thực hiện kiểm toán bảo mật
    Với các dự án quy mô lớn như Firefox thì có thể khó, nhưng đa số dự án chỉ tốn khoảng 3 USD tiền token
    Khả năng cao là kẻ tấn công đã thực hiện các kiểu kiểm toán này rồi, nên việc tự mình không làm nữa không còn là thái độ có trách nhiệm
    Khi kiểm toán codebase cốt lõi của Zulip, họ đã yêu cầu mô hình tự rà soát từng kết quả, và quá trình này đã loại bỏ phần lớn dương tính giả (false positive)
    Sau đó, các vấn đề còn lại gần như biến mất khi kiểm toán lại bằng cách bổ sung chú thích mã để làm rõ ý đồ của mô hình bảo mật

    • Không khuyến nghị kiểu dùng AI như vậy
      Yêu cầu kiểu “làm trong vài giây việc mất cả tuần” về thực tế là bất khả thi
      Kết quả trông có vẻ hợp lý nhưng có thể khác xa thực tế
      Nếu coi AI như một thực tập sinh thì sẽ bớt thất vọng — liệu bạn có giao cho thực tập sinh kiểm toán bảo mật toàn bộ một chương trình khổng lồ không?
    • Tò mò không biết có bài viết dài nào tổng hợp best practice cho kiểm toán bảo mật bằng AI hay không
      Có trường hợp nó hoạt động rất tốt, nhưng cũng có lúc hoàn toàn vô dụng
      Có vẻ khác biệt cuối cùng phụ thuộc vào chất lượng của context engineeringtest harness
      Trường hợp lần này cũng thú vị, nhưng giá mà có mô tả cụ thể hơn
  • Tôi cũng vừa mở mã nguồn dự án gần đây, và một người dùng Reddit đã chạy kiểm toán bảo mật toàn diện bằng Claude rồi tìm ra 15 lỗ hổng
    Có FTS injection, LIKE wildcard injection, thiếu xác thực API, thiếu biện pháp bảo vệ quyền riêng tư cùng nhiều điểm tôi đã bỏ sót
    Điều đáng ngạc nhiên là kết quả rất có hệ thống — có phân loại mức độ nghiêm trọng, chỉ rõ đường dẫn tệp và số dòng, thậm chí chỉ ra chỗ không khớp giữa tài liệu và mã thực tế
    Phần phân tích “khác biệt giữa đặc tả và thực tế” đặc biệt hữu ích
    Giá trị thực sự của kiểm toán bảo mật bằng LLM không phải là tìm ra zero-day mới, mà là thay con người làm các bước rà soát lặp đi lặp lại, tỉ mỉ mà người ta thường ngại làm

  • Không nhiều người hiểu được độ phức tạp của vấn đề lỗ hổng trong các trình duyệt như Firefox
    Chỉ riêng việc nâng một UAF đơn giản thành shellcode wasm cũng mất vài ngày
    Cuộc đua năng lực tác chiến mạng của AI hiện vẫn còn im ắng, nhưng có lẽ sẽ khác ngay trong năm nay
    Tôi cũng từng thử như Anthropic, đưa cho Claude một VM và trình xác minh rồi yêu cầu tạo exploit, và nó hoạt động khá tốt trong môi trường kctf-eval
    Dù vậy, vẫn chưa rõ mô hình thực sự “hiểu” điều gì, hay chỉ đang bắt chước theo tín hiệu phần thưởng

  • Việc Mozilla cập nhật thông báo bảo mật khá thú vị
    Tôi đã thắc mắc ai là bên phát hiện ra 22 lỗ hổng trong một bản phát hành, giờ thì mới rõ

    • “Use After Free” được nhắc đi nhắc lại, nhưng lại thiếu giải thích cụ thể về việc kiểu lỗ hổng này thực sự có thể gây ảnh hưởng gì
      Nếu chỉ ở mức làm rơi tệp thì không phải mối đe dọa lớn, nhưng những thứ như đánh cắp dữ liệu phiên thì thú vị hơn nhiều
    • Thấy xuất hiện khá nhiều cái tên quen thuộc
  • Thật lạ khi không đề cập nội dung cụ thể của các lỗi
    Muốn biết đó chỉ là edge case đơn giản hay là vấn đề thực sự có ý nghĩa
    LLM giỏi tìm ra các mẫu thất bại quen thuộc, nhưng điều đó không phải lúc nào cũng quan trọng

    • Có thể xem danh sách lỗi trong bài gốc của Anthropic và thông báo bảo mật của Mozilla
    • Một số lỗi mà Claude phát hiện có mức độ khá nghiêm trọng
      Tôi không phải chuyên gia bảo mật, nhưng có vẻ không nên chỉ gạt đi với lý do “vì là LLM nên chắc không đáng kể”
    • Có một bài phân tích chi tiết về một trong các lỗi được phát hiện
    • Nếu không có mô tả cụ thể thì bài viết trông giống nội dung tiếp thị
  • Kết quả tôi nhận được khi dùng AI agent là pha trộn
    Nó hữu ích cho việc mở rộng độ bao phủ kiểm thử, thiết lập fuzz test, cấu hình công cụ phân tích tĩnh
    Nhưng cũng có lúc nó khẳng định “rất an toàn” dù trên thực tế chẳng hề có ranh giới bảo mật nào tồn tại
    Nó tìm lỗi cục bộ tốt, nhưng gần như không bắt được các lỗ hổng phức hợp phát sinh từ tương tác giữa nhiều tính năng
    Cuối cùng thì mọi khẳng định về độ an toàn của mô hình đều luôn cần được kiểm chứng

    • [Nhân viên Mozilla] Đồng ý rằng LLM thường sai khá nhiều
      Giá trị của cách làm lần này nằm ở chỗ nó cung cấp test case có thể kiểm chứng
      Hiệu quả hơn nhiều so với báo cáo phân tích đơn thuần
      Trước đây nói rằng nó chỉ giỏi bắt “lỗi cục bộ” là đúng, nhưng nhờ agentic SDK mà tình hình đã thay đổi
    • Nếu giao cho AI bổ sung coverage thì sẽ sinh ra nhiều bài test vô nghĩa
      Nếu coverage vốn đã cao, phần còn lại về bản chất là các vùng khó
    • Phân tích tĩnh truyền thống cũng dựa trên pattern matching, nhưng các công cụ phân tích tĩnh dùng AI gần đây cho kết quả tốt hơn nhiều
      Đặc biệt có trường hợp còn bắt được cả lỗ hổng logic nghiệp vụ
    • Thực ra các hạn chế này ở lập trình viên ngoài đời cũng tương tự
      Lỗi cục bộ thì dễ thấy, còn ranh giới bảo mật không hoàn chỉnh ban đầu thường trông vẫn đủ ổn
    • Người dùng Claude dành riêng cho red team của Anthropic và người dùng phổ thông có mức độ tiếp cận khác nhau
  • Lý do Anthropic chọn Firefox là khá rõ ràng
    Vì đây là dự án mã nguồn mở được phân phối rộng rãi và được kiểm chứng bảo mật rất tích cực
    Chromium dùng Gemini của Google, còn Safari có văn hóa phát triển khép kín nên khó hợp tác

    • Firefox phức tạp gần ngang Chromium, nhưng là dự án ít tài nguyên hơn nhiều, nên phù hợp làm đối tượng thử nghiệm
    • Với Safari sẽ cần tấn công hộp đen, nên cách tiếp cận như lần này hẳn sẽ khó áp dụng
  • Theo bài viết của Anthropic, exploit do Claude viết chỉ hoạt động trong môi trường thử nghiệm
    Vì tính năng sandbox của trình duyệt thực tế đã bị loại bỏ trong đó
    Vì thế, phòng thủ nhiều lớp (defense in depth) của Firefox có lẽ đã giảm nhẹ được kiểu tấn công này

    • [Làm việc tại Anthropic, trước đây ở Mozilla] Firefox cũng xem các lỗ hổng bên trong sandbox là vấn đề bảo mật độc lập
      Chrome cũng theo chính sách tương tự
      Có thể xem tài liệu liên quan tại Security Severity Ratings
    • Có sandbox không có nghĩa là có thể bỏ qua lỗ hổng
      Thoát sandbox vẫn có thể xảy ra, nên mọi lỗi đều cần được sửa
    • Dù sandbox đang chặn được thì việc vá lỗ hổng vẫn rất quan trọng
      Kẻ tấn công có thể tích trữ các zero-day từng phần như vậy rồi kết hợp lại để sử dụng
      Việc vá lần này rõ ràng là một cải thiện bảo mật giúp giảm rủi ro đó
  • Tôi cũng hay cho AI agent chạy qua đêm để viết test, và từng để Claude thử formal verification
    Có vẻ Anthropic cũng đã tiếp cận theo hướng tương tự
    Sau này tôi định thêm các prompt để tự động hóa property testfuzz test

    • Tò mò không biết có ví dụ thực tế nào về formal verification ở mức nhẹ hay không
      Tôi nghĩ các vấn đề mình xử lý chưa cần mức nặng như vậy, nhưng biết đâu đó lại là đánh giá sai
  • Có vẻ rồi sẽ xuất hiện một hệ thống kiểm toán bảo mật tự động cho các dự án mã nguồn mở cốt lõi, giống như OSS-Fuzz của Google
    Anthropic hiện cũng đang cung cấp miễn phí quyền truy cập Claude cho các maintainer OSS
    Nhờ LLM mà cũng nảy sinh vấn đề chương trình bug bounty bị ngập trong báo cáo giả, nhưng các mô hình mới nhất giờ đã đạt đến mức phân biệt được lỗ hổng thực sự
    Nếu đánh giá bằng mô hình miễn phí hoặc giá rẻ thì chất lượng thấp là điều khó tránh
    Thay vào đó, nếu vận hành chương trình kiểm toán bảo mật dùng LLM cao cấp thì có thể đảm bảo chất lượng
    Muốn cứu bug bounty thì cũng có thể cân nhắc thu phí tham gia hoặc áp dụng kiểm chứng bằng LLM

    • Google đã vận hành dự án bảo mật dùng AI mang tên Big Sleep, và đã báo cáo lỗ hổng cho nhiều dự án mã nguồn mở
      Liên kết liên quan
    • Sẽ rất hay nếu có hệ thống tự động xác minh bug report
      Ví dụ khởi chạy VM rồi để agent thực hiện kiểm thử tái hiện
    • Tôi nhớ việc cung cấp miễn phí của Anthropic được vận hành theo hình thức tự gia hạn mỗi 6 tháng