7 điểm bởi GN⁺ 2026-01-22 | 2 bình luận | Chia sẻ qua WhatsApp
  • Thư viện mã nguồn mở cURL đã chấm dứt chương trình bug bounty nhằm ngăn chặn sự gia tăng đột biến của các báo cáo lỗi vô nghĩa do AI tạo ra
  • Người duy trì Daniel Stenberg giải thích rằng phần lớn các báo cáo do AI tạo ra đều là “hoàn toàn bịa đặt”, và việc xác minh chúng tiêu tốn rất nhiều thời gian
  • cURL đã ngừng chi trả phần thưởng từ cuối tháng 1, và trước đó đã chi tổng cộng 101.020 USD cho 87 báo cáo
  • Nhà nghiên cứu bảo mật Joshua Rogers vẫn sử dụng công cụ AI để gửi các báo cáo hợp lệ, nhưng đánh giá quyết định lần này là “một bước đi rất khôn ngoan
  • Anh cho rằng động lực thực sự không phải là tiền mà là danh tiếng và thành tựu kỹ thuật, đồng thời nói rằng các dự án khác cũng cần cân nhắc những biện pháp tương tự

Quyết định chấm dứt bug bounty của cURL

  • Thư viện mã nguồn mở cURL đã dừng trả thưởng bằng tiền cho các báo cáo lỗi
    • Mục đích là để kiềm chế làn sóng báo cáo giả do AI tạo ra (AI slop) đang tăng mạnh
    • Người duy trì Daniel Stenberg cho biết: “AI slop và các báo cáo thiếu chính xác đang tiếp tục gia tăng, và nếu không chặn được cơn lũ này, chúng tôi sẽ chỉ có thể chìm nghỉm”
  • cURL đã kết thúc việc chi trả bounty từ cuối tháng 1
    • Ông giải thích rằng “quá nhiều thời gian đang bị lãng phí vì những phát hiện không tồn tại thật, bị phóng đại hoặc bị hiểu sai”

Vấn đề và tác động của các báo cáo do AI tạo ra

  • Gần đây, cURL đã phải gánh thêm khối lượng công việc rất lớn do các báo cáo lỗi được AI tự động tạo ra
    • Phần lớn các báo cáo do AI tạo ra được xác định là vô nghĩa hoặc sai sự thật
    • Quá trình phân loại các báo cáo này rất tốn thời gian, tạo thành gánh nặng lớn cho người duy trì
  • Stenberg từng công khai đề cập vấn đề này trong bài viết “Death by a thousand slops” vào năm 2025

Những trường hợp tích cực của báo cáo có AI hỗ trợ

  • Không phải mọi báo cáo do AI tạo ra đều vô giá trị
    • Stenberg cho biết đã có hơn 100 báo cáo có AI hỗ trợ thực sự dẫn đến việc sửa mã nguồn
  • Tính đến nay, cURL đã trả tổng cộng 101.020 USD tiền bounty cho 87 báo cáo lỗi
    • Cũng có khả năng một số báo cáo sẽ không được phát hiện nếu không có bounty (không có phân tích bổ sung)

Quan điểm của nhà nghiên cứu bảo mật Joshua Rogers

  • Joshua Rogers là người đã dùng công cụ AI để gửi nhiều báo cáo lỗi hợp lệ cho các dự án mã nguồn mở
    • Anh xem xét kết quả phân tích của AI, tự mình bổ sung rồi mới gửi đi
  • Rogers nhận xét về quyết định của cURL rằng đây là “một biện pháp tuyệt vời đáng lẽ nên được thực hiện từ lâu
    • Anh nói thêm rằng “việc chương trình này tồn tại lâu đến vậy mới thực sự là điều lạ”
  • Anh cho biết “nếu bug bounty biến mất thì một phần động lực sẽ giảm đi, nhưng những báo cáo quan trọng vẫn sẽ tiếp tục được gửi

Sự mất cân bằng giữa phần thưởng và động lực

  • Rogers nhấn mạnh rằng “danh tiếng (fame) mới là động lực thực sự, còn phần thưởng tiền bạc chỉ là thứ yếu”
    • Mức bounty tối đa của cURL là 10.000 USD, không phải số tiền đủ lớn với những chuyên gia có khả năng tìm ra lỗ hổng nghiêm trọng
  • Tuy nhiên, anh cũng chỉ ra sự chênh lệch kinh tế
    • Cùng một mức thưởng nhưng với các nhà nghiên cứu ở khu vực thu nhập thấp, ý nghĩa có thể rất lớn
    • Anh giải thích rằng “một khoản thưởng chỉ tương đương tiền ăn trưa ở Thụy Điển cũng có thể là số tiền rất lớn ở một số nơi khác”

Thách thức chung của hệ sinh thái mã nguồn mở

  • Theo bài viết, các dự án mã nguồn mở khác cũng đang chịu áp lực vì làn sóng báo cáo do AI tạo ra
  • Quyết định lần này của cURL có thể khơi ra một cuộc thảo luận mới về cách kiểm soát chất lượng và vận hành cộng đồng trong kỷ nguyên AI (không có giải thích bổ sung)

2 bình luận

 
xguru 2026-01-22

Việc công nghiệp hóa tạo exploit phục vụ hack dựa trên LLM đang đến gần

Điều này đi cùng với xu hướng đó, có vẻ như thời điểm mà chúng ta buộc phải áp dụng LLM vào nhiều lĩnh vực khác nhau đang đến gần.
Ngay cả để ngăn chặn các hacker sử dụng LLM, cũng cần giao cho LLM đảm nhiệm việc kiểm chứng về bảo mật

 
GN⁺ 2026-01-22
Ý kiến trên Hacker News
  • Có vẻ việc áp dụng phí tham gia được hoàn lại nếu lỗi thực sự được xác nhận là vấn đề nghiêm trọng có thể chặn nhanh kiểu vấn đề này
    Tôi nhớ từng báo cáo một lỗ hổng trong cơ chế đăng nhập ngân hàng, nơi có thể chuyển từ mật khẩu+PIN sang chỉ dùng PIN, nhưng họ đóng lại với lý do đó là “hành vi như thiết kế”
    Tôi đã học được rằng các tổ chức chịu nhiều quy định như bệnh viện hay ngân hàng thường tập trung vào việc ‘đáp ứng tuân thủ’ hơn là bảo mật thực sự
    Nếu bên tổ chức bug bounty vận hành với thiện chí, thì rào cản tham gia hay hình phạt kiểu này có thể giúp lọc bớt những người gửi ác ý

    • Bug bounty là một cấu trúc rủi ro cao với người gửi
      Reviewer thường hiểu sai nội dung, hoặc quy tắc lại mơ hồ
      Nếu còn thu phí tham gia thì rủi ro đó càng lớn hơn
      Trước đây khi tôi ở phía vận hành cũng đã có quá nhiều báo cáo tệ hại, giờ thêm cả AI thì chắc còn nghiêm trọng hơn
      Ngay cả từ phía người gửi cũng khó được bảo đảm đánh giá công bằng, và khả năng trùng báo cáo cũng rất cao
    • Thực tế đáng buồn là các tổ chức bị quản lý chặt thường chỉ duy trì mức tối thiểu để không bị bắt lỗi thay vì ưu tiên bảo mật
      Trước đây có một ngân hàng EU chỉ cho phép đăng nhập chữ ký điện tử hỗ trợ SHA-1, dù đó đã là thuật toán bị loại bỏ từ 10 năm trước
      Phần mềm của nhà cung cấp danh tính được chính phủ chứng nhận thì cứ thấy YubiKey được cắm vào là crash
      Dù đó là thiết bị tuân theo tiêu chuẩn, nhà phát triển lại đưa ra giả định ngoài tiêu chuẩn
      Tôi đã báo lỗi nhưng chỉ nhận được câu trả lời “không phải vấn đề của chúng tôi”
    • Cốt lõi của bug bounty là khuyến khích báo lỗ hổng cho nhà phát triển
      Nhưng nếu muốn báo cáo lại phải trả tiền, còn hoàn tiền hay thưởng cũng không chắc chắn, thì bán cho nơi khác có thể lại hấp dẫn hơn
    • Cơ chế thu phí tham gia làm tăng mạnh độ phức tạp trong vận hành
      Daniel của cURL đã xem xét ý tưởng này nhiều lần, nhưng cuối cùng kết luận là không khả thi
    • Tôi cũng đi đến cùng kết luận sau khi xem trường hợp của GrapheneOS
      Các thiết bị kém an toàn nhưng được chứng nhận thì dùng được mọi tính năng của ứng dụng, còn GrapheneOS là OS an toàn nhất lại bị hạn chế chức năng chỉ vì “không có chứng nhận”
      Cuối cùng vấn đề không phải là bảo mật mà là hệ thống chứng nhận
  • Có vẻ mã nguồn mở là bên chịu thiệt hại lớn nhất từ AI
    Mã nguồn mở bị dùng để huấn luyện model, rồi giờ chính các model đó lại spam các dự án mã nguồn mở
    AI còn triển khai các tính năng vốn thu phí, làm xói mòn mô hình kinh doanh mã nguồn mở, và cuối cùng có thể thay thế cả chính mã nguồn mở

    • AI là thứ giết chết mọi động lực của mã nguồn mở
      Nó làm biến mất động lực đóng góp, bảo trì, học hỏi, cộng tác và xây dựng kinh doanh
      Thậm chí còn phá vỡ cả hình thức việc làm truyền thống là làm trên code đóng
      Rốt cuộc chỉ còn cảnh ba công ty Mỹ cạnh tranh để bán lại thành quả lao động quá khứ của chúng ta dưới dạng thuê bao
    • Từ sau AI, số người không thực sự biết code nhưng cố kiếm huy hiệu contributor ở các kho lớn đã tăng vọt
      Trước đây cũng từng có kiểu đóng góp để lấy tiếng như vậy, nhưng bây giờ quy mô đã hoàn toàn khác
    • Nếu xu hướng này tiếp tục, các chương trình như Google Summer of Code có lẽ cũng cần cải tổ lớn
      Trước kia sinh viên tự tìm dự án và đóng góp nên quá trình lọc diễn ra tự nhiên, còn nếu AI làm thay thì bộ lọc đó biến mất
    • Việc AI làm lung lay mô hình kinh doanh mã nguồn mở là điều đáng buồn, nhưng không ai có quyền sở hữu một mô hình kinh doanh
      Khi thế giới cạnh tranh, việc mô hình dựa trên open-core sụp đổ là chuyện tự nhiên
    • Model không chỉ được huấn luyện bằng mã nguồn mở
      Nó còn gồm giáo trình, bài giảng, tài liệu chính thức, v.v.
      Trước đây tôi từng nhờ Claude thêm tính năng GUI để khôi phục dữ liệu từ một thiết bị Android cũ, và nó hoạt động khá tốt
      Vì phần code đi lệch hướng dự án ban đầu nên tôi không đưa lại lên GitHub
  • Với hacker mũ trắng, phần thưởng bug bounty không lớn lắm, nhưng việc tham gia vẫn có ý nghĩa như một lựa chọn đạo đức
    Ngược lại, nếu đó là lỗ hổng có thể bị khai thác thì cũng có thể bán cho tác giả malware, nơi trả nhiều tiền hơn

    • Nhưng trên thực tế, giao dịch với tác giả malware gần như bất khả thi
      Hai bên không có lòng tin nên phải cần các thủ tục phức tạp như escrow bằng tiền mã hóa, rửa tiền, v.v.
      Nếu giao dịch kiểu này mà không có chấp thuận của chính phủ thì rủi ro pháp lý cũng rất lớn
      Cuối cùng tôi nghĩ thị trường đó khó mà vận hành thực chất
    • Biết đâu chính các tác giả malware cũng đang vất vả lọc đống báo cáo rác do AI tạo ra
  • Hackerone có hệ thống danh tiếng cho hacker
    Có vẻ sẽ tốt hơn nếu họ vận hành các chương trình riêng tư chỉ mời hacker đã được xác minh, không hiểu sao họ không làm vậy

    • Nhưng nếu mọi dự án đều làm thế thì hacker mới sẽ không còn cơ hội chứng minh bản thân
      Cuối cùng rào cản gia nhập hệ sinh thái có thể trở nên quá cao
  • Ngoài phần thưởng tiền bạc còn có động lực như danh tiếng hay lấy được CVE
    Stenberg đã nhiều lần nói trên blog về các trường hợp lỗ hổng bị thổi phồng quá mức, và một số có vẻ là phóng đại có chủ đích vì danh tiếng
    Những động cơ kiểu này rất khó xử lý chỉ bằng thiết kế incentive

  • Có một video cho thấy bối cảnh của vấn đề này → liên kết YouTube

    • Tôi đã định xem nhưng cách nói và cử chỉ kiểu YouTube phóng đại bây giờ làm tôi quá mệt nên tắt luôn
      Micro khổng lồ, cử chỉ quá đà, những từ như “awesome”, “insane” thống trị cả cuộc trò chuyện khiến tôi thấy rất mệt
  • Câu “mức thưởng cỡ một bữa trưa ở Thụy Điển cũng là lớn với người ở các nước thu nhập thấp” nghe như một khẳng định quá mức
    Một bữa trưa ở trung tâm Stockholm cỡ 200 krona, người có kỹ năng như vậy khó mà coi đó là ‘số tiền lớn’ được

    • Nhưng nếu nhìn từ góc độ các nước đang phát triển thì mức trần 10.000 USD có thể tương đương vài năm lương tối thiểu
      Dù có phần phóng đại thì đó vẫn là khác biệt không thể xem nhẹ
  • Bug bounty ở công ty chúng tôi thực chất chỉ là một địa chỉ email bảo mật, vậy mà mỗi ngày nhận hơn 100 thư spam
    Phần lớn là báo cáo pentest giả do AI tạo ra, đầy lỗ hổng bịa đặt và thông tin sai
    Thậm chí có sales còn định sắp một cuộc họp 3 tiếng, trong khi báo cáo ghi cả lỗi IIS không tồn tại và địa chỉ IP không thể có
    Lúc đó tôi thực sự cạn lời

  • Trước đây việc tìm bug chậm và khó nên cần incentive, còn giờ việc phân biệt bug thật mới là phần khó hơn
    Thậm chí còn có câu đùa rằng thợ săn bug AI là kiểu “tìm được 3 lỗi thật trong 100 cái”

    • Nhưng việc tìm lỗ hổng nghiêm trọng vẫn là lĩnh vực của con người
      AI hiện vẫn chưa làm được các lỗ hổng trong codebase như cURL hay binary exploit
    • Cuối cùng, quá trình xác định bug thật vẫn cứ chậm và vất vả như cũ
  • Danh sách báo cáo rác do AI tạo cho cURL đã được công khai → liên kết gist

    • Ở báo cáo thứ hai, Daniel đã cố trò chuyện một cách lịch sự nhưng đối phương còn gọi sai cả tên ông ấy
      Đó là tháng 12/2023, chắc lúc đó ông ấy đã rất kiệt sức
    • Tôi đọc thử vài cái, khó mà phân biệt đó là do AI viết hay một sinh viên mới bắt đầu viết
      Dù vậy, LLM nghe vẫn có vẻ thuyết phục hơn
    • Tôi đã bật cười khi thấy câu “đã tìm lỗ hổng này trên Bard”
      Việc nhắc đến Bard như một LLM nghe tự nhiên lại thấy lạ
    • Rõ ràng tất cả đều do AI viết, nên việc nhân viên phản hồi nghiêm túc còn khiến tôi thấy kỳ lạ hơn
    • Thành thật mà nói, chỉ đọc thôi cũng đã đủ mức gây bực bội
      Thật đáng ngạc nhiên là cURL đã kiên nhẫn ứng phó lâu đến vậy