1 điểm bởi GN⁺ 2026-03-01 | 5 bình luận | Chia sẻ qua WhatsApp
  • OpenAI đã ký hợp đồng triển khai các hệ thống AI tiên tiến trong môi trường mật với Department of War, đồng thời đề nghị điều này được áp dụng như nhau cho mọi công ty AI
  • Công ty cho biết hợp đồng này bao gồm nhiều rào chắn an toàn hơn so với các đợt triển khai AI mật trước đây
  • OpenAI nêu rõ các lằn ranh đỏ: không sử dụng công nghệ của mình cho giám sát nội địa quy mô lớn, chỉ huy vũ khí tự động, hoặc ra quyết định tự động rủi ro cao
  • Duy trì toàn quyền với ngăn xếp an toàn, triển khai dựa trên đám mây, có sự can thiệp của nhân sự có cấp phép an ninh, và áp dụng các biện pháp bảo vệ hợp đồng mạnh mẽ
  • OpenAI đã nói rõ với Department of War rằng không nên chỉ định Anthropic là rủi ro chuỗi cung ứng

Ký hợp đồng với Department of War

  • OpenAI đã ký hợp đồng với Department of War để triển khai các hệ thống AI tiên tiến trong môi trường mật
    • Đồng thời đề nghị việc triển khai này được cung cấp như nhau cho mọi công ty AI
  • Hợp đồng lần này bao gồm nhiều biện pháp an toàn hơn so với các hợp đồng triển khai AI mật trước đây

Duy trì các lằn ranh đỏ

  • Không sử dụng công nghệ của OpenAI cho giám sát nội địa quy mô lớn
  • Không sử dụng công nghệ của OpenAI để chỉ huy các hệ thống vũ khí tự động
  • Không sử dụng công nghệ của OpenAI cho các hệ thống ra quyết định tự động rủi ro cao (ví dụ: social credit)

Cấu trúc bảo vệ an toàn nhiều lớp

  • Đối lập với một số phòng thí nghiệm AI đã thu hẹp hoặc loại bỏ các biện pháp bảo vệ tập trung vào chính sách sử dụng trong các đợt triển khai an ninh quốc gia
  • OpenAI áp dụng cách tiếp cận nhiều lớp mở rộng
    • Duy trì toàn quyền quyết định đối với ngăn xếp an toàn
    • Duy trì phương thức triển khai dựa trên đám mây
    • Cấu trúc có sự tham gia của nhân sự OpenAI đã được cấp phép an ninh
    • Bao gồm các biện pháp bảo vệ hợp đồng mạnh mẽ
    • Song hành với các biện pháp bảo vệ sẵn có theo luật pháp Mỹ

Lập trường về Anthropic

  • Bày tỏ lập trường phản đối việc chỉ định Anthropic là rủi ro chuỗi cung ứng
  • Đã truyền đạt rõ ràng lập trường này tới Department of War

5 bình luận

 
kayws426 2026-03-01

Có lẽ cần sắp xếp lại mốc thời gian của nội dung liên quan. Cũng có ý kiến nói rằng OpenAI khi đó đang trong quá trình đàm phán hợp đồng, phải không?

 
kentakang 2026-03-01

Đây là lần đầu tôi thấy lỗi tóm tắt thành “không có nội dung”..

 
xguru 2026-03-01

Có vẻ là có những trường hợp như vậy vì việc để x thu thập dữ liệu đã trở nên khá khó xử. Chúng tôi sẽ cố gắng cải thiện.

 
kentakang 2026-03-01

Tôi luôn theo dõi rất kỹ, xin cảm ơn.

 
GN⁺ 2026-03-01
Ý kiến trên Hacker News
  • Cốt lõi nằm ở câu chữ thực tế trong hợp đồng của OpenAI và sự khác biệt với những gì Altman nói
    Trong hợp đồng ghi rằng “nếu pháp luật hoặc chính sách yêu cầu sự kiểm soát của con người thì sẽ không được sử dụng cho vận hành vũ khí tự động”
    Nghĩa là nếu Bộ Quốc phòng quyết định rằng “không cần kiểm soát của con người” thì vẫn có thể làm như vậy
    Anthropic đặt ra một ranh giới cấm tuyệt đối là “tuyệt đối không được giám sát quy mô lớn”, còn OpenAI thì nới lỏng theo kiểu “nếu pháp luật cho phép thì có thể”
    Ký một hợp đồng như vậy rồi lại giả vờ đứng về phía Anthropic trông giống một màn PR hiếm thấy trong ngành

    • Tôi cho rằng cách hành xử này của Altman là kiểu hành vi điển hình từng thấy trong vụ bị sa thải trước đây
    • Họ diễn đạt theo kiểu “cấm giám sát quy mô lớn đối với người Mỹ”, nhưng rốt cuộc vẫn để lại quá nhiều khoảng trống cho diễn giải
  • Trong chuỗi bài trên X, OpenAI tuyên bố rằng “hợp đồng với Bộ Quốc phòng vẫn giữ các redline của chúng tôi”
    Nhưng theo bài báo của NPR, Anthropic đã bị loại khỏi hợp đồng vì giữ cùng tiêu chuẩn đó, còn OpenAI thì nhận tiền

    • Anthropic đưa ra một quyết định đạo đức là “không vượt qua lằn ranh này”, còn OpenAI hành xử theo kiểu “cứ để Bộ Quốc phòng tự lo”
      Vì thế họ mới giành được hợp đồng
    • Anthropic đã cố đưa các điều khoản hạn chế vào hợp đồng, còn OpenAI thì nói “guardrail nội bộ của chúng tôi là đủ”
      Nhưng guardrail có ngăn được việc giám sát dân thường hay không thì vẫn đáng nghi
    • Xem bài đăng chính thức của OpenAI thì có thể thấy redline của họ không trùng với của Anthropic
    • Cũng có khả năng chính phủ đã loại Anthropic chỉ vì lý do trả đũa
    • Tôi cho rằng Altman là một người không có lương tâm, và không có lý do gì để tin lời ông ta
  • Vấn đề của điều khoản “Any Lawful Use” là Bộ Quốc phòng có thể tự ý định nghĩa thế nào là ‘hợp pháp’
    Chỉ cần luật sư nội bộ viết một bản ghi nhớ thì như vậy là thành hợp pháp

    • Nếu nghĩ rằng các vấn đề pháp lý sau 9/11 đã biến mất chỉ vì có LLM thì đó là ngây thơ
      Việc lạm dụng quyền lực của chính phủ phải được sửa bằng bầu cử và cải cách thể chế
    • Thực tế chuyện như vậy đã xảy ra nhiều lần (ví dụ: bản ghi nhớ hợp pháp hóa tra tấn của John Yoo)
      Hệ thống không được thiết kế như thế, nhưng thực tế lại khác
    • Những việc này phần lớn diễn ra trong bí mật, và ngay cả khi bị phanh phui sau đó thì cũng được miễn trách với danh nghĩa “người yêu nước”
    • Cuối cùng vài năm sau lại có một báo cáo điều tra xuất hiện rồi mọi người quên hết, một kịch bản lặp đi lặp lại
    • Ngay cả khi bị chất vấn về mặt pháp lý thì họ vẫn có thể ẩn sau các đạo luật như Patriot Act
  • Rốt cuộc cái gọi là “Department of War” được đặt tên mới này chỉ sẽ lãng phí tiền thuế để mua những công nghệ vô dụng với giá đắt đỏ
    Tôi thấy thương cho người dân

  • Khác biệt giữa Anthropic và OpenAI là Anthropic cố cưỡng chế các giới hạn bằng kỹ thuật, còn OpenAI chỉ hứa bằng lời rằng “mong chính phủ đừng vi phạm”
    Việc chính phủ chọn bên sau là điều dễ hiểu

    • Xem toàn văn hợp đồng của OpenAI thì cụm từ “mọi mục đích hợp pháp” là mấu chốt
      Tức là vẫn để ngỏ khả năng “nếu hợp pháp thì giám sát quy mô lớn hay vũ khí tự động gây chết người cũng được”
    • OpenAI chỉ muốn giới hạn trong phạm vi luật do chính phủ đặt ra, còn Anthropic thì muốn vạch ranh giới theo tiêu chuẩn riêng của mình
    • Trên thực tế, OpenAI không hề yêu cầu bất kỳ bảo đảm thực chất nào, và Altman trông như một người chỉ trung thành với lòng tham
  • AI đưa ra quyết định giết chóc một cách tự động là một ý tưởng cực kỳ nguy hiểm
    Không chỉ vì siêu trí tuệ, mà còn vì ngay cả mô hình nhỏ cũng có thể cho phép bất kỳ ai tạo ra vũ khí không thể truy vết
    Các mô hình hiện tại đã được huấn luyện để có thái độ tích cực với sinh mạng con người, nhưng nếu loại bỏ điều đó thì sẽ thành một hệ thống quái vật

    • Nhưng LLM không thể ‘hiểu’ hay ‘coi trọng’ sinh mạng con người
      Nó chỉ là bộ dự đoán token theo xác suất mà thôi
    • Thực tế thì từ 20 năm trước AI đã tham gia vào quyết định sát thương rồi
      Ví dụ, chương trình lập danh sách mục tiêu bị tiêu diệt còn con người điều khiển drone
    • Việc đánh lừa mô hình để nó đưa ra lệnh giết chóc cũng rất dễ làm
    • Ý nghĩ rằng LLM tôn trọng sự sống chỉ là ảo tưởng
  • Có vẻ mọi người quên rằng Anthropic từng hợp tác với Palantir
    Khi chuyện đó bị phanh phui, họ chỉ dùng PR để che lấp mà thôi

    • Những tuyên bố kiểu này là bài viết trông như tuyên truyền, nên khó mà tin được
    • Theo hiểu biết của tôi, mô hình Anthropic của Palantir đã được dùng trong hệ thống khép kín dành cho thực địa quân sự
    • Có vẻ nhiều người không thực sự hiểu Palantir đang làm gì
  • Có vẻ OpenAI đang mất khách vì tranh cãi lần này nên mới đăng bài viết để quản lý hình ảnh

  • Anthropic từng muốn chính phủ siết chặt quy định AI, và giờ thì có thể xem như chính họ đang nhận lại hệ quả đó

  • Chuyện lần này trông như OpenAI đang phản ứng bằng PR vì họ ý thức được chỉ trích rằng tiêu chuẩn đạo đức của họ yếu

    • Vấn đề là cả hai công ty đều chỉ áp dụng tiêu chuẩn đạo đức trong phạm vi biên giới
      Ở nước ngoài thì việc sử dụng phi đạo đức vẫn hoàn toàn có thể xảy ra