3 điểm bởi GN⁺ 2026-02-28 | 3 bình luận | Chia sẻ qua WhatsApp
  • CEO OpenAI Sam Altman công bố đã đạt được thỏa thuận triển khai mô hình trong mạng lưới mật với Bộ Quốc phòng Mỹ (DoD)
  • Thỏa thuận bao gồm nguyên tắc cấm giám sát quy mô lớn trong nướctrách nhiệm của con người đối với việc sử dụng vũ lực, bao gồm cả hệ thống vũ khí tự động; Bộ Quốc phòng cũng đồng ý với các nguyên tắc này
  • Điều kiện gồm xây dựng các biện pháp bảo vệ kỹ thuật để mô hình hoạt động đúng như dự định, chỉ triển khai trên mạng cloud, và cử FDE (Field Deployment Engineer) tham gia
  • OpenAI đề nghị Bộ Quốc phòng áp dụng cùng các điều kiện này cho mọi công ty AI, và cho rằng đây là những điều kiện mà mọi công ty đều có thể chấp nhận
  • Công ty bày tỏ mong muốn mạnh mẽ về việc giảm căng thẳng thông qua các thỏa thuận hợp lý hơn là các biện pháp ở cấp độ pháp lý hoặc chính phủ

Nội dung thỏa thuận

  • OpenAI ký thỏa thuận triển khai mô hình trong mạng lưới mật của Bộ Quốc phòng
  • Trong quá trình đàm phán, OpenAI đánh giá rằng Bộ Quốc phòng đã thể hiện sự tôn trọng sâu sắc đối với an toàn và mong muốn hợp tác để đạt kết quả tốt nhất

Nguyên tắc an toàn

  • An toàn AI và việc phân phối rộng rãi lợi ích là cốt lõi trong sứ mệnh của OpenAI
  • Hai nguyên tắc an toàn cốt lõi trong thỏa thuận:
    • Cấm giám sát quy mô lớn trong nước
    • Trách nhiệm của con người đối với việc sử dụng vũ lực, bao gồm cả hệ thống vũ khí tự động
  • Bộ Quốc phòng cũng đồng ý với các nguyên tắc này, đồng thời phản ánh chúng trong luật pháp và chính sách và ghi rõ trong thỏa thuận

Biện pháp bảo vệ kỹ thuật và điều kiện triển khai

  • Sẽ xây dựng các biện pháp bảo vệ kỹ thuật (technical safeguards) để mô hình hoạt động đúng như dự định; đây cũng là điều Bộ Quốc phòng mong muốn
  • Để hỗ trợ mô hình và bảo đảm an toàn, sẽ cử FDE (Field Deployment Engineer) tham gia
  • Điều kiện là chỉ triển khai trên mạng cloud

Đề nghị mở rộng ra toàn ngành

  • OpenAI đề nghị Bộ Quốc phòng đưa ra cùng các điều kiện này cho mọi công ty AI
  • Công ty cho rằng đây là những điều kiện mà mọi doanh nghiệp đều sẵn sàng chấp nhận (willing to accept)
  • Công ty bày tỏ mong muốn mạnh mẽ về việc giảm căng thẳng thông qua các thỏa thuận hợp lý thay vì các biện pháp ở cấp độ pháp lý hoặc chính phủ

3 bình luận

 
xguru 2026-02-28

Rốt cuộc thì việc Bộ Quốc phòng Mỹ bỏ Anthropic và chọn OpenAI, nhưng cách diễn đạt thường thấy lại có sự khác biệt.

OpenAI cùng đề xuất cơ chế triển khai cụ thể như xây dựng các biện pháp an toàn kỹ thuật, đưa FDE (kỹ sư hiện trường) vào, và triển khai chuyên dụng trên đám mây
Anthropic thì yêu cầu điều khoản ngoại lệ ở mức điều khoản sử dụng

Từ góc nhìn của Bộ Quốc phòng Mỹ, điều đó bị xem là "một doanh nghiệp tư nhân thực hiện quyền phủ quyết đối với từng trường hợp sử dụng riêng lẻ", nên họ công bố theo kiểu như muốn dằn mặt.

Thỏa thuận này được công bố không lâu sau khi Anthropic bị chỉ định là rủi ro chuỗi cung ứng,
nếu nhìn bài của Axios thì Bộ Quốc phòng đã tận dụng cuộc đối đầu với Anthropic để thiết lập tông giọng trong các cuộc đàm phán với những công ty AI khác,
và OpenAI, dưới áp lực đó, đã dẫn dắt được một thỏa thuận theo hình thức mà Bộ Quốc phòng có thể chấp nhận

Sự khác biệt trong cách diễn đạt lập trường chính thức cũng khá lớn.

Sam Altman nói rằng "Bộ Quốc phòng đã thể hiện sự tôn trọng sâu sắc đối với an toàn",
trong khi phía Anthropic đến cuối vẫn giữ tông "về mặt lương tâm, chúng tôi không thể đồng ý với yêu cầu của Bộ Quốc phòng"

Có vẻ như, dù cùng một nguyên tắc, khác biệt lớn nằm ở chỗ có giữ thể diện cho Bộ Quốc phòng hay không,
và kết quả là khi OpenAI chấp nhận thì cục diện trở nên hơi kỳ,
nên ở đoạn cuối Sam Altman đã thêm câu "hãy đề nghị các điều kiện này giống nhau với mọi công ty AI",
như một thông điệp gián tiếp rằng nên nới lỏng các biện pháp đối với Anthropic.

 
lamanus 2026-03-01

Dù là hợp đồng ở cùng một mức độ, cảm giác về độ tin cậy hay hình ảnh lại khác hẳn nhau.
Chắc tôi cũng nên hủy đăng ký gpt thôi.

 
GN⁺ 2026-02-28
Ý kiến trên Hacker News
  • Tôi không hiểu vì sao nhân viên OpenAI đã tham gia ký vào tuyên bố ‘We Will Not Be Divided’ mà sau vụ này vẫn tiếp tục làm việc ở đó
    Nếu OpenAI cũng giữ vững các điều kiện mà Anthropic yêu cầu thì chính phủ đã không phê duyệt hợp đồng này
    Cuối cùng chỉ có thể hiểu là đã tồn tại một sự đồng thuận ngầm rằng OpenAI trên thực tế sẽ không thực thi các lằn ranh giới hạn
    • Tôi nghĩ ngay từ lúc Sam Altman bị sa thải rồi quay lại thì những nhân viên ưu tiên an toàn đã rời đi rồi
      Những người còn lại giờ phần lớn chắc là vì cổ phiếu
    • Nhưng cũng có thông tin rằng OpenAI đã đưa các nguyên tắc tương tự Anthropic vào hợp đồng
      Họ nói đã ghi rõ “cấm giám sát quy mô lớn trong nước” và “con người chịu trách nhiệm cho việc sử dụng vũ lực”, đồng thời cho biết DoW(Department of War) cũng đã đồng ý với điều này
    • Rốt cuộc chuyện này cho thấy tất cả các công ty AI lớn rồi cũng sẽ ký vào việc ứng dụng công nghệ cho mục đích quân sự một cách thiếu minh bạch
    • Nhìn vào một năm qua của chính quyền Trump thì những cuộc thương lượng phi lý như thế này hoàn toàn không có gì đáng ngạc nhiên
      Đó đúng kiểu của họ: tự đốt vốn chính trị rồi chốt những thỏa thuận còn tệ hơn
    • Tôi cho rằng phía sau là ý đồ chính trị muốn chính phủ kiểm soát doanh nghiệp
      OpenAI có thể đã đưa ra các điều kiện giống Anthropic, nhưng nhờ tiền vận động hành lang hoặc hiệu ứng PR mà chính phủ đã làm ngơ
  • Nếu thấy không hài lòng với vụ này thì nên thể hiện quan điểm bằng ví tiền
    Tôi cũng đã xóa ChatGPT, hủy đăng ký và quyết định ủng hộ Anthropic nhiều hơn
    • Tôi cũng từng hủy gói Claude vào thời điểm tương tự, nhưng vì vụ này nên đã đăng ký lại Claude
      Tôi thấy lập trường có nguyên tắc là quan trọng, và giờ tôi không còn tin OpenAI nữa
    • Tôi cũng vừa hủy đăng ký xong
      Chút tôn trọng còn sót lại dành cho Sam Altman cũng biến mất, và tôi thấy ghê tởm trước thực tế AI đã bị lòng tham của con người làm tha hóa
      Những lý tưởng từ thời OpenAI khởi đầu như một tổ chức phi lợi nhuận đã hoàn toàn biến mất
      Mọi người nên hủy đăng ký hết và đánh thuế thật mạnh những công ty và CEO kiểu này
    • Thực ra tôi đã chuyển sang Claude và Gemini từ 4 tháng trước rồi
      Chỉ nhìn chất lượng sản phẩm thôi cũng thấy OpenAI không còn như xưa nữa
    • Tôi đã xóa toàn bộ hội thoại và xóa hẳn tài khoản luôn
    • Tôi cũng cùng quan điểm. Từ giờ tôi sẽ không chi thêm một xu nào cho OpenAI
      Tôi sẽ theo dõi xem Google chọn làm gì
  • Tôi nghĩ Sam Altman là một trong những nhân vật khó tin cậy nhất trong ngành AI
    Những câu như “con người chịu trách nhiệm cho việc sử dụng vũ lực” nghe giống phát ngôn né tránh
    • “Trách nhiệm của con người” không giống với “quyết định của con người”
      Nghĩa là cuối cùng vũ khí sát thương tự động vẫn có thể xảy ra
      Dù tổng thống hay Bộ Quốc phòng có được nêu là ‘người chịu trách nhiệm’ thì trên thực tế việc truy cứu trách nhiệm là bất khả thi
  • Chỉ riêng việc họ gọi cơ quan chính phủ là “Department of War” cũng đã nói lên tất cả
  • Có phần giải thích về sự khác biệt giữa hợp đồng của OpenAI và Anthropic do Thứ trưởng Bộ Ngoại giao đưa ra
    Bài đăng thứ nhất nói rằng hợp đồng với OpenAI có các biện pháp an toàn dựa trên ràng buộc pháp lý
    Bài đăng thứ hai nói rằng hợp đồng được ký dựa trên tiêu chuẩn “mọi cách sử dụng hợp pháp”, và lập luận đây là cách tiếp cận trao quyền cho hệ thống dân chủ
    Có thông tin cho rằng Anthropic đã từ chối phương án thỏa hiệp như vậy
    • Nhưng lời hứa rằng chính phủ sẽ chỉ làm “những việc hợp pháp” hoàn toàn không khiến tôi yên tâm
      Trước đây đã có rất nhiều trường hợp hợp thức hóa hành vi bất hợp pháp, thậm chí còn sửa luôn cả luật
      Cuối cùng chỉ dựa vào luật thôi thì không thể ngăn chính phủ lạm quyền
    • Phát ngôn của vị thứ trưởng đó chỉ là lời tuyên truyền mang tính PR từ bên trong nhánh hành pháp, không phải phân tích khách quan
    • Hơn nữa ông ta cũng không phải người trực tiếp tham gia đàm phán
      Kể cả nếu lời giải thích đó đúng, vẫn khó tin cho đến khi một cơ quan báo chí đáng tin công bố toàn văn hợp đồng
      Nếu đúng thật thì có lẽ mức phản ứng phù hợp là tẩy chay OpenAI và quân đội Mỹ
  • Theo CNN, OpenAI cũng có các lằn ranh giới hạn(redlines) giống Anthropic
    Bài viết liên quan
    • Nhưng kỳ vọng tính nhất quán logic từ chính quyền Trump là điều không thực tế
      Có lẽ vấn đề không nằm ở các lằn ranh giới hạn, mà là chính phủ xem Anthropic là đối thủ chính trị
  • Lúc đầu tôi cũng nghĩ đây là kiểu hành động cơ hội chủ nghĩa quen thuộc của Sam Altman, và đã cân nhắc hủy đăng ký
    Nhưng nhìn khách quan hơn thì điểm mấu chốt là ai là người có quyền phán định “sử dụng hợp pháp”: chính phủ hay công ty AI
    Nhìn vào bài đăng liên quan thì Anthropic được cho là đã cố phản ánh trực tiếp tiêu chuẩn này vào hiến pháp của Claude
    Cuối cùng tôi đã hủy đăng ký cho đến khi OpenAI đưa ra lập trường rõ ràng
    • Thực ra DoW đã đồng ý với các điều kiện của Anthropic hơn một năm rồi
      Nhưng rồi đột ngột đòi đàm phán lại bằng cách đe dọa chỉ định SCR và cưỡng chế mua lại theo DPA
      Nếu hợp đồng của OpenAI thật sự tương tự Anthropic thì đây đúng là chuyện đạo đức giả và bất công
  • Thật lạ khi OpenAI có cùng các lằn ranh giới hạn như Anthropic mà hợp đồng vẫn được ký
    • Có lẽ Sam đã hứa với Bộ Quốc phòng rằng đó chỉ là lằn ranh giới hạn tạm thời
      Theo thời gian họ sẽ cho phép các mô hình dùng cho vũ khí tự động, còn chức năng giám sát có thể lách qua Palantir
    • Có vẻ Sam đã dùng quan hệ thân cận với chính phủ để kìm chân Anthropic
    • Không thể tin lời Sam được
      Khả năng cao đây là lời nói dối mang tính chiến lược nhằm khiến Anthropic trông xấu đi
    • Trông giống kiểu thái độ hai mặt: “đồng ý với nguyên tắc nhưng sẽ không trực tiếp tuân thủ”
    • Cuối cùng mục đích thật sự là “dồn các hợp đồng AI về cho Sam”, còn tranh cãi về lằn ranh giới hạn chỉ là cái cớ
  • Tôi cũng đã xóa ứng dụng và hủy đăng ký
    OpenAI không thể duy trì mức định giá doanh nghiệp hiện đang bị thổi phồng nếu không có người dùng
    Các mô hình khác giờ cũng đã đủ sức cạnh tranh
  • Giờ cần có một nhóm để những người làm công nghệ có đạo đức có thể tụ lại với nhau
    Tôi đã quá chán ngấy kiểu hành xử mục ruỗng này rồi
    • Cần một lá cờ mới để có thể dễ dàng thể hiện mình là một “technologist có đạo đức” và kết nối với nhau