3 điểm bởi GN⁺ 2026-03-02 | 1 bình luận | Chia sẻ qua WhatsApp
  • Đã ký hợp đồng với Bộ Quốc phòng Mỹ (DoD) về việc triển khai các hệ thống AI tiên tiến trong môi trường mật, đồng thời đề nghị các điều khoản của hợp đồng này cũng được áp dụng tương tự cho mọi công ty AI
  • Thỏa thuận nêu rõ ba lằn ranh đỏ: không sử dụng công nghệ của OpenAI cho giám sát nội địa quy mô lớn, điều khiển trực tiếp hệ thống vũ khí tự hành, ra quyết định tự động hóa rủi ro cao
  • Áp dụng mô hình triển khai chỉ trên đám mây, OpenAI giữ toàn quyền với ngăn xếp an toàn, và nhân sự OpenAI có chứng nhận an ninh tham gia trong vòng lặp
  • Khẳng định có hàng rào bảo vệ mạnh hơn các hợp đồng hiện có như của Anthropic, đồng thời loại trừ triển khai trên thiết bị biên để chặn khả năng chuyên dùng cho vũ khí tự hành
  • Nhấn mạnh sự cần thiết của việc xây dựng cơ chế hợp tác dân chủ giữa các công ty AI và chính phủ, đồng thời cũng đề nghị chính phủ tháo gỡ xung đột với Anthropic

Bối cảnh và mục tiêu của hợp đồng

  • Đã ký hợp đồng với Bộ Quốc phòng Mỹ về triển khai các hệ thống AI tiên tiến trong môi trường mật, và đề nghị các điều kiện tương tự cũng được cung cấp cho mọi công ty AI
  • Cho rằng với tầm quan trọng của công nghệ AI, cần có sự hợp tác sâu sắc giữa quy trình dân chủ và nghiên cứu AI
  • Những người bảo vệ nước Mỹ cần được trang bị các công cụ tốt nhất, đồng thời cũng nhận thức rằng công nghệ này có thể tạo ra những rủi ro mới cho thế giới

Ba lằn ranh đỏ

  • Cấm sử dụng công nghệ OpenAI cho giám sát nội địa quy mô lớn (mass domestic surveillance)
  • Cấm sử dụng công nghệ OpenAI để điều khiển trực tiếp hệ thống vũ khí tự hành (autonomous weapons systems)
  • Cấm sử dụng công nghệ OpenAI cho ra quyết định tự động hóa rủi ro cao (ví dụ: hệ thống tín dụng xã hội)
  • Khác với một số phòng nghiên cứu AI khác đang thu hẹp hoặc loại bỏ hàng rào an toàn và chỉ dựa vào chính sách sử dụng, OpenAI cho rằng cách tiếp cận bảo vệ nhiều lớp hiệu quả hơn

Các thành phần cốt lõi của hợp đồng

  • Kiến trúc triển khai

    • Triển khai chỉ trên đám mây, bao gồm ngăn xếp an toàn do OpenAI trực tiếp vận hành
    • Không cung cấp các mô hình đã bị gỡ hàng rào bảo vệ hoặc chưa được huấn luyện an toàn
    • Loại trừ triển khai trên thiết bị biên để ngăn khả năng bị sử dụng cho vũ khí sát thương tự hành
    • Có thể xác minh độc lập việc có vi phạm lằn ranh đỏ hay không, đồng thời có thể chạy và cập nhật các bộ phân loại (classifiers)
  • Điều khoản hợp đồng

    • Bộ Quốc phòng có thể sử dụng hệ thống AI cho mọi mục đích hợp pháp phù hợp với luật áp dụng, yêu cầu vận hành, và các giao thức an toàn và giám sát đã được thiết lập
    • Nếu luật, quy định hoặc chính sách của bộ yêu cầu con người kiểm soát, thì không được dùng để chỉ huy vũ khí tự hành một cách độc lập
    • Theo DoD Directive 3000.09 (ngày 25/1/2023), việc sử dụng AI trong các hệ thống tự hành và bán tự hành phải trải qua xác thực, thẩm định và thử nghiệm nghiêm ngặt trong môi trường thực tế trước khi triển khai
    • Khi xử lý dữ liệu cá nhân trong hoạt động tình báo, phải tuân thủ Tu chính án thứ 4, Đạo luật An ninh Quốc gia (1947), Đạo luật Giám sát Tình báo Nước ngoài (1978), Sắc lệnh Hành pháp 12333 và các chỉ thị liên quan của Bộ Quốc phòng
    • Cấm giám sát không giới hạn đối với dữ liệu cá nhân của công dân Mỹ
    • Chỉ được sử dụng trong hoạt động thực thi pháp luật trong nước khi được Posse Comitatus Act và các luật áp dụng khác cho phép
  • Sự tham gia của chuyên gia AI

    • Kỹ sư OpenAI có chứng nhận an ninh sẽ được bố trí hỗ trợ trực tiếp cho chính phủ
    • Các nhà nghiên cứu an toàn và căn chỉnh (alignment) có chứng nhận an ninh sẽ tham gia trong vòng lặp

Những điểm chính trong FAQ

  • Lý do ký hợp đồng

    • Quân đội Mỹ cần các mô hình AI mạnh để đối phó với mối đe dọa từ việc các đối thủ tiềm năng tích hợp công nghệ AI
    • Ban đầu cho rằng các cơ chế an toàn và hệ thống cho triển khai mật vẫn chưa sẵn sàng, nên không ký ngay, mà trước hết chuẩn bị để bảo đảm các lằn ranh đỏ có thể được tuân thủ
    • Việc loại bỏ các biện pháp an toàn kỹ thuật cốt lõi nhằm tăng hiệu năng cho công việc an ninh quốc gia không phải là cách tiếp cận đúng đắn
    • Cũng nhằm giảm căng thẳng giữa Bộ Quốc phòng và các phòng nghiên cứu AI tại Mỹ, đồng thời đề nghị chính phủ cung cấp cùng điều kiện này cho mọi phòng nghiên cứu AI và đặc biệt là giải quyết vấn đề với Anthropic
  • So sánh với Anthropic

    • Cho rằng hợp đồng của OpenAI mang lại cam kết tốt hơn và các biện pháp an toàn có trách nhiệm hơn so với hợp đồng hiện có của Anthropic
    • Việc triển khai chỉ trên đám mây (không phải edge), duy trì ngăn xếp an toàn riêng, cùng sự tham gia của nhân sự OpenAI có chứng nhận an ninh khiến các lằn ranh đỏ có thể được thực thi tốt hơn
    • Không biết vì sao Anthropic đã không ký được hợp đồng này, và hy vọng Anthropic cùng nhiều phòng nghiên cứu khác sẽ cân nhắc điều đó
  • Về việc có chỉ định Anthropic là "rủi ro chuỗi cung ứng" hay không

    • Phản đối việc chỉ định Anthropic là "rủi ro chuỗi cung ứng", và đã truyền đạt rõ quan điểm này với chính phủ
  • Khả năng dùng cho vũ khí tự hành

    • Dựa trên ngăn xếp an toàn, triển khai chỉ trên đám mây, ngôn ngữ hợp đồng, cùng luật lệ, quy định và chính sách hiện có, hệ thống không thể được dùng cho vũ khí tự hành
    • Nhân sự OpenAI tham gia trong vòng lặp để cung cấp bảo đảm bổ sung
  • Khả năng dùng cho giám sát quy mô lớn

    • Dựa trên ngăn xếp an toàn, ngôn ngữ hợp đồng và các luật hiện hành vốn hạn chế mạnh việc giám sát trong nước của Bộ Quốc phòng, hệ thống không thể được dùng cho giám sát quy mô lớn
  • Có triển khai mà không có ngăn xếp an toàn hay không

    • OpenAI giữ toàn quyền kiểm soát ngăn xếp an toàn và không triển khai khi không có hàng rào bảo vệ an toàn
    • Khác với một số phòng nghiên cứu AI khác đang thu hẹp hàng rào bảo vệ mô hình và dựa chủ yếu vào chính sách sử dụng như biện pháp an toàn chính, OpenAI cho rằng cách tiếp cận nhiều lớp hiệu quả hơn
  • Nếu chính phủ vi phạm hợp đồng

    • Giống như các hợp đồng thông thường, nếu bên kia vi phạm điều kiện thì có thể chấm dứt hợp đồng
  • Nếu luật hoặc chính sách thay đổi

    • Hợp đồng có tham chiếu rõ ràng theo tiêu chuẩn hiện tại tới các luật và chính sách liên quan đến giám sát và vũ khí tự hành
    • Dù luật hoặc chính sách trong tương lai có thay đổi, việc sử dụng hệ thống vẫn phải phù hợp với các tiêu chuẩn hiện tại đã được phản ánh trong hợp đồng

Phản hồi đối với bài đăng trên blog của Anthropic

  • OpenAI cũng đồng ý với hai lằn ranh đỏ mà Anthropic nêu ra (giám sát nội địa quy mô lớn và vũ khí hoàn toàn tự hành), đồng thời bổ sung lằn ranh đỏ thứ ba là ra quyết định rủi ro cao được tự động hóa
  • Giám sát nội địa quy mô lớn: trong quá trình trao đổi, đã rõ rằng Bộ Quốc phòng xem đây là hành vi bất hợp pháp và không có kế hoạch sử dụng cho mục đích đó; hợp đồng cũng ghi rõ rằng đây không thuộc phạm vi sử dụng hợp pháp
  • Vũ khí hoàn toàn tự hành: trong môi trường triển khai trên đám mây được nêu trong hợp đồng, không thể vận hành vũ khí hoàn toàn tự hành, vì điều đó đòi hỏi triển khai trên thiết bị biên
  • Ngoài các biện pháp bảo vệ này, còn có các lớp an toàn bổ sung là ngăn xếp an toàn và sự tham gia trong vòng lặp của các chuyên gia kỹ thuật OpenAI

1 bình luận

 
GN⁺ 2026-03-02
Ý kiến trên Hacker News
  • Theo cách tôi hiểu, hợp đồng giữa OpenAI và Bộ Quốc phòng có vẻ như cấm giám sát hàng loạt đối với công dân Mỹ, nhưng thực ra chỉ có nghĩa là họ bị giới hạn trong phạm vi vốn đã bị pháp luật cấm
    Nói cách khác, điều đó có thể được hiểu là Bộ Quốc phòng vẫn có thể mua dữ liệu hàng loạt như vị trí hoặc giao dịch tài chính từ các công ty tư nhân rồi dùng công cụ của OpenAI để phân tích
    Tôi nhớ là hợp đồng của Anthropic không có điều khoản như vậy
    Nếu điều này là thật thì quá khủng khiếp. Nhưng gần đây tôi đã nhiều lần vội kết luận, nên lần này tôi đang tạm hoãn phán xét
    (Xin nói thêm, tôi là cựu nhân viên OpenAI và hiện là cổ đông)

    • OpenAI giờ đây có vẻ là một công ty không còn tư cách nói về đạo đức nữa
      Không còn như thời còn là tổ chức phi lợi nhuận, giờ họ đã thay đổi chính sách quyền riêng tư tới hai lần để thu thập nhiều dữ liệu hơn từ tôi
      Quá trình tắt các thiết lập cũng rắc rối, đầy dark pattern. Tính năng tải dữ liệu về thì gần như không hoạt động
    • Điều này đúng theo nghĩa đen là “chỉ tuân theo những hạn chế vốn đã có trong luật”
      Đây là ví dụ điển hình của ‘weasel language’ (cách diễn đạt lắt léo để né tránh)
    • Cuối cùng thì vấn đề nằm ở Third Party Doctrine (học thuyết bên thứ ba)
      Nếu nguyên tắc này biến mất thì phần lớn những kịch bản ác mộng kiểu này cũng sẽ biến mất
    • Mọi người thường quên rằng hoạt động giám sát kiểu NSA của chính phủ luôn đi kèm với ghi chú rằng nó “hợp pháp”
    • Câu chữ tự thân đã quá rối rắm
      Cụm “Shall not be used as consistent with these authorities” nghe còn sai cả ngữ pháp
      Có vẻ như các luật sư đã cố tình viết mơ hồ để chừa chỗ cho cách diễn giải phục vụ PR
  • Cụm “The Department of War may use the AI System for all lawful purposes…” rốt cuộc có nghĩa là có thể dùng cho mọi mục đích mà pháp luật cho phép
    Anthropic đã cố áp dụng tiêu chuẩn đạo đức riêng của mình, còn OpenAI thì chấp nhận nguyên xi yêu cầu của chính phủ
    Cá nhân tôi đều hiểu được cả hai lập trường, nhưng cách chính phủ đối xử với Anthropic là ác ý và cũng có hại cho lợi ích của Mỹ

    • Một bên là hợp đồng kiểu “không được tạo ra Terminator”, còn bên kia là “nếu đội pháp lý nói ổn thì có thể tạo Terminator”. Khác biệt rất lớn
    • Từ “hợp pháp” đang chống đỡ toàn bộ mọi thứ
      Chính phủ đã công khai làm những việc bất hợp pháp rồi, nên chẳng ai biết chuyện gì đang diễn ra trong bí mật
      Rốt cuộc, cốt lõi của Anthropic là lập trường đạo đức rằng không thể tin chính phủ
    • Nếu đọc kỹ câu chữ, mô hình có thể bị Bộ Quốc phòng dùng cho bất kỳ mục đích nào miễn là họ cho là ‘hợp pháp’
      Việc thay đổi quy định cũng do họ quyết định
      Sam Altman либо là ngây thơ, hoặc đang khiến chúng ta nghĩ như vậy
    • Điều này cũng không nhất quán với lập trường trước đây rằng “công nghệ OpenAI sẽ không được dùng cho hệ thống vũ khí tự động”
    • Hãy thử tưởng tượng một tình huống trong chiến tranh nơi hệ thống khuyến nghị bắn vào một chiến binh đang gặp nạn
      Đó rõ ràng là tội ác chiến tranh, vậy ai sẽ phán định tính ‘hợp pháp’? OpenAI, Bộ trưởng Quốc phòng, hay thẩm phán?
  • Cụm “cho mọi mục đích được pháp luật cho phép” nghĩa là chủ thể làm ra luật không tự giới hạn chính mình

    • Trong trường hợp giám sát hàng loạt, còn cần tới sửa đổi hiến pháp nên phức tạp hơn chuyện chỉ sửa luật đơn thuần
      Nhưng nếu biết là bất hợp pháp mà vẫn hỗ trợ chính phủ thì có thể cấu thành đồng phạm. Chính phủ có thể được miễn trách, nhưng OpenAI thì chưa chắc
    • Hơn nữa, chính phủ có thể đặt ra và thi hành các quy tắc trong bí mật
    • Cũng có phản ứng mỉa mai kiểu “Ý là không thể tin lời một kẻ lừa đảo đã bị kết án sao?”
  • Tôi không nghĩ Anthropic hoàn toàn là thánh nhân đạo đức
    ChatGPT cũng vậy
    Nhưng ở thời điểm này, hủy ChatGPT để dùng Claude là một hành động thể hiện thông điệp mà tôi muốn gửi đi

    • Điều quan trọng là cho thấy ý chí chuyển dịch như vậy
      Nếu các công ty biết rằng người dùng sẽ rời đi ngay khi có tranh cãi, họ cũng sẽ phải cẩn trọng hơn
    • Hơn nữa, lúc này Claude cho hiệu năng tốt hơn nhiều so với ChatGPT
    • Tôi định thử dùng Claude như một công cụ thay thế tìm kiếm thông thường. Ví dụ, tôi muốn biết nó có ổn cho những câu hỏi đơn giản như công thức nấu ăn hay đánh giá sản phẩm không
    • Về lâu dài, tôi nghĩ mô hình open-weight sẽ là tốt nhất
      Anthropic lần này không lùi bước là điều rất đáng nể
      Dù GPU đang khan hiếm, tôi cũng định bỏ ChatGPT để chuyển sang Claude hoặc Kimi
  • Cuối cùng thì dù nhân viên có giữ lập trường đạo đức, nếu không có quyền quyết định thì cũng vô nghĩa
    Sức mạnh duy nhất là ‘nghỉ việc’

    • Nhưng nếu xảy ra nghỉ việc tập thể thì đó sẽ là một sức mạnh khổng lồ
    • Thực ra công đoàn tồn tại chính là để ngăn những tình huống như thế này
      Nếu các kỹ sư chủ chốt cùng dừng lại, Sam Altman một mình không thể duy trì công ty
    • Nhân viên OpenAI đã từng có sức mạnh đưa Sam Altman trở lại khi ông bị sa thải cách đây 2 năm
    • Nếu nhân viên đoàn kết thì họ cũng có thể khiến công ty dừng lại. Nhưng ở một nơi như OpenAI thì khó mà kỳ vọng có được văn hóa đoàn kết như vậy
  • OpenAI đang né tránh trách nhiệm đạo đức theo kiểu “hãy giao trách nhiệm đạo đức của AI cho pháp luật”

  • Nếu vẫn còn nhân viên OpenAI có tài sản ròng hơn 2 triệu USD mà tiếp tục ở lại, thì la bàn đạo đức của họ đã hỏng rồi
    Giờ cũng chẳng khác gì làm ở Palantir hay xAI

    • Cũng có câu trả lời chế nhạo kiểu “Tôi sẽ lấy tiền làm gối mà khóc, tất nhiên là theo cách đạo đức
  • Cụm “có thể dùng cho mọi mục đích hợp pháp” rốt cuộc có nghĩa là Bộ Quốc phòng đã đạt được điều họ muốn nhờ vào sự thiếu hụt quy định

  • Bài blog này khiến tình hình trông còn tệ hơn
    Nó không vạch ranh giới rõ ràng với những mục đích sử dụng gây tranh cãi mà Anthropic từng từ chối
    Chỉ nói rằng “chỉ được phép nếu hợp pháp và đã được kiểm thử”
    Cảm giác giống như IBM những năm 1930 bán máy cho Đức rồi nói rằng “chúng tôi không biết”
    Rốt cuộc, điều quân đội muốn là vũ khí tự động và giám sát hàng loạt, cùng với những mục đích khác tuy hợp pháp về mặt pháp lý nhưng mập mờ về mặt đạo đức