9 điểm bởi GN⁺ 2026-02-28 | 3 bình luận | Chia sẻ qua WhatsApp
  • Pete Hegseth chỉ đạo Bộ Quốc phòng chỉ định Anthropic là doanh nghiệp rủi ro chuỗi cung ứng an ninh quốc gia, đồng thời cấm mọi nhà thầu có giao dịch với quân đội Mỹ sử dụng Anthropic
  • Ông yêu cầu quyền truy cập mô hình không giới hạn cho mọi mục đích quốc phòng hợp pháp, nhưng chỉ trích Anthropic đã không chấp nhận điều này
  • Tổng thống Trump thông qua Truth Social ra lệnh ngay lập tức dừng sử dụng công nghệ của Anthropic tại mọi cơ quan liên bang, đồng thời cho thời gian chuyển đổi 6 tháng
  • Trong các cuộc đàm phán kéo dài nhiều tháng, Anthropic đã yêu cầu các biện pháp an toàn để ngăn mô hình bị dùng cho giám sát quy mô lớn trong nướcphát triển vũ khí tự động không có can thiệp của con người, nhưng Bộ Quốc phòng đã từ chối
  • Claude hiện là mô hình AI duy nhất được dùng trong các hệ thống mật của quân đội Mỹ, từng được sử dụng trong chiến dịch bắt giữ Maduro, nên việc chuyển đổi được dự báo sẽ gặp khó khăn đáng kể
  • Đây là trường hợp đầu tiên việc chỉ định rủi ro chuỗi cung ứng được áp dụng với một công ty Mỹ, tạo tiền lệ quan trọng cho quan hệ giữa các công ty AI và an ninh quốc gia

Tuyên bố chính thức của Bộ trưởng Quốc phòng Pete Hegseth

  • Chỉ trích Anthropic và CEO Dario Amodei ẩn sau luận điệu “effective altruism” để tìm cách nắm quyền phủ quyết đối với quân đội Mỹ
  • Nhấn mạnh Bộ Quốc phòng đã và sẽ tiếp tục yêu cầu quyền truy cập đầy đủ, không giới hạn đối với mô hình cho mọi mục đích hợp pháp
  • Tuyên bố điều khoản sử dụng của Anthropic không thể được ưu tiên hơn sự an toàn, mức độ sẵn sàng chiến đấu và sinh mạng của binh sĩ Mỹ
  • Có hiệu lực ngay lập tức, không nhà thầu, nhà cung cấp hay đối tác nào giao dịch với quân đội Mỹ được phép có hoạt động thương mại với Anthropic
  • Anthropic sẽ tiếp tục cung cấp dịch vụ cho Bộ Quốc phòng tối đa 6 tháng để bảo đảm chuyển đổi suôn sẻ
  • Khẳng định đây là quyết định cuối cùng, nói rằng “các chiến binh Mỹ sẽ không bao giờ trở thành con tin cho những thay đổi ý thức hệ thất thường của Big Tech”

Bối cảnh tranh chấp: nhiều tháng đàm phán

  • Anthropic và Bộ Quốc phòng đã tiến hành đàm phán căng thẳng trong nhiều tháng về điều kiện sử dụng Claude trong quân đội
  • Anthropic cởi mở với việc điều chỉnh chính sách sử dụng, nhưng vẫn giữ hai biện pháp bảo vệ: không để mô hình bị dùng cho giám sát quy mô lớn nhắm vào người Mỹphát triển vũ khí có thể khai hỏa mà không có con người can thiệp
  • Bộ Quốc phòng xem đây là các hạn chế quá mức, cho rằng định nghĩa về giám sát quy mô lớn và vũ khí tự động có quá nhiều vùng xám, khiến không thể vận hành trên thực tế
  • Bộ Quốc phòng đang đàm phán không chỉ với Anthropic mà còn với OpenAI, Google, xAI theo tiêu chuẩn “all lawful purposes”
  • Theo đưa tin, các quan chức cấp cao của Bộ Quốc phòng từ lâu đã bất mãn với Anthropic và tích cực tận dụng cơ hội đối đầu công khai

Cuộc gặp trực tiếp Hegseth-Amodei (24/2)

  • Hegseth thông báo với Amodei rằng Bộ Quốc phòng sẽ chọn một trong hai phương án: chỉ định rủi ro chuỗi cung ứng hoặc kích hoạt Defense Production Act
  • Defense Production Act là đạo luật từ thập niên 1950, trao quyền buộc doanh nghiệp sản xuất sản phẩm nhất định trong tình trạng khẩn cấp quốc gia
  • Về không khí cuộc họp, một quan chức nói rằng “không phải không khí ấm áp”, nhưng nguồn tin khác cho biết cuộc gặp vẫn “lịch sự” và không có việc lớn tiếng
  • Hegseth nói với Amodei rằng ông đánh giá cao Claude, nhưng không doanh nghiệp nào có thể áp điều kiện lên các quyết định vận hành của Bộ Quốc phòng hay phản đối từng trường hợp sử dụng cụ thể
  • Hegseth nhắc cụ thể tới cáo buộc của Bộ Quốc phòng rằng Anthropic đã nêu lo ngại với Palantir về việc sử dụng Claude trong chiến dịch Maduro, nhưng Amodei phủ nhận
  • Cuộc họp có sự tham dự của nhiều quan chức cấp cao, gồm Thứ trưởng Quốc phòng Steve Feinberg, Thứ trưởng phụ trách nghiên cứu và kỹ thuật Emil Michael, Thứ trưởng phụ trách mua sắm Michael Duffey

Sự từ chối cuối cùng của Amodei và phản ứng của Bộ Quốc phòng

  • Amodei hôm thứ Năm đã từ chối “đề nghị tốt nhất và cuối cùng” của Bộ Quốc phòng, tuyên bố rằng ông “không thể đồng ý với các yêu cầu đó vì lương tâm”
  • Emil Michael gọi Amodei là “kẻ nói dối” và người có “mặc cảm Chúa trời”, chỉ trích rằng ông ta đã “đồng ý đặt an ninh quốc gia vào rủi ro”
  • Sau cuộc họp, phía Anthropic vẫn giữ giọng điệu hòa giải, nói rằng họ vẫn đang tiếp tục đối thoại thiện chí về chính sách sử dụng để Anthropic có thể tiếp tục hỗ trợ các nhiệm vụ an ninh quốc gia của chính phủ

Tầm quan trọng chiến lược của Claude và bài toán chuyển đổi

  • Claude hiện là mô hình AI duy nhất được dùng trong các hệ thống mật của quân đội Mỹ
  • Mô hình này đã được dùng trong chiến dịch bắt giữ Maduro thông qua quan hệ đối tác với Palantir, và cũng có thể được dùng cho các chiến dịch quân sự tiềm tàng liên quan tới Iran
  • Ngay cả quan chức Bộ Quốc phòng cũng thừa nhận năng lực của Claude, mô tả việc chuyển đổi sẽ là “nỗi đau khủng khiếp”
  • Một quan chức nói: “Lý do duy nhất chúng tôi vẫn còn nói chuyện là vì chúng tôi cần họ, và cần ngay bây giờ; vấn đề là họ giỏi đến mức đó”
  • Giá trị hợp đồng của Anthropic với Bộ Quốc phòng là tối đa 200 triệu USD, chỉ chiếm phần rất nhỏ trong doanh thu thường niên 14 tỷ USD
  • Tuy nhiên, Anthropic cho biết 8 trong 10 công ty lớn nhất nước Mỹ đang dùng Claude, nên tác động lan tỏa của việc bị chỉ định rủi ro chuỗi cung ứng được dự báo sẽ rất rộng

Mô hình thay thế và động thái của đối thủ

  • xAI của Elon Musk gần đây đã ký hợp đồng đưa Grok vào môi trường mật, nhưng chưa rõ liệu có thể thay thế hoàn toàn Claude hay không
  • Bộ Quốc phòng đang tăng tốc thảo luận để chuyển các mô hình của OpenAI và Google từ môi trường không mật sang các hệ thống mật
  • Một quan chức cấp cao trong chính quyền thừa nhận các mô hình cạnh tranh đang “hơi tụt lại phía sau” trong các ứng dụng đặc thù của chính phủ, khiến việc chuyển đổi đột ngột trở nên khó khăn
  • OpenAI, Google và xAI đã đồng ý gỡ bỏ các biện pháp bảo vệ trong hệ thống không mật, nhưng vẫn chưa được dùng cho công việc mật

Phản ứng của OpenAI

  • CEO OpenAI Sam Altman trong bản ghi nhớ hôm thứ Sáu cho biết OpenAI có cùng các ranh giới đỏ với Anthropic
  • Ông nêu rõ rằng AI không nên được dùng cho giám sát quy mô lớn hay vũ khí sát thương tự động, và các quyết định tự động hóa rủi ro cao phải có con người can thiệp
  • OpenAI cũng có hợp đồng riêng trị giá 200 triệu USD với Bộ Quốc phòng, nhưng chỉ dành cho công việc không mật

Tuyên bố của Tổng thống Trump

  • Trên Truth Social, ông chỉ đạo “ngay lập tức dừng sử dụng công nghệ Anthropic tại mọi cơ quan liên bang”
  • Tuyên bố rằng “không cần, không muốn và sẽ không bao giờ giao dịch nữa”
  • Gọi Anthropic là “những kẻ điên cánh tả”, chỉ trích đây là một “sai lầm thảm họa” khi cố ép Bộ Quốc phòng tuân theo điều khoản sử dụng thay vì Hiến pháp

Phản ứng chính trị và lo ngại

  • Thượng nghị sĩ Mark Warner, Phó chủ tịch Ủy ban Tình báo Thượng viện, đã chỉ trích động thái của Trump
  • Ông bày tỏ lo ngại nghiêm trọng về việc các quyết định an ninh quốc gia có đang được đưa ra dựa trên toan tính chính trị thay vì phân tích thận trọng hay không
  • Cảnh báo rằng việc đe dọa và hạ thấp một công ty Mỹ như cái cớ để hướng hợp đồng sang nhà cung cấp được ưu ái sẽ tạo ra rủi ro lớn cho đất nước
  • Cũng có lo ngại về khả năng một số cơ quan liên bang sẽ chuyển sang các mô hình mà họ đã xác định là có rủi ro về độ tin cậy, an toàn và bảo mật

Lập trường của Anthropic và triển vọng sắp tới

  • Trong bài luận tháng 1, Dario Amodei nêu mối lo cốt lõi là “quá ít ngón tay trên nút bấm”, cảnh báo về tình huống chỉ một số rất ít người có thể vận hành đội quân drone mà không cần sự hợp tác của người khác
  • Anthropic đang lên kế hoạch IPO trong năm nay, và tác động của xung đột với chính quyền đối với nhà đầu tư vẫn chưa rõ ràng
  • Amodei cho biết ngay cả sau khi đối đầu với chính quyền Trump, định giá doanh nghiệp và doanh thu của Anthropic vẫn tiếp tục tăng
  • Việc chỉ định rủi ro chuỗi cung ứng vốn trước đây chỉ áp dụng với doanh nghiệp từ các quốc gia thù địch như Nga, Trung Quốc, và được cho là lần đầu tiên áp dụng với một công ty Mỹ
  • Palantir cũng đã dùng Claude cho công việc mật, nên hiện cần chuyển sang mô hình của đối thủ

3 bình luận

 
cnaa97 2026-02-28

Hoa Kỳ “Trung Quốc”

 
kimjoin2 2026-03-01

Thật khó chịu, lỗi.

 
GN⁺ 2026-02-28
Ý kiến trên Hacker News
  • Tôi nghĩ DoW(Department of War) và Anthropic đã có hợp đồng từ trước, trong đó có các điều khoản cho phép và cấm rất rõ ràng
    Nhưng giờ DoW đang cố lật lại các điều khoản đó. Đọc lại tuyên bố chính thức của Dario thì thấy các trường hợp sử dụng mà DoW nêu ra vốn không hề nằm trong hợp đồng ban đầu
    Rốt cuộc Anthropic vẫn đang tuân thủ hợp đồng gốc, còn DoW thì trông như đang cố tình tìm cách sửa hợp đồng theo hướng ác ý

    • Đọc bài viết trên Astral Codex Ten thì càng rõ hơn
      Các điều khoản hợp đồng ban đầu là thứ Lầu Năm Góc đã đồng ý, còn bây giờ họ lại đang tìm cách đơn phương thay đổi
    • Việc nhà cung cấp giới hạn cách khách hàng sử dụng sản phẩm là chuyện bình thường
      Cũng giống như nói rằng không được dùng ống có chì cho nước uống
    • Muốn đổi tên thành Department of War thì cần có sự phê chuẩn của Quốc hội. Tên chính thức hiện vẫn là DoD
    • Chính quyền này thể hiện thái độ không đáng tin trong mọi cuộc đàm phán. Dù là thương mại quốc tế hay hợp đồng doanh nghiệp cũng vậy
    • Chính quyền Trump trước đây cũng từng quỵt tiền các nhà thầu. Khó mà kỳ vọng lần này họ sẽ tôn trọng hợp đồng
  • Nói rằng đây là công ty nguy hiểm đến mức đe dọa an ninh quốc gia, nhưng lại vẫn tiếp tục sử dụng trong 6 tháng tới, nghe rất mâu thuẫn

    • Không thể giải thích hành động này một cách hợp lý. Trông đơn giản chỉ là một đòn gây sức ép(shakedown)
    • Để tham khảo, Anthropic hiện là công ty AI duy nhất đang vận hành trong các hệ thống mật của Lầu Năm Góc (bài NYT)
    • Cảm giác như kiểu hăm dọa của mafia: “AI đẹp đấy, sẽ thật tệ nếu có chuyện gì xảy ra với nó nhỉ?”
    • Chính quyền này đang hành động đúng theo kiểu có thể đoán trước: tùy hứng tuyên bố tình trạng khẩn cấp
    • Chiến thuật đàm phán điển hình của chính phủ là đưa ra yêu sách cực đoan trước, rồi thỏa hiệp ở điểm giữa có lợi cho họ
  • Thái độ giữ vững nguyên tắc của Anthropic thật ấn tượng. Đúng là kiểu công ty khiến người ta muốn làm việc cùng

    • Tất nhiên doanh nghiệp có thể thay đổi, nhưng Anthropic hiện tại là bên đáng được tôn trọng
    • Khác với Google, Facebook, OpenAI, họ có điểm khác biệt rõ ràng là giữ chuẩn mực đạo đức
    • Trong 9 tháng qua, đội PR của họ đã xử lý cực kỳ tốt
    • Nhưng cũng đừng quên rằng đã có nạn nhân từ các cuộc tấn công ở nước ngoài của Mỹ
  • Tôi ủng hộ lập trường của Anthropic là không dính líu đến giết chóc hay giám sát
    Với tư cách một cựu binh yêu nước của Mỹ, tôi thà thấy Anthropic chuyển sang châu Âu còn hơn
    Như Rutger Bregman nói, châu Âu đang nắm nút thắt phần cứng AI thông qua ASML, và nếu Anthropic gia nhập thì có thể trở thành nền tảng cho một siêu cường AI (liên kết tweet)

    • Nhưng nếu Anthropic thực sự chuyển sang châu Âu, nhân viên có thể gặp khó khăn về ngôn ngữ, gia đình và cuộc sống
    • Nếu châu Âu có thể tạo ra Claude thì hẳn họ đã làm rồi
    • Canada cũng là một phương án tốt. Có nền tảng nghiên cứu AI như viện Mila và vẫn duy trì các giá trị tự do
    • Dù vậy khả năng chuyển cả công ty là thấp. Có lẽ chỉ xảy ra nếu chính phủ tìm cách quốc hữu hóa mô hình
  • Biện pháp lần này có thể là đòn đánh chí mạng với Anthropic
    Nếu mọi công ty giao dịch với DoD đều bị cấm hoạt động thương mại với Anthropic, Claude có nguy cơ bị loại khỏi các nền tảng đám mây như AWS·Google·Microsoft

    • Nhưng trên thực tế điều đó là không thể. Bởi các hãng cloud lớn chính là nhà đầu tư chủ chốt của Anthropic. Cuối cùng DoD sẽ phải lùi bước để khỏi mất mặt
    • Trên thực tế, hạn chế chỉ áp dụng với các dự án liên quan đến chính phủ. Vẫn có thể dùng Claude cho công việc nội bộ
    • Về mặt pháp lý, cái bị cấm chỉ là đưa vào hóa đơn hợp đồng DoD hoặc gộp vào giải pháp cung cấp cho DoD
    • Tức là AWS vẫn có thể tiếp tục cung cấp Claude trên Bedrock, chỉ là không được đưa vào các hợp đồng dành riêng cho DoD
    • Rốt cuộc sự kém hiệu quả chỉ phát sinh ở các dự án chính phủ, còn khu vực tư nhân vẫn sẽ tiếp tục dùng
    • Dù vậy vì doanh thu chính của Anthropic đến từ khách hàng doanh nghiệp lớn, tác động tới hình ảnh vẫn rất lớn
  • Những hạn chế mà Anthropic yêu cầu chỉ có hai điều
    (1) cấm giám sát quy mô lớn trong nước, (2) bắt buộc có con người can thiệp trong các quyết định sát thương
    Chừng đó thậm chí còn là những điều kiện quá ôn hòa (tuyên bố chính thức)

    • Nhưng có một số người thậm chí không che giấu ý định muốn dùng công nghệ này để chống lại chính người dân
  • Tôi cảm thấy những chủ đề như thế này khó thảo luận trên HN
    Nên tránh tranh luận chính trị, nhưng vụ này là ví dụ cho việc ý thức hệ và chính sách tác động trực tiếp lên công nghệ

    • Không thể bàn về chuyện này nếu không nói rằng chính phủ đang hành xử ác ý
      Nhưng guideline của HN lại nói “hãy diễn giải theo hướng thiện chí”, nên bản chất những chủ đề như vậy rất khó xử lý
    • Theo trải nghiệm của tôi, trên HN không phải cấm chính trị, mà là tránh tranh cãi ác ý
      Thảo luận mối quan hệ giữa công nghệ và chính sách thì luôn được hoan nghênh
    • Thực ra mọi thứ đều là chính trị. Công nghệ cũng không ngoại lệ
    • Dù vậy vẫn nên tránh chỉ nói mỗi chuyện chính trị. Đã có quá nhiều người làm thế rồi
    • Bản thân văn hóa hacker vốn dĩ là một phong trào chính trị và ý thức hệ. Đã đến lúc lấy lại bản chất đó
  • Cụm “mọi công ty làm ăn với quân đội Mỹ sẽ bị cấm hoạt động thương mại với Anthropic” thật gây sốc
    Tôi tự hỏi liệu điều đó có nghĩa AWS hay GCP sẽ không thể bán lại Claude nữa không

    • Có lẽ là vậy, và đặc biệt AWS thậm chí có thể bị cấm dùng nội bộ
      Các trường đại học nhận tài trợ nghiên cứu từ chính phủ như MIT, Stanford, Caltech cũng có thể sẽ phải ngừng dùng Claude
    • Cuối cùng chắc các luật sư sẽ lao vào tranh cãi cách diễn giải, nhưng những hệ thống liên quan đến phần mềm rủi ro chuỗi cung ứng sẽ không thể cung cấp cho DoD
    • Vấn đề lớn hơn là, theo logic này thì phần mềm mã nguồn mở cũng có thể trở thành đối tượng bị cấm
    • Rốt cuộc mọi người sẽ chỉ còn biết chờ lệnh cấm pháp lý(injunction)
    • Trên thực tế, có lẽ chỉ các công ty giao dịch với DoD mới bị hạn chế, còn khách hàng phổ thông vẫn tiếp tục dùng được
  • Là người Mỹ Latinh, trước đây tôi từng ủng hộ Mỹ, nhưng giờ thì không còn nữa
    Mỹ có xu hướng đối xử cưỡng ép với Mỹ Latinh, và một thế giới do Trung Quốc dẫn dắt thậm chí còn có vẻ ít xâm lược hơn

    • Cũng đừng quên rằng Mỹ là bên tạo ra chủ nghĩa khủng bố Hồi giáo
    • Dù vậy so với Trung Quốc thì Úc hoặc một EU thống nhất có thể vẫn là lựa chọn tốt hơn
  • Chủ nghĩa McCarthy(McCarthyism) dưới thời Truman năm 1947 bắt đầu bằng việc kiểm tra lòng trung thành rồi dẫn đến danh sách đen và bỏ tù (liên kết wiki)
    Tình hình hiện tại trông như sự tái hiện của thời kỳ đó. Nếu không làm theo lời chính phủ thì sẽ bị đưa vào danh sách đen hoặc bị trừng phạt

    • Cảm giác khá giống chuyện Jack Ma và Alibaba từng trải qua ở Trung Quốc
    • Nhưng cũng có người lại khẳng định rằng “McCarthy đã đúng”