5 điểm bởi GN⁺ 2026-03-07 | 1 bình luận | Chia sẻ qua WhatsApp
  • Bộ Chiến tranh Mỹ đã chỉ định Anthropic là yếu tố rủi ro chuỗi cung ứng đối với an ninh quốc gia, và công ty cho rằng biện pháp này không có cơ sở pháp lý chính đáng nên đang chuẩn bị hành động pháp lý
  • Lá thư từ Bộ Chiến tranh cho biết phạm vi hạn chế sử dụng mô hình Claude là rất hẹp, chỉ áp dụng với việc sử dụng của các khách hàng có liên quan trực tiếp đến hợp đồng với Bộ Chiến tranh
  • Luật liên quan (10 USC 3252) tồn tại nhằm bảo vệ chính phủ, và Bộ trưởng Bộ Chiến tranh chỉ được sử dụng biện pháp hạn chế ở mức tối thiểu nhất
  • Anthropic đang thảo luận với Bộ Chiến tranh về việc tiếp tục hợp tác và phương án chuyển tiếp suôn sẻ, đồng thời duy trì các nguyên tắc ngoại lệ đối với vũ khí tự động và giám sát nội địa quy mô lớn
  • Công ty nhấn mạnh mục tiêu chung về việc ứng dụng AI cho an ninh quốc gia, đồng thời tiếp tục hỗ trợ để quân đội Mỹ đang trong chiến tranh và các chuyên gia an ninh không bị mất đi những công cụ cần thiết

Chỉ định rủi ro chuỗi cung ứng của Bộ Chiến tranh

  • Bộ Chiến tranh đã thông báo rằng họ phân loại Anthropic là rủi ro chuỗi cung ứng đối với an ninh quốc gia Mỹ
    • Anthropic nhận định biện pháp này không có tính hợp pháp và sẽ phản đối tại tòa án
  • Theo cách diễn đạt trong lá thư của Bộ Chiến tranh, việc chỉ định này chỉ áp dụng với khách hàng sử dụng mô hình Claude như một phần trực tiếp của hợp đồng với Bộ Chiến tranh
    • Dù có hợp đồng với Bộ Chiến tranh, sẽ không có hạn chế nào đối với việc sử dụng Claude không liên quan đến hợp đồng đó hoặc các giao dịch với Anthropic

Cơ sở pháp lý và phạm vi áp dụng

  • Biện pháp của Bộ Chiến tranh dựa trên điều khoản 10 USC 3252, và luật này yêu cầu chỉ sử dụng biện pháp hạn chế tối thiểu để bảo vệ chuỗi cung ứng
    • Mục đích của luật là bảo vệ chính phủ chứ không phải trừng phạt nhà cung cấp
  • Vì vậy, phạm vi của việc chỉ định là rất hạn chế, và không ảnh hưởng đến các khách hàng ngoài nhóm nhà thầu của Bộ Chiến tranh

Hợp tác với Bộ Chiến tranh và các nguyên tắc ngoại lệ

  • Trong vài ngày gần đây, Anthropic đã thảo luận với Bộ Chiến tranh về phương án tiếp tục hợp tác và quy trình chuyển tiếp
    • Công ty đã hỗ trợ Bộ Chiến tranh trong nhiều lĩnh vực như phân tích tình báo, mô hình hóa và mô phỏng, lập kế hoạch tác chiến, tác chiến mạng
  • Anthropic duy trì hai nguyên tắc ngoại lệ đối với vũ khí tự động và giám sát nội địa quy mô lớn
    • Công ty khẳng định rõ rằng doanh nghiệp tư nhân không nên can dự vào các quyết định trong hoạt động quân sự

Vụ rò rỉ bài đăng nội bộ

  • Công ty đã xin lỗi về bài đăng nội bộ bị rò rỉ cho báo chí vào ngày hôm trước
    • Bài đăng đó được viết ngay sau bài đăng trên Truth Social của tổng thống, bài đăng trên X của Bộ trưởng Bộ Chiến tranh, và thông báo về hợp đồng giữa OpenAI và Bộ Quốc phòng
    • Anthropic cho biết họ không làm rò rỉ bài đăng này và cũng không có ý định làm tình hình xấu đi
    • Bài đăng được viết cách đây 6 ngày, là đánh giá đã cũ và không phản ánh tình hình hiện tại

Hỗ trợ trong tương lai và mục tiêu chung

  • Anthropic có kế hoạch tiếp tục hỗ trợ để quân đội Mỹ đang trong chiến tranh và các chuyên gia an ninh quốc gia có thể tiếp tục sử dụng những công cụ cần thiết
    • Công ty sẽ tiếp tục cung cấp mô hình và hỗ trợ kỹ thuật cho Bộ Chiến tranh và các cơ quan an ninh với chi phí danh nghĩa
  • Công ty chia sẻ với Bộ Chiến tranh mục tiêu chung là tăng cường an ninh cho Mỹ và mở rộng việc ứng dụng AI trong chính phủ
    • Mọi quyết định trong tương lai sẽ được đưa ra dựa trên tiền đề chung này

1 bình luận

 
GN⁺ 2026-03-07
Ý kiến trên Hacker News
  • Thật đáng kinh ngạc khi cửa sổ Overton đã dịch chuyển xa đến mức nào trong vấn đề này
    Khi tôi tốt nghiệp năm 2007, việc các công ty công nghệ từ chối để hệ thống của mình bị dùng cho chiến tranh là chuyện phổ biến, và cũng có nhiều người cùng thời với tôi không muốn vào làm ở những công ty như vậy vì lý do đạo đức
    Thế mà giờ đây Anthropic chỉ định đặt ra đúng hai ngoại lệ vì lý do thực dụng chứ không phải đạo đức. Ngay cả điều đó cũng được gói ghém bằng thứ ngôn ngữ như thể họ muốn hỗ trợ chiến tranh nhưng bất đắc dĩ. Thế giới đã thực sự thay đổi rất nhiều

    • Điều này làm tôi nhớ đến phim ngắn Đức năm 1969 Nicht löschbares Feuer (Inextinguishable Fire)
      Đây là một bộ phim phản đối napalm, châm biếm tình huống những công nhân không biết rằng thứ họ đang làm ra thực chất là vũ khí
      Câu thoại cuối “Chúng ta sản xuất cái gì là do người lao động, sinh viên và kỹ sư quyết định” đến giờ vẫn còn nguyên giá trị
    • Trong phim Real Genius cũng có tình tiết sinh viên vô tình chế tạo vũ khí mà không hề hay biết
      Trước đây những câu chuyện như vậy là một phần của giáo dục đạo đức, còn giờ thì có vẻ ngay cả những lớp học như thế cũng đã biến mất
    • Chỉ một trong hai ngoại lệ của Anthropic là vì lý do đạo đức
      Họ từ chối chỉ vì công nghệ vũ khí sát thương tự động vẫn chưa phát triển đủ mức, tức là vẫn kèm theo điều kiện “chưa thôi”
      Có thể nói là đỡ hơn OpenAI, nhưng rốt cuộc cũng chỉ là “lựa chọn ít tệ hơn” mà thôi
    • Sau khi chứng kiến nỗi đau mà các học sinh trung học phải chịu vì vụ MH17, tôi bắt đầu có cái nhìn phức tạp hơn về R&D liên quan đến chiến tranh
      Tôi hiểu thực tế là nghiên cứu quốc phòng là cần thiết, nhưng các hệ thống ra quyết định tự động sẽ rất nguy hiểm nếu vượt khỏi sự kiểm soát của con người
      Tôi nghĩ pháp luật nên bắt buộc phải có ‘human-in-the-loop’
    • Thái độ đối với chiến tranh thay đổi theo bối cảnh thời đại
      “Chiến tranh” của năm 2007 là Iraq, còn “chiến tranh” ngày nay bao gồm Gaza, Iran, Venezuela, và cả khả năng xâm lược Ukraine hay Đài Loan
      Tôi nghĩ ngay trong nội bộ Anthropic cũng đang cân nhắc những bối cảnh như vậy
  • Hồi đại học tôi có một người bạn muốn làm ở DARPA, và khi tôi hỏi cậu ấy về góc nhìn đạo đức thì cậu trả lời: “Đó không phải vấn đề của tôi”
    Điều tôi cảm nhận khi học ở Mỹ là cả giới lãnh đạo trong ngành lẫn các trường đại học đều không quan tâm đến tư duy phản biện và giáo dục đạo đức, mà chỉ tập trung biến con người thành những công cụ kỹ thuật đơn thuần
    Ngay cả trong tuần lễ đổi mới VR ở Harvard, hầu như chẳng có nhà sáng lập hay lập trình viên nào tham gia phiên về ‘đạo đức và pháp luật’. Mọi cuộc thảo luận về tác động xã hội đều bị loại bỏ một cách triệt để
    Cuối cùng tôi cảm thấy chính cơn cuồng tiền bạc đã phá hủy năng lực tư duy của xã hội

    • Làm việc trong ngành AdTech khiến tôi nhận ra đoạn mã quảng cáo mình viết ra có thể bị dùng cho thao túng bầu cử, chống vaccine, quảng cáo lừa đảo và nhiều thứ tương tự
      Nếu hậu quả là có người chết, tôi nghĩ bản thân mình cũng có phần trách nhiệm
      Nhưng vấn đề là trong thực tế, để mưu sinh thì rất khó giữ được ranh giới đạo đức. Rốt cuộc tất cả chúng ta đều ở trên cùng một con thuyền
    • Tôi cho rằng sự tê liệt đạo đức này có liên quan đến sự suy tàn của khoa học nhân văn
      Ngay trong bài viết của George Orwell (liên kết) cũng có ý rằng chỉ giáo dục khoa học thôi thì không thể bảo đảm một góc nhìn nhân bản
    • Câu nói “nhà sáng lập hay CEO không có tư cách tham gia tranh luận đạo đức” nghe như một kiểu kiêu ngạo trọng thân phận
    • Nó làm tôi nhớ đến câu nói của von Braun: “Tên lửa rơi ở đâu thì không phải việc của bộ phận tôi”
    • Cơn sốt AI trong vài năm gần đây đã phá hủy hoàn toàn niềm tin của tôi vào tính người. Lòng tham lan ra như không khí
  • Tôi thật sự sốc khi đọc câu “Anthropic có nhiều điểm chung với Bộ Quốc phòng hơn là khác biệt”

    • Sau bom nguyên tử, việc đổi tên từ ‘War Department’ sang ‘Defense Department’ diễn ra vì loài người đã nhận ra sức nặng của những gì mình tạo ra
      Thế mà bây giờ lại bàn về AI alignment trong cùng một mạch với “alignment với Bộ Chiến tranh” thì thật sự là không phù hợp về mặt trí tuệ
      Trong số những quốc gia bị tấn công năm nay, không có nước nào tạo ra mối đe dọa hiện sinh cho nhân loại. Ngược lại, chính những cuộc chiến kiểu này lại làm gia tăng rủi ro cốt lõi
      Tôi không hiểu vì sao trong giới nghiên cứu lại không có nhiều tiếng nói phản đối hơn
    • Nếu hiểu câu đó theo kiểu “Chúng tôi muốn một quần chúng biết phục tùng” thì nó trở nên rõ ràng hơn nhiều
    • Tôi đọc xong cả bài và sốc đến mức như rụng cả lông mày
    • Nhìn từ bên ngoài nước Mỹ, toàn bộ quá trình này đem lại cảm giác đáng sợ
      Khả năng AI bị quốc hữu hóa cho mục đích quân sự là rất cao, và việc Anthropic vừa nói công nghệ của mình còn nguy hiểm hơn bom nguyên tử nhưng lại vẫn hợp tác quân sự với Palantir là một mâu thuẫn rõ ràng
    • Nhìn vào các hoạt động ở Venezuela và Iran, có khi từ ‘Defense’ lại là cách diễn đạt ít Orwell nhất trong số đó
  • Phát biểu dùng từ “warfighter” của Anthropic khiến tôi đặt câu hỏi
    Liệu chỉ với hai ngoại lệ này mà họ có thể thực sự giữ được ranh giới đạo đức hay không?

    • Bản thân từ ‘Warfighter’ đã rất kỳ lạ. Trước đây người ta gọi là ‘servicemen’, còn giờ thì có vẻ như đang nhấn mạnh một hình ảnh hiếu chiến
    • Dù không hoàn hảo, tôi vẫn nghĩ việc chuyển tiền sang một lựa chọn đạo đức hơn dù chỉ một chút là điều có ý nghĩa
    • Thực ra trong câu chuyện này không có bên nào là ‘người tốt’. Cả hai công ty đều theo đuổi lợi nhuận, chỉ khác là bọc nó trong PR
      Anthropic trong vụ này vừa trông như phía ‘tốt hơn’, vừa kiếm tiền từ ngành công nghiệp chiến tranh
    • Rốt cuộc đây chỉ là một chiến lược marketing, và theo tôi thì nó đã có hiệu quả
    • Một màn PR khá tốt
  • Không có từ nào cho thấy thực tại nước Mỹ năm 2026 mang màu Orwell rõ hơn từ “Warfighter”

    • Thuật ngữ này thật ra đã được dùng hơn 20 năm rồi. Xét ra cái tên Bộ Quốc phòng (DoD) kiểu newspeak còn Orwell hơn
    • Điều này làm tôi nhớ đến câu trong Đạo Đức Kinh chương 46: “Khi đạo được thực hành, ngựa chiến dùng để cày ruộng; khi đạo không được thực hành, ngựa chiến sinh sôi nơi biên ải”
    • Câu nói của các chính trị gia rằng “Chúng ta không có chiến tranh với Iran” nghe thật rỗng tuếch
    • Việc Trump gọi các nhân sự mới là “chiến binh MAGA” cũng nằm trong cùng một mạch
  • Trích dẫn bài viết trên Techdirt của Mike Masnick
    Với các chính quyền trước đây, lập trường “chúng tôi muốn bảo đảm AI không đưa ra quyết định giết người mà không có con người can thiệp” chỉ là một điều kiện đàm phán bình thường
    Nhưng giờ thì Bộ trưởng Quốc phòng công khai chỉ trích công ty là ‘kẻ phản bội’, tổng thống ra lệnh cho mọi cơ quan nhà nước ngừng sử dụng, còn CEO thì phải viết một bức thư xin lỗi như ‘thư con tin’

  • Nếu quyền lực và tham nhũng của chính phủ không được kiểm soát, doanh nghiệp cuối cùng sẽ đi đến những giao dịch như thế này
    Ban đầu nó đến từ tiền bạc và lòng yêu nước, nhưng dần dần họ bị cuốn vào những việc không thể quay đầu, và cũng ngày càng khó rút ra
    Rồi một CEO mới sẽ đến, nói rằng “người tiền nhiệm quá yếu, tôi sẽ khác”, và lặp lại cùng một vòng luẩn quẩn

  • Tôi muốn nói với những người đang định cung cấp công nghệ cho ngành chiến tranh như thế này
    “Mọi thứ đều có thể bị tước đoạt, nhưng lương tâm thì chỉ mất đi khi chính bạn tự từ bỏ nó”

    • Ngành công nghiệp quốc phòng không trả lương cao hơn ngành công nghệ thông thường
      Nhiều người làm ở đó chỉ vì niềm tin rằng họ đang giúp đỡ chính phủ
  • Tôi rất tò mò vụ việc này sẽ kết thúc ra sao tại tòa án và tòa án dư luận
    Tôi nghĩ đây là một trường hợp quan trọng, và mong nó sẽ có kết quả đúng đắn

  • Thứ trưởng Bộ Chiến tranh Emil Michael đã chính thức tuyên bố rằng “sẽ không có đàm phán nào với Anthropic”