- Bộ Chiến tranh Mỹ đã chỉ định Anthropic là yếu tố rủi ro chuỗi cung ứng đối với an ninh quốc gia, và công ty cho rằng biện pháp này không có cơ sở pháp lý chính đáng nên đang chuẩn bị hành động pháp lý
- Lá thư từ Bộ Chiến tranh cho biết phạm vi hạn chế sử dụng mô hình Claude là rất hẹp, chỉ áp dụng với việc sử dụng của các khách hàng có liên quan trực tiếp đến hợp đồng với Bộ Chiến tranh
- Luật liên quan (10 USC 3252) tồn tại nhằm bảo vệ chính phủ, và Bộ trưởng Bộ Chiến tranh chỉ được sử dụng biện pháp hạn chế ở mức tối thiểu nhất
- Anthropic đang thảo luận với Bộ Chiến tranh về việc tiếp tục hợp tác và phương án chuyển tiếp suôn sẻ, đồng thời duy trì các nguyên tắc ngoại lệ đối với vũ khí tự động và giám sát nội địa quy mô lớn
- Công ty nhấn mạnh mục tiêu chung về việc ứng dụng AI cho an ninh quốc gia, đồng thời tiếp tục hỗ trợ để quân đội Mỹ đang trong chiến tranh và các chuyên gia an ninh không bị mất đi những công cụ cần thiết
Chỉ định rủi ro chuỗi cung ứng của Bộ Chiến tranh
- Bộ Chiến tranh đã thông báo rằng họ phân loại Anthropic là rủi ro chuỗi cung ứng đối với an ninh quốc gia Mỹ
- Anthropic nhận định biện pháp này không có tính hợp pháp và sẽ phản đối tại tòa án
- Theo cách diễn đạt trong lá thư của Bộ Chiến tranh, việc chỉ định này chỉ áp dụng với khách hàng sử dụng mô hình Claude như một phần trực tiếp của hợp đồng với Bộ Chiến tranh
- Dù có hợp đồng với Bộ Chiến tranh, sẽ không có hạn chế nào đối với việc sử dụng Claude không liên quan đến hợp đồng đó hoặc các giao dịch với Anthropic
Cơ sở pháp lý và phạm vi áp dụng
- Biện pháp của Bộ Chiến tranh dựa trên điều khoản 10 USC 3252, và luật này yêu cầu chỉ sử dụng biện pháp hạn chế tối thiểu để bảo vệ chuỗi cung ứng
- Mục đích của luật là bảo vệ chính phủ chứ không phải trừng phạt nhà cung cấp
- Vì vậy, phạm vi của việc chỉ định là rất hạn chế, và không ảnh hưởng đến các khách hàng ngoài nhóm nhà thầu của Bộ Chiến tranh
Hợp tác với Bộ Chiến tranh và các nguyên tắc ngoại lệ
- Trong vài ngày gần đây, Anthropic đã thảo luận với Bộ Chiến tranh về phương án tiếp tục hợp tác và quy trình chuyển tiếp
- Công ty đã hỗ trợ Bộ Chiến tranh trong nhiều lĩnh vực như phân tích tình báo, mô hình hóa và mô phỏng, lập kế hoạch tác chiến, tác chiến mạng
- Anthropic duy trì hai nguyên tắc ngoại lệ đối với vũ khí tự động và giám sát nội địa quy mô lớn
- Công ty khẳng định rõ rằng doanh nghiệp tư nhân không nên can dự vào các quyết định trong hoạt động quân sự
Vụ rò rỉ bài đăng nội bộ
- Công ty đã xin lỗi về bài đăng nội bộ bị rò rỉ cho báo chí vào ngày hôm trước
- Bài đăng đó được viết ngay sau bài đăng trên Truth Social của tổng thống, bài đăng trên X của Bộ trưởng Bộ Chiến tranh, và thông báo về hợp đồng giữa OpenAI và Bộ Quốc phòng
- Anthropic cho biết họ không làm rò rỉ bài đăng này và cũng không có ý định làm tình hình xấu đi
- Bài đăng được viết cách đây 6 ngày, là đánh giá đã cũ và không phản ánh tình hình hiện tại
Hỗ trợ trong tương lai và mục tiêu chung
- Anthropic có kế hoạch tiếp tục hỗ trợ để quân đội Mỹ đang trong chiến tranh và các chuyên gia an ninh quốc gia có thể tiếp tục sử dụng những công cụ cần thiết
- Công ty sẽ tiếp tục cung cấp mô hình và hỗ trợ kỹ thuật cho Bộ Chiến tranh và các cơ quan an ninh với chi phí danh nghĩa
- Công ty chia sẻ với Bộ Chiến tranh mục tiêu chung là tăng cường an ninh cho Mỹ và mở rộng việc ứng dụng AI trong chính phủ
- Mọi quyết định trong tương lai sẽ được đưa ra dựa trên tiền đề chung này
1 bình luận
Ý kiến trên Hacker News
Thật đáng kinh ngạc khi cửa sổ Overton đã dịch chuyển xa đến mức nào trong vấn đề này
Khi tôi tốt nghiệp năm 2007, việc các công ty công nghệ từ chối để hệ thống của mình bị dùng cho chiến tranh là chuyện phổ biến, và cũng có nhiều người cùng thời với tôi không muốn vào làm ở những công ty như vậy vì lý do đạo đức
Thế mà giờ đây Anthropic chỉ định đặt ra đúng hai ngoại lệ vì lý do thực dụng chứ không phải đạo đức. Ngay cả điều đó cũng được gói ghém bằng thứ ngôn ngữ như thể họ muốn hỗ trợ chiến tranh nhưng bất đắc dĩ. Thế giới đã thực sự thay đổi rất nhiều
Đây là một bộ phim phản đối napalm, châm biếm tình huống những công nhân không biết rằng thứ họ đang làm ra thực chất là vũ khí
Câu thoại cuối “Chúng ta sản xuất cái gì là do người lao động, sinh viên và kỹ sư quyết định” đến giờ vẫn còn nguyên giá trị
Trước đây những câu chuyện như vậy là một phần của giáo dục đạo đức, còn giờ thì có vẻ ngay cả những lớp học như thế cũng đã biến mất
Họ từ chối chỉ vì công nghệ vũ khí sát thương tự động vẫn chưa phát triển đủ mức, tức là vẫn kèm theo điều kiện “chưa thôi”
Có thể nói là đỡ hơn OpenAI, nhưng rốt cuộc cũng chỉ là “lựa chọn ít tệ hơn” mà thôi
Tôi hiểu thực tế là nghiên cứu quốc phòng là cần thiết, nhưng các hệ thống ra quyết định tự động sẽ rất nguy hiểm nếu vượt khỏi sự kiểm soát của con người
Tôi nghĩ pháp luật nên bắt buộc phải có ‘human-in-the-loop’
“Chiến tranh” của năm 2007 là Iraq, còn “chiến tranh” ngày nay bao gồm Gaza, Iran, Venezuela, và cả khả năng xâm lược Ukraine hay Đài Loan
Tôi nghĩ ngay trong nội bộ Anthropic cũng đang cân nhắc những bối cảnh như vậy
Hồi đại học tôi có một người bạn muốn làm ở DARPA, và khi tôi hỏi cậu ấy về góc nhìn đạo đức thì cậu trả lời: “Đó không phải vấn đề của tôi”
Điều tôi cảm nhận khi học ở Mỹ là cả giới lãnh đạo trong ngành lẫn các trường đại học đều không quan tâm đến tư duy phản biện và giáo dục đạo đức, mà chỉ tập trung biến con người thành những công cụ kỹ thuật đơn thuần
Ngay cả trong tuần lễ đổi mới VR ở Harvard, hầu như chẳng có nhà sáng lập hay lập trình viên nào tham gia phiên về ‘đạo đức và pháp luật’. Mọi cuộc thảo luận về tác động xã hội đều bị loại bỏ một cách triệt để
Cuối cùng tôi cảm thấy chính cơn cuồng tiền bạc đã phá hủy năng lực tư duy của xã hội
Nếu hậu quả là có người chết, tôi nghĩ bản thân mình cũng có phần trách nhiệm
Nhưng vấn đề là trong thực tế, để mưu sinh thì rất khó giữ được ranh giới đạo đức. Rốt cuộc tất cả chúng ta đều ở trên cùng một con thuyền
Ngay trong bài viết của George Orwell (liên kết) cũng có ý rằng chỉ giáo dục khoa học thôi thì không thể bảo đảm một góc nhìn nhân bản
Tôi thật sự sốc khi đọc câu “Anthropic có nhiều điểm chung với Bộ Quốc phòng hơn là khác biệt”
Thế mà bây giờ lại bàn về AI alignment trong cùng một mạch với “alignment với Bộ Chiến tranh” thì thật sự là không phù hợp về mặt trí tuệ
Trong số những quốc gia bị tấn công năm nay, không có nước nào tạo ra mối đe dọa hiện sinh cho nhân loại. Ngược lại, chính những cuộc chiến kiểu này lại làm gia tăng rủi ro cốt lõi
Tôi không hiểu vì sao trong giới nghiên cứu lại không có nhiều tiếng nói phản đối hơn
Khả năng AI bị quốc hữu hóa cho mục đích quân sự là rất cao, và việc Anthropic vừa nói công nghệ của mình còn nguy hiểm hơn bom nguyên tử nhưng lại vẫn hợp tác quân sự với Palantir là một mâu thuẫn rõ ràng
Phát biểu dùng từ “warfighter” của Anthropic khiến tôi đặt câu hỏi
Liệu chỉ với hai ngoại lệ này mà họ có thể thực sự giữ được ranh giới đạo đức hay không?
Anthropic trong vụ này vừa trông như phía ‘tốt hơn’, vừa kiếm tiền từ ngành công nghiệp chiến tranh
Không có từ nào cho thấy thực tại nước Mỹ năm 2026 mang màu Orwell rõ hơn từ “Warfighter”
Trích dẫn bài viết trên Techdirt của Mike Masnick
Với các chính quyền trước đây, lập trường “chúng tôi muốn bảo đảm AI không đưa ra quyết định giết người mà không có con người can thiệp” chỉ là một điều kiện đàm phán bình thường
Nhưng giờ thì Bộ trưởng Quốc phòng công khai chỉ trích công ty là ‘kẻ phản bội’, tổng thống ra lệnh cho mọi cơ quan nhà nước ngừng sử dụng, còn CEO thì phải viết một bức thư xin lỗi như ‘thư con tin’
Nếu quyền lực và tham nhũng của chính phủ không được kiểm soát, doanh nghiệp cuối cùng sẽ đi đến những giao dịch như thế này
Ban đầu nó đến từ tiền bạc và lòng yêu nước, nhưng dần dần họ bị cuốn vào những việc không thể quay đầu, và cũng ngày càng khó rút ra
Rồi một CEO mới sẽ đến, nói rằng “người tiền nhiệm quá yếu, tôi sẽ khác”, và lặp lại cùng một vòng luẩn quẩn
Tôi muốn nói với những người đang định cung cấp công nghệ cho ngành chiến tranh như thế này
“Mọi thứ đều có thể bị tước đoạt, nhưng lương tâm thì chỉ mất đi khi chính bạn tự từ bỏ nó”
Nhiều người làm ở đó chỉ vì niềm tin rằng họ đang giúp đỡ chính phủ
Tôi rất tò mò vụ việc này sẽ kết thúc ra sao tại tòa án và tòa án dư luận
Tôi nghĩ đây là một trường hợp quan trọng, và mong nó sẽ có kết quả đúng đắn
Thứ trưởng Bộ Chiến tranh Emil Michael đã chính thức tuyên bố rằng “sẽ không có đàm phán nào với Anthropic”
Được đề cập chi tiết trong phỏng vấn của a16z news