- Pete Hegseth chỉ đạo Bộ Quốc phòng chỉ định Anthropic là doanh nghiệp rủi ro chuỗi cung ứng an ninh quốc gia, đồng thời cấm mọi nhà thầu có giao dịch với quân đội Mỹ sử dụng Anthropic
- Ông yêu cầu quyền truy cập mô hình không giới hạn cho mọi mục đích quốc phòng hợp pháp, nhưng chỉ trích Anthropic đã không chấp nhận điều này
- Tổng thống Trump thông qua Truth Social ra lệnh ngay lập tức dừng sử dụng công nghệ của Anthropic tại mọi cơ quan liên bang, đồng thời cho thời gian chuyển đổi 6 tháng
- Trong các cuộc đàm phán kéo dài nhiều tháng, Anthropic đã yêu cầu các biện pháp an toàn để ngăn mô hình bị dùng cho giám sát quy mô lớn trong nước và phát triển vũ khí tự động không có can thiệp của con người, nhưng Bộ Quốc phòng đã từ chối
- Claude hiện là mô hình AI duy nhất được dùng trong các hệ thống mật của quân đội Mỹ, từng được sử dụng trong chiến dịch bắt giữ Maduro, nên việc chuyển đổi được dự báo sẽ gặp khó khăn đáng kể
- Đây là trường hợp đầu tiên việc chỉ định rủi ro chuỗi cung ứng được áp dụng với một công ty Mỹ, tạo tiền lệ quan trọng cho quan hệ giữa các công ty AI và an ninh quốc gia
Tuyên bố chính thức của Bộ trưởng Quốc phòng Pete Hegseth
- Chỉ trích Anthropic và CEO Dario Amodei ẩn sau luận điệu “effective altruism” để tìm cách nắm quyền phủ quyết đối với quân đội Mỹ
- Nhấn mạnh Bộ Quốc phòng đã và sẽ tiếp tục yêu cầu quyền truy cập đầy đủ, không giới hạn đối với mô hình cho mọi mục đích hợp pháp
- Tuyên bố điều khoản sử dụng của Anthropic không thể được ưu tiên hơn sự an toàn, mức độ sẵn sàng chiến đấu và sinh mạng của binh sĩ Mỹ
- Có hiệu lực ngay lập tức, không nhà thầu, nhà cung cấp hay đối tác nào giao dịch với quân đội Mỹ được phép có hoạt động thương mại với Anthropic
- Anthropic sẽ tiếp tục cung cấp dịch vụ cho Bộ Quốc phòng tối đa 6 tháng để bảo đảm chuyển đổi suôn sẻ
- Khẳng định đây là quyết định cuối cùng, nói rằng “các chiến binh Mỹ sẽ không bao giờ trở thành con tin cho những thay đổi ý thức hệ thất thường của Big Tech”
Bối cảnh tranh chấp: nhiều tháng đàm phán
- Anthropic và Bộ Quốc phòng đã tiến hành đàm phán căng thẳng trong nhiều tháng về điều kiện sử dụng Claude trong quân đội
- Anthropic cởi mở với việc điều chỉnh chính sách sử dụng, nhưng vẫn giữ hai biện pháp bảo vệ: không để mô hình bị dùng cho giám sát quy mô lớn nhắm vào người Mỹ và phát triển vũ khí có thể khai hỏa mà không có con người can thiệp
- Bộ Quốc phòng xem đây là các hạn chế quá mức, cho rằng định nghĩa về giám sát quy mô lớn và vũ khí tự động có quá nhiều vùng xám, khiến không thể vận hành trên thực tế
- Bộ Quốc phòng đang đàm phán không chỉ với Anthropic mà còn với OpenAI, Google, xAI theo tiêu chuẩn “all lawful purposes”
- Theo đưa tin, các quan chức cấp cao của Bộ Quốc phòng từ lâu đã bất mãn với Anthropic và tích cực tận dụng cơ hội đối đầu công khai
Cuộc gặp trực tiếp Hegseth-Amodei (24/2)
- Hegseth thông báo với Amodei rằng Bộ Quốc phòng sẽ chọn một trong hai phương án: chỉ định rủi ro chuỗi cung ứng hoặc kích hoạt Defense Production Act
- Defense Production Act là đạo luật từ thập niên 1950, trao quyền buộc doanh nghiệp sản xuất sản phẩm nhất định trong tình trạng khẩn cấp quốc gia
- Về không khí cuộc họp, một quan chức nói rằng “không phải không khí ấm áp”, nhưng nguồn tin khác cho biết cuộc gặp vẫn “lịch sự” và không có việc lớn tiếng
- Hegseth nói với Amodei rằng ông đánh giá cao Claude, nhưng không doanh nghiệp nào có thể áp điều kiện lên các quyết định vận hành của Bộ Quốc phòng hay phản đối từng trường hợp sử dụng cụ thể
- Hegseth nhắc cụ thể tới cáo buộc của Bộ Quốc phòng rằng Anthropic đã nêu lo ngại với Palantir về việc sử dụng Claude trong chiến dịch Maduro, nhưng Amodei phủ nhận
- Cuộc họp có sự tham dự của nhiều quan chức cấp cao, gồm Thứ trưởng Quốc phòng Steve Feinberg, Thứ trưởng phụ trách nghiên cứu và kỹ thuật Emil Michael, Thứ trưởng phụ trách mua sắm Michael Duffey
Sự từ chối cuối cùng của Amodei và phản ứng của Bộ Quốc phòng
- Amodei hôm thứ Năm đã từ chối “đề nghị tốt nhất và cuối cùng” của Bộ Quốc phòng, tuyên bố rằng ông “không thể đồng ý với các yêu cầu đó vì lương tâm”
- Emil Michael gọi Amodei là “kẻ nói dối” và người có “mặc cảm Chúa trời”, chỉ trích rằng ông ta đã “đồng ý đặt an ninh quốc gia vào rủi ro”
- Sau cuộc họp, phía Anthropic vẫn giữ giọng điệu hòa giải, nói rằng họ vẫn đang tiếp tục đối thoại thiện chí về chính sách sử dụng để Anthropic có thể tiếp tục hỗ trợ các nhiệm vụ an ninh quốc gia của chính phủ
Tầm quan trọng chiến lược của Claude và bài toán chuyển đổi
- Claude hiện là mô hình AI duy nhất được dùng trong các hệ thống mật của quân đội Mỹ
- Mô hình này đã được dùng trong chiến dịch bắt giữ Maduro thông qua quan hệ đối tác với Palantir, và cũng có thể được dùng cho các chiến dịch quân sự tiềm tàng liên quan tới Iran
- Ngay cả quan chức Bộ Quốc phòng cũng thừa nhận năng lực của Claude, mô tả việc chuyển đổi sẽ là “nỗi đau khủng khiếp”
- Một quan chức nói: “Lý do duy nhất chúng tôi vẫn còn nói chuyện là vì chúng tôi cần họ, và cần ngay bây giờ; vấn đề là họ giỏi đến mức đó”
- Giá trị hợp đồng của Anthropic với Bộ Quốc phòng là tối đa 200 triệu USD, chỉ chiếm phần rất nhỏ trong doanh thu thường niên 14 tỷ USD
- Tuy nhiên, Anthropic cho biết 8 trong 10 công ty lớn nhất nước Mỹ đang dùng Claude, nên tác động lan tỏa của việc bị chỉ định rủi ro chuỗi cung ứng được dự báo sẽ rất rộng
Mô hình thay thế và động thái của đối thủ
- xAI của Elon Musk gần đây đã ký hợp đồng đưa Grok vào môi trường mật, nhưng chưa rõ liệu có thể thay thế hoàn toàn Claude hay không
- Bộ Quốc phòng đang tăng tốc thảo luận để chuyển các mô hình của OpenAI và Google từ môi trường không mật sang các hệ thống mật
- Một quan chức cấp cao trong chính quyền thừa nhận các mô hình cạnh tranh đang “hơi tụt lại phía sau” trong các ứng dụng đặc thù của chính phủ, khiến việc chuyển đổi đột ngột trở nên khó khăn
- OpenAI, Google và xAI đã đồng ý gỡ bỏ các biện pháp bảo vệ trong hệ thống không mật, nhưng vẫn chưa được dùng cho công việc mật
Phản ứng của OpenAI
- CEO OpenAI Sam Altman trong bản ghi nhớ hôm thứ Sáu cho biết OpenAI có cùng các ranh giới đỏ với Anthropic
- Ông nêu rõ rằng AI không nên được dùng cho giám sát quy mô lớn hay vũ khí sát thương tự động, và các quyết định tự động hóa rủi ro cao phải có con người can thiệp
- OpenAI cũng có hợp đồng riêng trị giá 200 triệu USD với Bộ Quốc phòng, nhưng chỉ dành cho công việc không mật
Tuyên bố của Tổng thống Trump
- Trên Truth Social, ông chỉ đạo “ngay lập tức dừng sử dụng công nghệ Anthropic tại mọi cơ quan liên bang”
- Tuyên bố rằng “không cần, không muốn và sẽ không bao giờ giao dịch nữa”
- Gọi Anthropic là “những kẻ điên cánh tả”, chỉ trích đây là một “sai lầm thảm họa” khi cố ép Bộ Quốc phòng tuân theo điều khoản sử dụng thay vì Hiến pháp
Phản ứng chính trị và lo ngại
- Thượng nghị sĩ Mark Warner, Phó chủ tịch Ủy ban Tình báo Thượng viện, đã chỉ trích động thái của Trump
- Ông bày tỏ lo ngại nghiêm trọng về việc các quyết định an ninh quốc gia có đang được đưa ra dựa trên toan tính chính trị thay vì phân tích thận trọng hay không
- Cảnh báo rằng việc đe dọa và hạ thấp một công ty Mỹ như cái cớ để hướng hợp đồng sang nhà cung cấp được ưu ái sẽ tạo ra rủi ro lớn cho đất nước
- Cũng có lo ngại về khả năng một số cơ quan liên bang sẽ chuyển sang các mô hình mà họ đã xác định là có rủi ro về độ tin cậy, an toàn và bảo mật
Lập trường của Anthropic và triển vọng sắp tới
- Trong bài luận tháng 1, Dario Amodei nêu mối lo cốt lõi là “quá ít ngón tay trên nút bấm”, cảnh báo về tình huống chỉ một số rất ít người có thể vận hành đội quân drone mà không cần sự hợp tác của người khác
- Anthropic đang lên kế hoạch IPO trong năm nay, và tác động của xung đột với chính quyền đối với nhà đầu tư vẫn chưa rõ ràng
- Amodei cho biết ngay cả sau khi đối đầu với chính quyền Trump, định giá doanh nghiệp và doanh thu của Anthropic vẫn tiếp tục tăng
- Việc chỉ định rủi ro chuỗi cung ứng vốn trước đây chỉ áp dụng với doanh nghiệp từ các quốc gia thù địch như Nga, Trung Quốc, và được cho là lần đầu tiên áp dụng với một công ty Mỹ
- Palantir cũng đã dùng Claude cho công việc mật, nên hiện cần chuyển sang mô hình của đối thủ
3 bình luận
Hoa Kỳ “Trung Quốc”
Thật khó chịu, lỗi.
Ý kiến trên Hacker News
Tôi nghĩ DoW(Department of War) và Anthropic đã có hợp đồng từ trước, trong đó có các điều khoản cho phép và cấm rất rõ ràng
Nhưng giờ DoW đang cố lật lại các điều khoản đó. Đọc lại tuyên bố chính thức của Dario thì thấy các trường hợp sử dụng mà DoW nêu ra vốn không hề nằm trong hợp đồng ban đầu
Rốt cuộc Anthropic vẫn đang tuân thủ hợp đồng gốc, còn DoW thì trông như đang cố tình tìm cách sửa hợp đồng theo hướng ác ý
Các điều khoản hợp đồng ban đầu là thứ Lầu Năm Góc đã đồng ý, còn bây giờ họ lại đang tìm cách đơn phương thay đổi
Cũng giống như nói rằng không được dùng ống có chì cho nước uống
Nói rằng đây là công ty nguy hiểm đến mức đe dọa an ninh quốc gia, nhưng lại vẫn tiếp tục sử dụng trong 6 tháng tới, nghe rất mâu thuẫn
Thái độ giữ vững nguyên tắc của Anthropic thật ấn tượng. Đúng là kiểu công ty khiến người ta muốn làm việc cùng
Tôi ủng hộ lập trường của Anthropic là không dính líu đến giết chóc hay giám sát
Với tư cách một cựu binh yêu nước của Mỹ, tôi thà thấy Anthropic chuyển sang châu Âu còn hơn
Như Rutger Bregman nói, châu Âu đang nắm nút thắt phần cứng AI thông qua ASML, và nếu Anthropic gia nhập thì có thể trở thành nền tảng cho một siêu cường AI (liên kết tweet)
Biện pháp lần này có thể là đòn đánh chí mạng với Anthropic
Nếu mọi công ty giao dịch với DoD đều bị cấm hoạt động thương mại với Anthropic, Claude có nguy cơ bị loại khỏi các nền tảng đám mây như AWS·Google·Microsoft
Những hạn chế mà Anthropic yêu cầu chỉ có hai điều
(1) cấm giám sát quy mô lớn trong nước, (2) bắt buộc có con người can thiệp trong các quyết định sát thương
Chừng đó thậm chí còn là những điều kiện quá ôn hòa (tuyên bố chính thức)
Tôi cảm thấy những chủ đề như thế này khó thảo luận trên HN
Nên tránh tranh luận chính trị, nhưng vụ này là ví dụ cho việc ý thức hệ và chính sách tác động trực tiếp lên công nghệ
Nhưng guideline của HN lại nói “hãy diễn giải theo hướng thiện chí”, nên bản chất những chủ đề như vậy rất khó xử lý
Thảo luận mối quan hệ giữa công nghệ và chính sách thì luôn được hoan nghênh
Cụm “mọi công ty làm ăn với quân đội Mỹ sẽ bị cấm hoạt động thương mại với Anthropic” thật gây sốc
Tôi tự hỏi liệu điều đó có nghĩa AWS hay GCP sẽ không thể bán lại Claude nữa không
Các trường đại học nhận tài trợ nghiên cứu từ chính phủ như MIT, Stanford, Caltech cũng có thể sẽ phải ngừng dùng Claude
Là người Mỹ Latinh, trước đây tôi từng ủng hộ Mỹ, nhưng giờ thì không còn nữa
Mỹ có xu hướng đối xử cưỡng ép với Mỹ Latinh, và một thế giới do Trung Quốc dẫn dắt thậm chí còn có vẻ ít xâm lược hơn
Chủ nghĩa McCarthy(McCarthyism) dưới thời Truman năm 1947 bắt đầu bằng việc kiểm tra lòng trung thành rồi dẫn đến danh sách đen và bỏ tù (liên kết wiki)
Tình hình hiện tại trông như sự tái hiện của thời kỳ đó. Nếu không làm theo lời chính phủ thì sẽ bị đưa vào danh sách đen hoặc bị trừng phạt