- Bộ Quốc phòng Mỹ đã chính thức chỉ định Anthropic là rủi ro chuỗi cung ứng và thực hiện biện pháp chặn giao dịch với các nhà thầu hợp tác cùng Lầu Năm Góc
- Việc chỉ định này thường được áp dụng cho doanh nghiệp của quốc gia thù địch nước ngoài, và đây là một trong những trường hợp đầu tiên được áp dụng với một công ty Mỹ
- Trong khi Bộ Quốc phòng muốn AI được dùng cho mọi mục đích hợp pháp, Anthropic yêu cầu có bảo đảm rõ ràng rằng công nghệ của họ sẽ không bị dùng cho vũ khí tự hành và giám sát nội địa quy mô lớn
- Động thái này có thể tạo ảnh hưởng rộng tới cả đối tác và nhà đầu tư của Anthropic như Lockheed Martin, Amazon và Google
- Anthropic đã báo trước sẽ đáp trả bằng biện pháp pháp lý, làm dấy lên phân tích cho rằng điều này có thể tạo hiệu ứng làm chùn bước trong quan hệ giữa ngành AI và chính phủ
Chỉ định chính thức và bối cảnh
- Bộ Quốc phòng đã chính thức thông báo cho ban lãnh đạo Anthropic vào thứ Năm, cho rằng công ty này và các công cụ AI của họ cấu thành mối đe dọa an ninh
- Một quan chức cấp cao của Bộ Quốc phòng phát biểu rằng: "Chúng tôi không thể cho phép một nhà cung cấp can thiệp vào chuỗi chỉ huy để hạn chế việc sử dụng hợp pháp các năng lực cốt lõi và đặt nhân sự quân đội vào tình thế rủi ro"
- Bộ trưởng Quốc phòng Pete Hegseth đã báo trước việc chỉ định rủi ro chuỗi cung ứng từ tuần trước, nhưng hai bên vẫn tiếp tục đàm phán để đi tới thỏa thuận
Bất đồng lập trường giữa hai bên
- Lầu Năm Góc yêu cầu Anthropic cho phép sử dụng AI trong mọi mục đích hợp pháp
- Anthropic yêu cầu có bảo đảm rõ ràng rằng công nghệ của họ sẽ không bị dùng cho vũ khí tự hành và giám sát nội địa quy mô lớn
- Anthropic đã thông báo từ tuần trước rằng họ sẽ phản đối việc chỉ định này tại tòa án
Phạm vi của chỉ định và tranh cãi pháp lý
- Việc chỉ định rủi ro chuỗi cung ứng có thể được áp dụng rất rộng hoặc rất hẹp
- Thông báo của Hegseth tuần trước là chỉ thị rằng mọi doanh nghiệp hợp tác với quân đội đều không được giao dịch với Anthropic, và một số nhà phân tích chỉ ra rằng điều này vượt quá thẩm quyền pháp lý của Lầu Năm Góc
- Theo các nhà phân tích này, Bộ Quốc phòng chỉ có thể yêu cầu doanh nghiệp không sử dụng Claude trong các công việc dành cho Lầu Năm Góc
- Đây là một trong những trường hợp đầu tiên việc chỉ định này được áp dụng với một công ty Mỹ, và có cảnh báo rằng nó có thể tạo hiệu ứng làm chùn bước đối với các doanh nghiệp khác muốn giao dịch với chính phủ
Bản ghi nhớ nội bộ của CEO Anthropic
- Theo The Information, trong bản ghi nhớ gửi nhân viên tuần trước, CEO Dario Amodei viết rằng lý do chính quyền nhắm vào Anthropic là vì công ty "không gửi lời ca tụng kiểu độc tài dành cho Trump" và vì đã phản đối chương trình nghị sự AI của chính quyền
- Bản ghi nhớ này cũng chỉ trích đối thủ OpenAI; OpenAI hiện đã ký hợp đồng với Bộ Quốc phòng để sử dụng trong hệ thống mật
- Sau phản ứng từ nhân viên, OpenAI trong tuần này đã bổ sung rõ ràng điều khoản cấm giám sát vào hợp đồng
Tình hình ứng dụng quân sự hiện tại
- Trước đó, Claude của Anthropic là AI duy nhất được phê duyệt sử dụng trong môi trường mật; gần đây xAI của Elon Musk cũng đã được phê duyệt
- Claude hiện đang được quân đội sử dụng trong chiến dịch Iran, và từng được dùng trong chiến dịch bắt giữ cựu lãnh đạo Venezuela Nicolás Maduro
- Anthropic có quan hệ đối tác với Palantir, công ty khai phá dữ liệu cung cấp phần mềm cho Bộ Quốc phòng
Ảnh hưởng tới đối tác và nhà đầu tư
- Động thái lần này có thể gây ra hậu quả trên diện rộng đối với đối tác và nhà đầu tư của Anthropic như Lockheed Martin, Amazon và Google
1 bình luận
Ý kiến trên Hacker News
Có cảm giác rằng những biện pháp như vậy sẽ khiến các công ty Mỹ sau này sợ ký hợp đồng với chính phủ
Nếu chính phủ muốn, thay vì hủy hay đàm phán lại hợp đồng hiện có, họ hoàn toàn có thể đẩy vấn đề thành lệnh cấm giao dịch với cả một ngành cụ thể
Đây là một ví dụ cho thấy nhiều kỹ sư muốn tránh nói về chính trị, nhưng rốt cuộc chính trị vẫn quay lại phủ chụp lên ngành công nghệ như một thứ nghiệp báo
Xã hội dân sự nên thực sự lo ngại nghiêm túc trước những cuộc tấn công như thế này
Một khi quyền lực đã được tạo ra thì sớm muộn nó cũng sẽ quay sang phe đối lập
Nước Mỹ đã và đang tiến tới một xã hội kiểm soát ở mức độ Đức Quốc xã, và hơn một nửa công dân còn ủng hộ điều đó
thì mức chỉ định ‘rủi ro chuỗi cung ứng’ lần này cũng sẽ chẳng tạo ra chút cảnh giác nào
Vì họ vượt qua cả những lằn ranh đỏ mà các chính quyền trước đây không vượt qua, lại không bị chế tài gì, nên giờ có vẻ họ thậm chí cũng chẳng còn bận tâm nữa
Việc đóng cửa USAID là ví dụ tiêu biểu: chỉ vì lý do đơn giản kiểu “đừng tiêu tiền thuế để giúp người nước ngoài” mà họ còn làm mất luôn cả lợi ích của Mỹ
tweet nói rằng Bộ Quốc phòng đã chỉ định Anthropic là rủi ro chuỗi cung ứng và
bài Reuters nói Anthropic báo trước sẽ có hành động pháp lý
Vấn đề là họ đã cố kiểm soát điều kiện trong khi lại đi thỏa thuận với quỷ
Dù vậy, việc họ cố giữ những lằn ranh đỏ của riêng mình về cách công nghệ được sử dụng vẫn rất đáng ghi nhận
Vấn đề nằm ở phía con người không đọc kỹ các điều khoản chi tiết
Họ còn làm nhiều việc trong các lĩnh vực phi chiến đấu, nên hợp tác ở những mảng đó không hẳn là xấu
Tôi tò mò những người ký tên ở notdivided.org giờ sẽ chọn thế nào
có khả năng họ đã trực tiếp thao túng tình hình
Bài trên Wikipedia cũng ghi rất rõ
vì họ vốn đã có tiền sử làm việc với những công ty tai tiếng
Chỉ dùng miễn phí cho vài bài test đơn giản thôi, nhưng tới giờ thì tôi hài lòng hơn hẳn
Nó đủ cho những tính năng tôi cần, nên việc hủy gói ChatGPT là quyết định rất dễ dàng
Nó dùng file cục bộ như bộ nhớ, và có thể truy cập ngay chỉ bằng một lệnh một từ
Cuối cùng có thể họ sẽ không thể kinh doanh ở Mỹ nữa, và có khả năng phải chuyển ra nước ngoài
Nếu còn xuất hiện thêm một quyết định tịch thu tài sản doanh nghiệp nữa thì khi đó chắc chắn sẽ là bằng chứng rõ ràng
điều thú vị là câu trả lời cực kỳ đa dạng, và biên độ phủ nhận cũng rất rộng
Nhưng nếu có một số bên (ví dụ như OpenAI) chịu khuất phục, thì điều đó sẽ trở thành chuẩn mực mới và sẽ lại có mục tiêu kế tiếp xuất hiện