- Tuyên bố rằng việc công bố chỉ định rủi ro chuỗi cung ứng của Pete Hegseth không có cơ sở pháp lý và sẽ bị tranh chấp tại tòa
- Cho biết trong nhiều tháng đàm phán, Anthropic chỉ yêu cầu hai ngoại lệ là giám sát nội địa quy mô lớn và vũ khí hoàn toàn tự động, đồng thời khẳng định các ngoại lệ này cho đến nay chưa ảnh hưởng đến bất kỳ nhiệm vụ nào của chính phủ
- Lập trường rằng các mô hình AI frontier hiện nay chưa đủ độ tin cậy để được dùng cho vũ khí hoàn toàn tự động, và việc cho phép điều đó sẽ khiến binh sĩ Mỹ cùng dân thường gặp rủi ro lớn hơn
- Chỉ định rủi ro chuỗi cung ứng về mặt lịch sử chỉ được áp dụng với các quốc gia thù địch với Mỹ, và chưa từng có tiền lệ áp dụng công khai với một công ty Mỹ
- Thông báo tới khách hàng rằng quyền truy cập Claude của khách hàng phổ thông và các nhà thầu thương mại không bị ảnh hưởng, và đây là biện pháp chỉ giới hạn trong công việc theo hợp đồng với Bộ Quốc phòng
Bối cảnh và diễn biến đàm phán
- Bộ trưởng Hegseth thông báo trên X rằng ông sẽ chỉ đạo chỉ định Anthropic là một rủi ro chuỗi cung ứng
- Động thái này được đưa ra sau khi nhiều tháng đàm phán về hai ngoại lệ mà Anthropic yêu cầu đối với việc sử dụng Claude trong quân sự rơi vào bế tắc
- Ngoại lệ 1: giám sát nội địa quy mô lớn nhắm vào người Mỹ
- Ngoại lệ 2: vũ khí hoàn toàn tự động
- Tính đến thời điểm công bố tuyên bố, Anthropic cho biết chưa nhận được thông báo chính thức trực tiếp nào về tình trạng đàm phán từ Bộ Quốc phòng hay Nhà Trắng
Lập trường của Anthropic
- Đã truyền đạt rõ ràng với Bộ Quốc phòng rằng họ ủng hộ mọi cách sử dụng AI cho an ninh quốc gia hợp pháp, ngoại trừ hai ngoại lệ nêu trên
- Khẳng định rằng cho đến nay các ngoại lệ này chưa từng ảnh hưởng đến bất kỳ nhiệm vụ nào của chính phủ
- Hai lý do để tiếp tục giữ các ngoại lệ này:
- Các mô hình AI frontier hiện nay chưa đủ độ tin cậy để sử dụng trong vũ khí hoàn toàn tự động, và nếu cho phép sẽ gây rủi ro cho binh sĩ Mỹ và dân thường
- Giám sát nội địa quy mô lớn là hành vi xâm phạm các quyền cơ bản
Phản ứng pháp lý và lo ngại về tiền lệ
- Chỉ định rủi ro chuỗi cung ứng về mặt lịch sử là biện pháp chỉ được áp dụng với các quốc gia thù địch với Mỹ, và không có tiền lệ áp dụng công khai với một công ty Mỹ
- Anthropic cảnh báo rằng việc chỉ định này thiếu cơ sở pháp lý (legally unsound) và sẽ trở thành tiền lệ nguy hiểm cho mọi công ty Mỹ đang đàm phán với chính phủ
- Nêu rõ sẽ không thay đổi lập trường về giám sát nội địa quy mô lớn và vũ khí hoàn toàn tự động trước bất kỳ đe dọa hay hình phạt nào từ Bộ Quốc phòng
- Tuyên bố sẽ khiếu kiện tại tòa đối với việc chỉ định rủi ro chuỗi cung ứng
Ảnh hưởng đối với khách hàng
- Dù Bộ trưởng Hegseth ám chỉ rằng mọi công ty làm ăn với quân đội sẽ bị hạn chế giao dịch với Anthropic, công ty phản bác rằng Bộ trưởng không có thẩm quyền pháp lý để làm điều đó
- Theo 10 USC 3252, chỉ định rủi ro chuỗi cung ứng chỉ có thể áp dụng khi Claude được sử dụng như một phần của công việc theo hợp đồng với Bộ Quốc phòng, và không thể ảnh hưởng đến công việc với các khách hàng khác của nhà thầu
- Phạm vi ảnh hưởng cụ thể:
- Nếu là khách hàng cá nhân hoặc có hợp đồng thương mại với Anthropic: quyền truy cập Claude qua API, claude.ai, v.v. hoàn toàn không bị ảnh hưởng
- Nếu là nhà thầu của Bộ Quốc phòng: ngay cả khi được chính thức thông qua, biện pháp này cũng chỉ ảnh hưởng đến việc dùng Claude trong công việc theo hợp đồng với Bộ Quốc phòng, không ảnh hưởng đến việc sử dụng cho mục đích khác
Hướng đi sắp tới của Anthropic
- Từ tháng 6/2024, với tư cách là công ty AI frontier đầu tiên triển khai mô hình lên mạng lưới mật của chính phủ Mỹ, công ty đã hỗ trợ binh sĩ Mỹ và cho biết sẽ tiếp tục làm vậy
- Ưu tiên hàng đầu là ngăn gián đoạn dịch vụ cho khách hàng do sự việc lần này và hỗ trợ quá trình chuyển đổi suôn sẻ cho quân đội cùng các hoạt động của quân đội Mỹ
- Bày tỏ lời cảm ơn tới các đồng nghiệp trong ngành, nhà hoạch định chính sách, cựu quân nhân và công chúng đã lên tiếng ủng hộ gần đây
1 bình luận
Ý kiến trên Hacker News
Lập trường lần này của Anthropic thực sự đáng trân trọng
Việc họ thẳng thắn thừa nhận rằng không thể dự đoán được công nghệ mạnh mẽ sẽ bị lạm dụng như thế nào là một thái độ vừa trí tuệ vừa can đảm
Thật mỉa mai khi Anthropic hay OpenAI thu thập dữ liệu người dùng như thể đang giám sát cả thế giới, nhưng lại phản ứng nhạy cảm trước khả năng điều tương tự xảy ra trong chính nước mình
Đặc biệt, nhìn vào việc họ còn phân tích cả nhật ký trò chuyện trong các báo cáo liên quan đến Trung Quốc thì quyền riêng tư gần như không hề tồn tại
Mong Anthropic vẫn kiên định đứng vững ngay cả trong tình huống này
Chính thái độ như vậy lại càng khiến người ta có thiện cảm hơn
Hy vọng họ đừng giúp “Big Brother” nhìn thấy nhiều hơn nữa
Nếu kết quả là giám sát bị tăng cường, thì đây là lúc cần nghiêm túc suy nghĩ xem có nên tiếp tục công việc đó hay không
Có lẽ giờ đã đến lúc phải nghĩ đến cách gây nhiễu bộ dữ liệu huấn luyện của họ
Không biết Anthropic có phải là công ty đầu tiên đối đầu trực diện với chính quyền hiện tại hay không
Có thể tham khảo án lệ liên quan tại Learning Resources, Inc. v. Trump
Đây mới chính là lãnh đạo thực sự
Hoàn toàn khác với sự im lặng và hùa theo mà các tập đoàn công nghệ lớn đang thể hiện
Tuyên bố lần này giống như một thông điệp “cứ thử cấm xem” được nói ra theo cách rất lịch sự
Anthropic đang cho thấy thái độ giữ vững nguyên tắc, và nếu kiên trì đến cùng thì tôi nghĩ khả năng họ thắng cuộc là rất cao
Tóm tắt nội dung tuyên bố
Bộ trưởng Hegseth nói rằng “các công ty giao dịch với quân đội sẽ không thể giao dịch với Anthropic nữa”, nhưng điều đó không có cơ sở pháp lý
Theo 10 USC 3252, ‘chỉ định rủi ro chuỗi cung ứng’ chỉ áp dụng với việc sử dụng Claude trong các hợp đồng thời chiến
Tức là với người dùng phổ thông hay các đối tác thương mại, việc sử dụng Claude API hay claude.ai hoàn toàn không bị ảnh hưởng
Ngay cả những công ty cung cấp tài nguyên tính toán cho Anthropic như Google cũng có thể bị ảnh hưởng
Nếu pháp luật vận hành đúng cách thì thiệt hại có lẽ sẽ bị giới hạn, nhưng có vẻ điều đó còn tùy vào việc chính quyền muốn đẩy mạnh đến mức nào
Cá nhân tôi gần như không còn tin tưởng vào hệ thống pháp lý, rốt cuộc đây có vẻ là vấn đề ý chí chính trị
Nếu vậy thì sẽ có một cuộc chiến pháp lý, nhưng phần lớn doanh nghiệp có lẽ sẽ không chấp nhận rủi ro đó và cuối cùng sẽ cúi đầu
Có vẻ tiêu đề bị sai
Thực ra phải là “tuyên bố gửi khách hàng về phát ngôn của Bộ trưởng Chiến tranh Pete Hegseth”
Kiểu phản hồi này thậm chí có thể chạm đúng điểm yếu của đối phương, từ đó kéo theo thêm xung đột