- Bộ trưởng Quốc phòng Mỹ đã gửi tối hậu thư cho Anthropic, yêu cầu công ty cung cấp công nghệ AI của mình mà không có bất kỳ giới hạn quân sự nào
- Bộ Quốc phòng đe dọa rằng nếu Anthropic từ chối, họ sẽ bị chỉ định là doanh nghiệp có ‘rủi ro chuỗi cung ứng (supply chain risk)’
- Anthropic trước đó đã công khai nêu rõ nguyên tắc cấm sử dụng cho hệ thống vũ khí tự động và mục đích giám sát
- Vào tháng 1/2026, Anthropic nghi ngờ AI của mình đã bị sử dụng trong cuộc tấn công vào Venezuela trong quá trình hợp tác với Palantir, và tái khẳng định các nguyên tắc của mình
- EFF nhấn mạnh rằng bất chấp áp lực từ chính phủ, các công ty công nghệ không nên bị biến thành công cụ giám sát
Áp lực từ Bộ Quốc phòng và lập trường của Anthropic
- Bộ trưởng Quốc phòng Mỹ gây sức ép lên Anthropic khi yêu cầu cung cấp công nghệ không bị giới hạn về quân sự
- Nếu Anthropic từ chối, công ty có thể bị xếp vào diện ‘rủi ro chuỗi cung ứng’, từ đó bị chặn giao dịch với Bộ Quốc phòng
- Biện pháp này được mô tả là thường áp dụng với các doanh nghiệp giao dịch với những quốc gia bị cơ quan liên bang giám sát như Trung Quốc
- Anthropic giữ nguyên lập trường không hỗ trợ sử dụng cho hệ thống vũ khí tự động và mục đích giám sát
- Đây là “hai lằn ranh đỏ không được vượt qua” mà CEO Dario Amodei từng nêu ra, đồng thời nhấn mạnh sự cần thiết của quy trình rà soát nghiêm ngặt và các biện pháp an toàn để ngăn ngừa lạm dụng
- Các nguyên tắc cốt lõi về an toàn AI và Hiến chương (Constitution) của Claude của Anthropic được công khai trên trang web công ty
Bối cảnh tranh cãi
- Năm 2025, Anthropic được biết đến là công ty AI đầu tiên được cấp phép xử lý thông tin mật
- Tháng 1/2026, tranh cãi bắt đầu khi công ty nhận thấy dấu hiệu AI của mình đã bị sử dụng trong cuộc tấn công vào Venezuela trong quá trình hợp tác với Palantir
- Sau đó, Amodei đã công bố một bức thư tái khẳng định lệnh cấm đối với giám sát và việc sử dụng trong vũ khí tự động
- Hiện tại, chính phủ Mỹ đang yêu cầu Anthropic thay đổi chính sách bằng cách đe dọa chấm dứt hợp đồng
Lập luận của EFF
- EFF nhấn mạnh rằng các doanh nghiệp không nên từ bỏ các nguyên tắc về nhân quyền và quyền tự do dân sự chỉ vì áp lực từ chính phủ
- Tổ chức này nêu rõ rằng dù nhiều công ty công nghệ không giữ được nguyên tắc vì nhiều lý do khác nhau như lợi nhuận, thì sự ép buộc từ chính phủ không thể là cái cớ
- Khách hàng doanh nghiệp, công chúng và các kỹ sư đều kỳ vọng Anthropic sẽ giữ vững nguyên tắc
- EFF cảnh báo rằng điều quan trọng là toàn bộ ngành công nghệ không bị biến thành công cụ của hệ thống giám sát
Chủ đề liên quan
- Được phân loại là vấn đề liên quan đến trí tuệ nhân tạo (AI) và học máy (Machine Learning)
- EFF xem vụ việc này là vấn đề ranh giới giữa đạo đức AI và giám sát của chính phủ
Chưa có bình luận nào.