-
Sự việc lần này cho thấy AI tạo sinh đã đi sâu vào hạ tầng quân sự, ở chỗ Claude của Anthropic đã được sử dụng cho phân tích tình báo, nhận diện mục tiêu và mô phỏng của quân đội Mỹ thông qua hệ thống Maven của Palantir.
-
Điểm khởi đầu là Project Maven của Bộ Quốc phòng Mỹ năm 2017; năm 2018, Google rút lui sau phản ứng nội bộ, nhưng sau đó Palantir và Anthropic đã lấp vào khoảng trống đó.
-
Anthropic đã đưa ra hai điều kiện với Bộ Quốc phòng vào đầu năm 2026: cấm giám sát quy mô lớn đối với công dân Mỹ và cấm vũ khí hoàn toàn tự động, nhưng không được chấp nhận.
-
Trong quá trình này, chính quyền Trump trên thực tế đã tìm cách gạt Anthropic ra ngoài, và Bộ Quốc phòng đã chỉ định công ty là rủi ro chuỗi cung ứng.
-
Tuy nhiên, ngay vào thời điểm đó, Claude vẫn tiếp tục được dùng trong các chiến dịch liên quan đến Iran, và bên trong Bộ Quốc phòng đã có đánh giá rằng việc thay thế có thể mất vài tháng.
-
Điều này có nghĩa là một khi mô hình AI đã được tích hợp sâu vào các hệ thống quân sự, nó không còn là phần mềm đơn thuần nữa mà trở thành hạ tầng khó thay thế.
-
Đồng thời, OpenAI đã mở rộng các hợp đồng với Lầu Năm Góc, còn Google thì trong các nguyên tắc AI năm 2025 đã xóa bỏ câu chữ cấm vũ khí và giám sát, cho thấy tiêu chuẩn của toàn ngành đang dịch chuyển.
-
Điểm tranh cãi cốt lõi là: “Dù AI không trực tiếp bóp cò, nếu nó can dự sâu vào đề xuất mục tiêu và quyết định thứ tự ưu tiên, thì có thể xem đó là sự kiểm soát của con người đến đâu?”
-
Cuối cùng, sự việc này cho thấy các nguyên tắc đạo đức trong thời bình dễ dàng bị lung lay trong thời chiến, và năng lực đàm phán thực tế lại xuất phát từ độ sâu tích hợp và chi phí chuyển đổi, hơn là từ các nguyên tắc.
-
Vì vậy, câu hỏi không còn đơn giản là “có cho phép vũ khí AI hay không”, mà đang chuyển sang ai sẽ thay thế phán đoán của con người bằng khuyến nghị của AI, và với tốc độ nào.
Chưa có bình luận nào.