Anthropic công bố việc phát hiện và phản hồi các cuộc tấn công trích xuất bất hợp pháp đối với Claude từ các công ty AI Trung Quốc
(anthropic.com)Anthropic đã chính thức công bố rằng DeepSeek, MiniMax và Moonshot AI là ba công ty AI của Trung Quốc đã trích xuất trái phép khả năng của Claude.
Quy mô tấn công
Ba công ty này đã tạo tổng cộng 24.000 tài khoản giả và tạo ra hơn 16 triệu cuộc trò chuyện với Claude, đây là hành vi vi phạm rõ ràng Điều khoản Dịch vụ của Anthropic cũng như các hạn chế truy cập theo khu vực.
Đặc điểm theo từng công ty: DeepSeek tập trung thu thập năng lực lập luận cơ bản và truy vấn nhạy cảm về chính sách thông qua hơn 150.000 cuộc trò chuyện. MiniMax tạo ra hơn 13 triệu cuộc trò chuyện, chiếm trên 80% tổng lượng, tập trung vào agentic coding, sử dụng công cụ và orchestration; Anthropic phát hiện sự cố này theo thời gian thực và nhận ra MiniMax trước khi công ty phát hành mô hình. Đặc biệt, khi Anthropic tung ra một mô hình mới, MiniMax đã nhanh chóng chuyển khoảng một nửa lượng truy cập sang mô hình mới trong vòng 24 giờ.
Tấn công: Vì truy cập Claude tại Trung Quốc đã bị chặn vì lý do an ninh quốc gia, kẻ tấn công đã lách bằng cách vận hành một dịch vụ proxy (kiến trúc “hydra cluster”) với hàng chục nghìn tài khoản giả để vượt qua rào cản. Có trường hợp một mạng lưới proxy duy nhất vận hành đồng thời hơn 20.000 tài khoản giả, và để khiến việc phát hiện khó khăn hơn, chúng đã trộn lưu lượng với lưu lượng người dùng thông thường trước khi gửi.
Phản hồi của Anthropic: Anthropic đã xây dựng các bộ phân loại như phát hiện dựa trên hành vi (behavioral fingerprinting), phát hiện mẫu trích xuất chain-of-thought, và các kỹ thuật tương tự; đồng thời chia sẻ các chỉ số kỹ thuật với các công ty AI, nhà cung cấp đám mây và cơ quan chức năng liên quan. Anthropic cũng siết chặt xác thực ở các đường đi thường bị lạm dụng để mở tài khoản giả như tài khoản giáo dục, tài khoản startup.
Quan điểm an ninh quốc gia: Anthropic coi đây không chỉ là vi phạm điều khoản dịch vụ mà là một mối đe dọa an ninh quốc gia. Theo hãng, mô hình bị trích xuất bất hợp pháp có khả năng loại bỏ các hàng rào an toàn như ngăn chặn phát triển vũ khí sinh hóa và chặn tấn công mạng, vì vậy được xem là vô hiệu hóa chính sách kiểm soát xuất khẩu AI của Hoa Kỳ. Công ty nói: “Không có công ty nào có thể giải quyết điều này một mình”, và kêu gọi ngành công nghiệp, nhà cung cấp đám mây cùng nhà hoạch định chính sách cùng phối hợp phản ứng.
Trước đó, OpenAI cũng đã báo cáo với Quốc hội về hành vi tương tự của DeepSeek, cho thấy cuộc thảo luận về phản ứng hợp tác trong toàn ngành AI Mỹ có thể sẽ được đẩy mạnh.
8 bình luận
OpenAI và Anthropic thật đáng buồn: dù tận dụng công nghệ/công trình nghiên cứu nền tảng do Google tạo ra và lấy dataset theo kiểu cướp biển, họ vẫn vận động hành lang ở Quốc hội để hợp pháp hóa việc bất hợp pháp hóa các mô hình mã nguồn mở, chỉ cần nhìn vậy là đã thấy rõ tham vọng của họ là gì rồi.
Lại càng thấy rõ vì sao ngay cả các gã công nghệ khổng lồ bậc thầy như Google lẫn các công ty AI Trung Quốc còn tích cực hơn trong việc công bố nghiên cứu. Đúng là một màn kịch đúng là không có gì đáng ngạc nhiên.
Rốt cuộc ai mới là người nói rằng phát triển công nghệ vì lợi ích nhân loại... thật đáng lên án vì giả tạo và lừa dối
Đồng ý. Đặc biệt là Anthropic, dạo này thì mọi động thái đều thật phản cảm. Nó cứ như có thêm mấy tên còn tệ hơn Google xuất hiện vậy.
Việc họ còn làm như vậy với nhau cho thấy những vấn đề kiểu như an ninh quốc gia rốt cuộc chỉ là một thứ mang tính khung...
Những gì người ta tự mình xây dựng thường quý hơn, trong khi việc người khác làm trước đó có vẻ hơi giống trò cười. Có lẽ thời đại cạnh tranh công bằng đã thật sự qua rồi...
Những người không hề chất vấn tội lỗi do chính mình đã trộm cắp.
https://cnbc.com/2026/02/…
Nhìn việc từng cung cấp cho Bộ Quốc phòng của họ rồi đến giờ mới nêu vấn đề, tôi thấy rằng cam kết phản đối việc sử dụng cho mục đích quân sự chỉ là cái cớ và họ thực sự đang nói một đằng làm một nẻo. Họ là một nhóm hai mặt. Họ tuyên bố không quan tâm đến tiền nhưng lại dường như ám ảnh bởi tiền.
Nghĩ kỹ thì phần lớn LLM đều được tạo ra từ các bài viết và dữ liệu đã có sẵn do người khác viết sẵn...
Cho tới mức nào thì có thể coi là hành vi sao chép bất hợp pháp?
Như dự đoán, ngay cả Elon Musk cũng đã góp thêm một lời. https://x.com/elonmusk/status/2026052687423562228
"Anthropic đã phạm tội ăn cắp dữ liệu huấn luyện quy mô lớn, và đã phải bồi thường hàng tỷ đô la Mỹ cho hành vi trộm cắp đó. Đây là sự thật."
Có vẻ như cuối cùng sẽ là kiểu: ban đầu huấn luyện mô hình một cách bất hợp pháp rồi sau đó thỏa thuận hòa giải với một khoản tiền nhỏ.