- Báo cáo đánh giá mô hình AI DeepSeek do NIST công bố vào tháng 9/2025 là một văn bản mang mục đích chính trị chứ không phải đánh giá kỹ thuật trung lập, với ý đồ kiềm chế AI mã nguồn mở đến từ Trung Quốc dù không có bằng chứng về mối đe dọa an ninh thực sự
- Báo cáo không đưa ra bất kỳ bằng chứng nào về cửa hậu, spyware hay rò rỉ dữ liệu trong các mô hình DeepSeek, mà chỉ chỉ ra rằng việc tinh chỉnh an toàn còn kém nên dễ jailbreak hơn và có phản ánh quan điểm của chính phủ Trung Quốc
- DeepSeek đã công khai hoàn toàn trọng số mô hình, kiến trúc và phương pháp huấn luyện theo giấy phép Apache 2.0, đóng góp lớn cho nghiên cứu AI mở, nhưng chính phủ Mỹ lại gán nhãn đây là "AI thù địch"
- NIST cố tình đánh đồng giữa chạy cục bộ và dùng API, đồng thời sử dụng phương pháp thiên lệch như bỏ qua so sánh với các mô hình mã nguồn mở khác hoặc kiểm tra thiên kiến của các mô hình Mỹ
- Báo cáo này là một phần của chính sách công nghiệp nhằm kiềm chế DeepSeek, bên đã chứng minh sức cạnh tranh của AI mã nguồn mở, qua đó bảo vệ vị thế độc quyền của các công ty AI Mỹ, đặt lợi ích thương mại và chiến lược lên trên tính trung lập khoa học
Bản chất của báo cáo đánh giá DeepSeek của NIST
- Báo cáo DeepSeek ngày 30/9/2025 của NIST là một tài liệu tấn công chính trị chứ không phải đánh giá kỹ thuật trung lập
- Không có bất kỳ bằng chứng nào về cửa hậu, spyware hay rò rỉ dữ liệu
- Đây là nỗ lực của chính phủ Mỹ nhằm cản trở khoa học mở, nghiên cứu mở và mã nguồn mở bằng cách khai thác nỗi sợ và thông tin sai lệch
- Đóng góp cho nhân loại bị tấn công bằng chính trị và dối trá để bảo vệ quyền lực doanh nghiệp và duy trì kiểm soát
- Sau khi báo cáo được công bố, sự hoảng loạn lan rộng trên mạng
- Có tuyên bố rằng trọng số DeepSeek đã bị làm hỏng
- Có tuyên bố rằng Trung Quốc dùng mô hình để do thám
- Có tuyên bố rằng chỉ riêng việc tải xuống cũng là rủi ro bảo mật
- Tất cả những tuyên bố này đều sai
Những thành tựu thực sự của DeepSeek
- Phát triển mô hình AI có sức cạnh tranh
- Đạt hiệu năng cấp tuyến đầu với ngân sách thấp hơn rất nhiều so với OpenAI hay Anthropic
- Chưa hoàn hảo, nhưng là thành quả ấn tượng so với mức ngân sách
- Công khai hoàn toàn theo giấy phép Apache 2.0
- Trọng số mô hình
- Kiến trúc
- Phương pháp huấn luyện
- Bài báo nghiên cứu
- Giúp bất kỳ ai cũng có thể tái tạo công trình và chạy các mô hình quy mô tuyến đầu trên máy cục bộ
- Hỗ trợ tái tạo mọi thứ từ đầu
- Một trong những đóng góp lớn nhất cho nghiên cứu AI mở trong vài năm gần đây
- Phản ứng của chính phủ Mỹ: dán nhãn là "AI thù địch" và ám chỉ hoạt động gián điệp
Chiến lược đánh tráo khái niệm cốt lõi của NIST
- Cố tình trộn lẫn ba kịch bản khác nhau
- Kịch bản A: dùng ứng dụng/API DeepSeek thì prompt được gửi tới máy chủ ở Trung Quốc (một vấn đề thực tế về chủ quyền dữ liệu)
- Kịch bản B: tải trọng số mở về và chạy cục bộ thì dữ liệu không bị gửi ra ngoài thiết bị
- Kịch bản C: được host trên các dịch vụ bên thứ ba đáng tin cậy như OpenRouter, Fireworks, Chutes thì hạ tầng và quyền kiểm soát riêng tư do nhà cung cấp host quyết định
- NIST cố tình gộp chung những tình huống hoàn toàn khác nhau này
- Vừa thống kê lượt tải cục bộ vừa cảnh báo về "rủi ro an ninh quốc gia"
- Bất kỳ ai có kiến thức kỹ thuật cơ bản đều có thể thấy đây là cách dẫn dắt sai lệch
- Sự nhập nhằng này trở thành nền tảng cho phần còn lại của cách đóng khung sai lệch trong báo cáo
Những gì NIST thực sự phát hiện
- Nếu bỏ đi lớp ngôn từ giật gân, những gì còn lại là
- Mô hình DeepSeek dễ jailbreak hơn các mô hình Mỹ đã được tinh chỉnh an toàn
- Đôi khi phản ánh quan điểm của chính phủ Trung Quốc
- Hiệu năng thấp hơn đôi chút ở một số benchmark
- Khẳng định chi phí trên mỗi token cao hơn (nhưng không nêu phương pháp)
- Vậy là hết
- Không có bằng chứng về hành vi ác ý
- Không có bằng chứng về rò rỉ dữ liệu
- Không có bằng chứng rằng mô hình thực hiện hành vi độc hại ngoài việc "phản hồi prompt theo cách mà họ không thích"
- Phân tích phát hiện về jailbreak
- Vì DeepSeek đầu tư ít hơn vào huấn luyện an toàn (vấn đề nguồn lực)
- NIST không kiểm tra các mô hình Mỹ trong quá khứ để đối chiếu
- Trong khi đó,
gpt-oss-120b của OpenAI lại rất dễ bị jailbreak
- Phân tích phát hiện về "câu chuyện tuyên truyền của Đảng Cộng sản Trung Quốc"
- Một mô hình được huấn luyện trên dữ liệu Trung Quốc phản ánh quan điểm Trung Quốc không phải điều bất ngờ
- Nó chịu tác động của luật kiểm duyệt Trung Quốc
- Đây không phải là lỗ hổng bảo mật
Những so sánh mà NIST đã không thực hiện
- Không so sánh với các mô hình mở khác
- Llama, Mistral, Falcon ở đâu?
- Nếu so sánh, sẽ lộ ra rằng đây không phải vấn đề riêng của DeepSeek mà là các mô hình mở nói chung có ít lớp an toàn hơn các mô hình độc quyền
- Không so sánh với các mô hình Mỹ thời kỳ đầu
- Mức độ dễ bị jailbreak của GPT-3 năm 2020 là như thế nào?
- Họ không làm so sánh này vì nó sẽ làm suy yếu câu chuyện mà họ muốn dựng lên
- Không kiểm tra thiên kiến Mỹ trong các mô hình Mỹ
- Có vẻ chỉ thiên kiến Trung Quốc mới bị xem là rủi ro an ninh
- Dùng benchmark riêng tư
- "Benchmark riêng do CAISI xây dựng" nên không thể tái lập hay xác minh
- Đây không phải khoa học mà là nghiên cứu phục vụ vận động lập luận
Báo cáo thực sự cho thấy điều gì
- Nếu đọc giữa các dòng
- Mô hình DeepSeek ít được mài giũa hơn - do đầu tư phát triển ít hơn nên đương nhiên vẫn còn thô
- Mô hình Trung Quốc đủ sức cạnh tranh để gây lo ngại - nếu không đe dọa thị phần thì báo cáo này đã không tồn tại
- Mỹ lo sợ mất vị thế thống trị AI - báo cáo được đặt hàng rõ ràng dưới "Kế hoạch hành động AI" của Trump. Tuyên bố của Bộ trưởng Thương mại cho thấy đây là chính sách công nghiệp chứ không phải đánh giá trung lập
Mối đe dọa thực sự (gợi ý: không phải nhằm vào bạn)
- Điều DeepSeek thực sự đe dọa: độc quyền
- "Tội" thực sự của DeepSeek là chứng minh mã nguồn mở hoạt động được
- Nó chứng minh có thể xây dựng mô hình mạnh mà không cần vốn đầu tư mạo hiểm hàng tỷ USD hay API đóng
- Điều này khiến những công ty bán quyền truy cập AI với giá cao phải sợ hãi
- Khi DeepSeek nói "đây là các trọng số, hãy tự chạy đi", họ đang tấn công hào lũy kinh tế mà các công ty đó dựa vào
- Đó là lý do báo cáo của NIST tồn tại
- Vì DeepSeek đã chứng minh tính mở có thể cạnh tranh với hệ thống đóng
- Giới đang nắm lợi ích phải chặn điều đó
Sự đạo đức giả
- Cảnh báo của NIST so với thực tế
- NIST: cảnh báo rằng mô hình DeepSeek có thể phản hồi các prompt độc hại trong môi trường mô phỏng
- Thực tế: các mô hình Mỹ thật sự gửi dữ liệu thật ra máy chủ bên ngoài
- Trường hợp của OpenAI
- Còn nhớ ChatGPT từng dùng hội thoại để huấn luyện chứ?
- Chỉ sau phản ứng dữ dội họ mới phải thêm tùy chọn opt-out
- So sánh
- Chạy cục bộ trọng số DeepSeek = không truyền dữ liệu
- Dùng API OpenAI = liên tục truyền dữ liệu lên máy chủ
- Cái nào mới là rủi ro riêng tư?
- Báo cáo cảnh báo về việc "áp dụng AI nước ngoài" nhưng lại phớt lờ thực tế rằng mọi API đám mây, dù của Mỹ hay không, đều đòi hỏi phải tin tưởng hạ tầng của người khác
- Trọng số mở chạy cục bộ dễ kiểm toán hơn và an toàn hơn bất kỳ dịch vụ đám mây nào
- Nhưng đó không phải thông điệp họ muốn truyền tải. Bởi đây chưa bao giờ là câu chuyện về bảo mật. Mà là về kiểm soát câu chuyện
Sự phản bội đối với mã nguồn mở và khoa học mở
- Cộng đồng mã nguồn mở đã xây nên nền móng của AI hiện đại
- Linux, Python, PyTorch, Transformers
- Hàng chục năm phát triển hợp tác, được chia sẻ tự do
- DeepSeek đang tiếp nối truyền thống đó
- Tiếp nhận tri thức mở, xây nên thứ ấn tượng và trả lại cho cộng đồng
- Phản ứng của cơ quan Mỹ: gọi đó là mối đe dọa
- Hãy tưởng tượng nếu Trung Quốc làm vậy khi Meta phát hành Llama
- Nếu họ công bố một báo cáo chính phủ nói rằng trọng số Llama là công cụ giám sát vì "dễ bị jailbreak"
- Chúng ta sẽ gọi đó là bảo hộ, hoang tưởng công nghệ, tấn công vào nghiên cứu mở
- Nhưng khi chúng ta làm thì sao? "An ninh quốc gia"
- Nghiên cứu mở phải mang tính phổ quát
- Không thể chỉ cổ vũ khoa học mở khi nó còn thuận tiện cho mình
Một bài kiểm tra bạn có thể tự chạy
- Đừng tin tôi, đừng tin NIST, hãy tự kiểm tra
- Tải trọng số DeepSeek về
- Dùng huggingface transformers, vLLM, LM Studio, llama.cpp để chạy cục bộ
- Mở công cụ giám sát mạng
- Quan sát
- Chính xác là không có gói tin nào được gửi đi đâu cả
- Prompt được xử lý hoàn toàn trên thiết bị
- "Mối đe dọa bảo mật" đáng sợ đó chỉ đang nhân ma trận mà không hề kết nối gì với bên ngoài
- Hãy tự hỏi: vì sao chính phủ Mỹ lại nói sai về điều này?
- "Mối đe dọa bảo mật" không nằm trong mô hình. Nó nằm ở chính trị
Những điều thực sự cần lo ngại
- Có những mối quan ngại chính đáng
- Dùng API DeepSeek: nếu bạn gửi dữ liệu nhạy cảm tới dịch vụ host của DeepSeek, nó sẽ đi qua hạ tầng Trung Quốc. Đây là một vấn đề chủ quyền dữ liệu thực sự, tương tự khi dùng bất kỳ nhà cung cấp đám mây nước ngoài nào
- Lỗ hổng jailbreak: nếu đang xây ứng dụng production, bạn phải kiểm tra lỗ hổng của mọi mô hình và triển khai biện pháp an toàn ở cấp ứng dụng. Đừng chỉ dựa vào guardrail của mô hình. Ngoài ra, hãy dùng guard model khi suy luận (như LlamaGuard hoặc Qwen3Guard) để phân loại và lọc cả prompt lẫn phản hồi
- Thiên kiến và kiểm duyệt: mọi mô hình đều phản ánh dữ liệu huấn luyện. Hãy nhận thức điều đó dù bạn dùng mô hình nào
- Đây là các bài toán kỹ thuật
- Không phải lý do để né tránh hoàn toàn mô hình mã nguồn mở (hoặc mô hình Trung Quốc)
Ý nghĩa đối với tương lai của AI
- Đây không chỉ là câu chuyện về DeepSeek
- Mà là câu hỏi liệu AI sẽ tiếp tục mở và có thể kiểm toán, hay sẽ bị rào lại bởi chính phủ và doanh nghiệp
- Những câu hỏi đặt ra
- Chúng ta có cho phép tái định nghĩa "mã nguồn mở" thành "chỉ mở nếu là của Mỹ" hay không?
- Chúng ta có đòi hỏi bằng chứng thực sự cho các tuyên bố về bảo mật, hay chấp nhận những lời ám chỉ mơ hồ?
- AI sẽ là một dự án chung của nhân loại hay trở thành vũ khí địa chính trị?
- DeepSeek đã chứng minh có một con đường khác. Đó là lý do nó phải bị bôi xấu
Quan điểm của tác giả
- Bối cảnh của tác giả
- Chạy mô hình mã nguồn mở trên máy cục bộ
- Tự huấn luyện mô hình
- Tin vào sự căn chỉnh có thể kết hợp và quyền tự do của người dùng
- Cho rằng AI nên là công cụ cho người dùng, chứ không phải cho doanh nghiệp hay chính phủ
- Đánh giá về báo cáo của NIST
- Không phải đánh giá kỹ thuật trung lập
- Là tài liệu chính sách được thiết kế để ngăn việc tiếp nhận mô hình AI Trung Quốc nhằm bảo vệ lợi ích thương mại và chiến lược của Mỹ
- Lập trường về việc chính phủ Mỹ thúc đẩy công nghiệp trong nước
- Bản thân việc chính phủ Mỹ thúc đẩy ngành công nghiệp Mỹ không có gì sai về bản chất
- Nhưng phải gọi đúng tên của nó
- Đừng ngụy trang chủ nghĩa bảo hộ thành nghiên cứu bảo mật
- Đừng bịa ra mối đe dọa
- Đừng nói dối công chúng về những gì bằng chứng thực sự cho thấy
- Đóng góp của DeepSeek
- Đã trao cho chúng ta một món quà quý giá và có giá trị
- Các trọng số chỉ đơn thuần là dữ liệu safetensor
- Nằm trên ổ đĩa và hoạt động đúng theo lệnh
- Không gọi về nhà. Không do thám. Không làm rò rỉ dữ liệu
- Kết luận
- Nếu bạn lo ngại, có nghĩa là bạn chưa hiểu cách suy luận cục bộ hoạt động
- Nếu bạn tin vào luận điệu gieo rắc sợ hãi, nghĩa là bạn đã bị thao túng thành công
- Tất cả chuyện này không phải về an toàn. Mà là về quyền lực - ai là người xây dựng, chia sẻ và hiểu những công cụ định hình tương lai
Kết luận
- Mã và nghiên cứu là mã nguồn mở và có thể kiểm toán. Còn lại đều là chính trị
- Khuyến nghị dành cho độc giả
- Hãy tự đọc báo cáo NIST và mã nguồn
- Hãy tìm bằng chứng thực sự về mã độc hay chức năng giám sát
- Bạn sẽ không tìm thấy. Vì không có
- Sau đó hãy bắt đầu đặt câu hỏi
- Vì sao người ta bảo bạn phải sợ mã nguồn mở ngay khi nó hoạt động quá tốt?
1 bình luận
Ý kiến trên Hacker News
exfiltration(rò rỉ thông tin) cũng đủ thấy bài luận và báo cáo gốc của NIST khác nhau. Việc một trang web giật tít thu hút được nhiều chú ý hơn một báo cáo kỹ thuật dài 70 trang phản ánh sự suy giảm khả năng tập trung của con người hiện nay.