2 điểm bởi GN⁺ 2025-10-07 | 1 bình luận | Chia sẻ qua WhatsApp
  • Báo cáo đánh giá mô hình AI DeepSeek do NIST công bố vào tháng 9/2025 là một văn bản mang mục đích chính trị chứ không phải đánh giá kỹ thuật trung lập, với ý đồ kiềm chế AI mã nguồn mở đến từ Trung Quốc dù không có bằng chứng về mối đe dọa an ninh thực sự
  • Báo cáo không đưa ra bất kỳ bằng chứng nào về cửa hậu, spyware hay rò rỉ dữ liệu trong các mô hình DeepSeek, mà chỉ chỉ ra rằng việc tinh chỉnh an toàn còn kém nên dễ jailbreak hơn và có phản ánh quan điểm của chính phủ Trung Quốc
  • DeepSeek đã công khai hoàn toàn trọng số mô hình, kiến trúc và phương pháp huấn luyện theo giấy phép Apache 2.0, đóng góp lớn cho nghiên cứu AI mở, nhưng chính phủ Mỹ lại gán nhãn đây là "AI thù địch"
  • NIST cố tình đánh đồng giữa chạy cục bộ và dùng API, đồng thời sử dụng phương pháp thiên lệch như bỏ qua so sánh với các mô hình mã nguồn mở khác hoặc kiểm tra thiên kiến của các mô hình Mỹ
  • Báo cáo này là một phần của chính sách công nghiệp nhằm kiềm chế DeepSeek, bên đã chứng minh sức cạnh tranh của AI mã nguồn mở, qua đó bảo vệ vị thế độc quyền của các công ty AI Mỹ, đặt lợi ích thương mại và chiến lược lên trên tính trung lập khoa học

Bản chất của báo cáo đánh giá DeepSeek của NIST

  • Báo cáo DeepSeek ngày 30/9/2025 của NIST là một tài liệu tấn công chính trị chứ không phải đánh giá kỹ thuật trung lập
    • Không có bất kỳ bằng chứng nào về cửa hậu, spyware hay rò rỉ dữ liệu
    • Đây là nỗ lực của chính phủ Mỹ nhằm cản trở khoa học mở, nghiên cứu mở và mã nguồn mở bằng cách khai thác nỗi sợ và thông tin sai lệch
    • Đóng góp cho nhân loại bị tấn công bằng chính trị và dối trá để bảo vệ quyền lực doanh nghiệp và duy trì kiểm soát
  • Sau khi báo cáo được công bố, sự hoảng loạn lan rộng trên mạng
    • Có tuyên bố rằng trọng số DeepSeek đã bị làm hỏng
    • Có tuyên bố rằng Trung Quốc dùng mô hình để do thám
    • Có tuyên bố rằng chỉ riêng việc tải xuống cũng là rủi ro bảo mật
    • Tất cả những tuyên bố này đều sai

Những thành tựu thực sự của DeepSeek

  • Phát triển mô hình AI có sức cạnh tranh
    • Đạt hiệu năng cấp tuyến đầu với ngân sách thấp hơn rất nhiều so với OpenAI hay Anthropic
    • Chưa hoàn hảo, nhưng là thành quả ấn tượng so với mức ngân sách
  • Công khai hoàn toàn theo giấy phép Apache 2.0
    • Trọng số mô hình
    • Kiến trúc
    • Phương pháp huấn luyện
    • Bài báo nghiên cứu
  • Giúp bất kỳ ai cũng có thể tái tạo công trình và chạy các mô hình quy mô tuyến đầu trên máy cục bộ
    • Hỗ trợ tái tạo mọi thứ từ đầu
    • Một trong những đóng góp lớn nhất cho nghiên cứu AI mở trong vài năm gần đây
  • Phản ứng của chính phủ Mỹ: dán nhãn là "AI thù địch" và ám chỉ hoạt động gián điệp

Chiến lược đánh tráo khái niệm cốt lõi của NIST

  • Cố tình trộn lẫn ba kịch bản khác nhau
    • Kịch bản A: dùng ứng dụng/API DeepSeek thì prompt được gửi tới máy chủ ở Trung Quốc (một vấn đề thực tế về chủ quyền dữ liệu)
    • Kịch bản B: tải trọng số mở về và chạy cục bộ thì dữ liệu không bị gửi ra ngoài thiết bị
    • Kịch bản C: được host trên các dịch vụ bên thứ ba đáng tin cậy như OpenRouter, Fireworks, Chutes thì hạ tầng và quyền kiểm soát riêng tư do nhà cung cấp host quyết định
  • NIST cố tình gộp chung những tình huống hoàn toàn khác nhau này
    • Vừa thống kê lượt tải cục bộ vừa cảnh báo về "rủi ro an ninh quốc gia"
    • Bất kỳ ai có kiến thức kỹ thuật cơ bản đều có thể thấy đây là cách dẫn dắt sai lệch
  • Sự nhập nhằng này trở thành nền tảng cho phần còn lại của cách đóng khung sai lệch trong báo cáo

Những gì NIST thực sự phát hiện

  • Nếu bỏ đi lớp ngôn từ giật gân, những gì còn lại là
    1. Mô hình DeepSeek dễ jailbreak hơn các mô hình Mỹ đã được tinh chỉnh an toàn
    2. Đôi khi phản ánh quan điểm của chính phủ Trung Quốc
    3. Hiệu năng thấp hơn đôi chút ở một số benchmark
    4. Khẳng định chi phí trên mỗi token cao hơn (nhưng không nêu phương pháp)
  • Vậy là hết
    • Không có bằng chứng về hành vi ác ý
    • Không có bằng chứng về rò rỉ dữ liệu
    • Không có bằng chứng rằng mô hình thực hiện hành vi độc hại ngoài việc "phản hồi prompt theo cách mà họ không thích"
  • Phân tích phát hiện về jailbreak
    • Vì DeepSeek đầu tư ít hơn vào huấn luyện an toàn (vấn đề nguồn lực)
    • NIST không kiểm tra các mô hình Mỹ trong quá khứ để đối chiếu
    • Trong khi đó, gpt-oss-120b của OpenAI lại rất dễ bị jailbreak
  • Phân tích phát hiện về "câu chuyện tuyên truyền của Đảng Cộng sản Trung Quốc"
    • Một mô hình được huấn luyện trên dữ liệu Trung Quốc phản ánh quan điểm Trung Quốc không phải điều bất ngờ
    • Nó chịu tác động của luật kiểm duyệt Trung Quốc
    • Đây không phải là lỗ hổng bảo mật

Những so sánh mà NIST đã không thực hiện

  • Không so sánh với các mô hình mở khác
    • Llama, Mistral, Falcon ở đâu?
    • Nếu so sánh, sẽ lộ ra rằng đây không phải vấn đề riêng của DeepSeek mà là các mô hình mở nói chung có ít lớp an toàn hơn các mô hình độc quyền
  • Không so sánh với các mô hình Mỹ thời kỳ đầu
    • Mức độ dễ bị jailbreak của GPT-3 năm 2020 là như thế nào?
    • Họ không làm so sánh này vì nó sẽ làm suy yếu câu chuyện mà họ muốn dựng lên
  • Không kiểm tra thiên kiến Mỹ trong các mô hình Mỹ
    • Có vẻ chỉ thiên kiến Trung Quốc mới bị xem là rủi ro an ninh
  • Dùng benchmark riêng tư
    • "Benchmark riêng do CAISI xây dựng" nên không thể tái lập hay xác minh
    • Đây không phải khoa học mà là nghiên cứu phục vụ vận động lập luận

Báo cáo thực sự cho thấy điều gì

  • Nếu đọc giữa các dòng
    1. Mô hình DeepSeek ít được mài giũa hơn - do đầu tư phát triển ít hơn nên đương nhiên vẫn còn thô
    2. Mô hình Trung Quốc đủ sức cạnh tranh để gây lo ngại - nếu không đe dọa thị phần thì báo cáo này đã không tồn tại
    3. Mỹ lo sợ mất vị thế thống trị AI - báo cáo được đặt hàng rõ ràng dưới "Kế hoạch hành động AI" của Trump. Tuyên bố của Bộ trưởng Thương mại cho thấy đây là chính sách công nghiệp chứ không phải đánh giá trung lập

Mối đe dọa thực sự (gợi ý: không phải nhằm vào bạn)

  • Điều DeepSeek thực sự đe dọa: độc quyền
    • "Tội" thực sự của DeepSeek là chứng minh mã nguồn mở hoạt động được
    • Nó chứng minh có thể xây dựng mô hình mạnh mà không cần vốn đầu tư mạo hiểm hàng tỷ USD hay API đóng
  • Điều này khiến những công ty bán quyền truy cập AI với giá cao phải sợ hãi
    • Khi DeepSeek nói "đây là các trọng số, hãy tự chạy đi", họ đang tấn công hào lũy kinh tế mà các công ty đó dựa vào
  • Đó là lý do báo cáo của NIST tồn tại
    • Vì DeepSeek đã chứng minh tính mở có thể cạnh tranh với hệ thống đóng
    • Giới đang nắm lợi ích phải chặn điều đó

Sự đạo đức giả

  • Cảnh báo của NIST so với thực tế
    • NIST: cảnh báo rằng mô hình DeepSeek có thể phản hồi các prompt độc hại trong môi trường mô phỏng
    • Thực tế: các mô hình Mỹ thật sự gửi dữ liệu thật ra máy chủ bên ngoài
  • Trường hợp của OpenAI
    • Còn nhớ ChatGPT từng dùng hội thoại để huấn luyện chứ?
    • Chỉ sau phản ứng dữ dội họ mới phải thêm tùy chọn opt-out
  • So sánh
    • Chạy cục bộ trọng số DeepSeek = không truyền dữ liệu
    • Dùng API OpenAI = liên tục truyền dữ liệu lên máy chủ
    • Cái nào mới là rủi ro riêng tư?
  • Báo cáo cảnh báo về việc "áp dụng AI nước ngoài" nhưng lại phớt lờ thực tế rằng mọi API đám mây, dù của Mỹ hay không, đều đòi hỏi phải tin tưởng hạ tầng của người khác
    • Trọng số mở chạy cục bộ dễ kiểm toán hơn và an toàn hơn bất kỳ dịch vụ đám mây nào
  • Nhưng đó không phải thông điệp họ muốn truyền tải. Bởi đây chưa bao giờ là câu chuyện về bảo mật. Mà là về kiểm soát câu chuyện

Sự phản bội đối với mã nguồn mở và khoa học mở

  • Cộng đồng mã nguồn mở đã xây nên nền móng của AI hiện đại
    • Linux, Python, PyTorch, Transformers
    • Hàng chục năm phát triển hợp tác, được chia sẻ tự do
  • DeepSeek đang tiếp nối truyền thống đó
    • Tiếp nhận tri thức mở, xây nên thứ ấn tượng và trả lại cho cộng đồng
  • Phản ứng của cơ quan Mỹ: gọi đó là mối đe dọa
  • Hãy tưởng tượng nếu Trung Quốc làm vậy khi Meta phát hành Llama
    • Nếu họ công bố một báo cáo chính phủ nói rằng trọng số Llama là công cụ giám sát vì "dễ bị jailbreak"
    • Chúng ta sẽ gọi đó là bảo hộ, hoang tưởng công nghệ, tấn công vào nghiên cứu mở
  • Nhưng khi chúng ta làm thì sao? "An ninh quốc gia"
  • Nghiên cứu mở phải mang tính phổ quát
    • Không thể chỉ cổ vũ khoa học mở khi nó còn thuận tiện cho mình

Một bài kiểm tra bạn có thể tự chạy

  • Đừng tin tôi, đừng tin NIST, hãy tự kiểm tra
  • Tải trọng số DeepSeek về
    • Dùng huggingface transformers, vLLM, LM Studio, llama.cpp để chạy cục bộ
    • Mở công cụ giám sát mạng
  • Quan sát
    • Chính xác là không có gói tin nào được gửi đi đâu cả
    • Prompt được xử lý hoàn toàn trên thiết bị
    • "Mối đe dọa bảo mật" đáng sợ đó chỉ đang nhân ma trận mà không hề kết nối gì với bên ngoài
  • Hãy tự hỏi: vì sao chính phủ Mỹ lại nói sai về điều này?
  • "Mối đe dọa bảo mật" không nằm trong mô hình. Nó nằm ở chính trị

Những điều thực sự cần lo ngại

  • Có những mối quan ngại chính đáng
    • Dùng API DeepSeek: nếu bạn gửi dữ liệu nhạy cảm tới dịch vụ host của DeepSeek, nó sẽ đi qua hạ tầng Trung Quốc. Đây là một vấn đề chủ quyền dữ liệu thực sự, tương tự khi dùng bất kỳ nhà cung cấp đám mây nước ngoài nào
    • Lỗ hổng jailbreak: nếu đang xây ứng dụng production, bạn phải kiểm tra lỗ hổng của mọi mô hình và triển khai biện pháp an toàn ở cấp ứng dụng. Đừng chỉ dựa vào guardrail của mô hình. Ngoài ra, hãy dùng guard model khi suy luận (như LlamaGuard hoặc Qwen3Guard) để phân loại và lọc cả prompt lẫn phản hồi
    • Thiên kiến và kiểm duyệt: mọi mô hình đều phản ánh dữ liệu huấn luyện. Hãy nhận thức điều đó dù bạn dùng mô hình nào
  • Đây là các bài toán kỹ thuật
    • Không phải lý do để né tránh hoàn toàn mô hình mã nguồn mở (hoặc mô hình Trung Quốc)

Ý nghĩa đối với tương lai của AI

  • Đây không chỉ là câu chuyện về DeepSeek
    • Mà là câu hỏi liệu AI sẽ tiếp tục mở và có thể kiểm toán, hay sẽ bị rào lại bởi chính phủ và doanh nghiệp
  • Những câu hỏi đặt ra
    • Chúng ta có cho phép tái định nghĩa "mã nguồn mở" thành "chỉ mở nếu là của Mỹ" hay không?
    • Chúng ta có đòi hỏi bằng chứng thực sự cho các tuyên bố về bảo mật, hay chấp nhận những lời ám chỉ mơ hồ?
    • AI sẽ là một dự án chung của nhân loại hay trở thành vũ khí địa chính trị?
  • DeepSeek đã chứng minh có một con đường khác. Đó là lý do nó phải bị bôi xấu

Quan điểm của tác giả

  • Bối cảnh của tác giả
    • Chạy mô hình mã nguồn mở trên máy cục bộ
    • Tự huấn luyện mô hình
    • Tin vào sự căn chỉnh có thể kết hợp và quyền tự do của người dùng
    • Cho rằng AI nên là công cụ cho người dùng, chứ không phải cho doanh nghiệp hay chính phủ
  • Đánh giá về báo cáo của NIST
    • Không phải đánh giá kỹ thuật trung lập
    • Là tài liệu chính sách được thiết kế để ngăn việc tiếp nhận mô hình AI Trung Quốc nhằm bảo vệ lợi ích thương mại và chiến lược của Mỹ
  • Lập trường về việc chính phủ Mỹ thúc đẩy công nghiệp trong nước
    • Bản thân việc chính phủ Mỹ thúc đẩy ngành công nghiệp Mỹ không có gì sai về bản chất
    • Nhưng phải gọi đúng tên của nó
    • Đừng ngụy trang chủ nghĩa bảo hộ thành nghiên cứu bảo mật
    • Đừng bịa ra mối đe dọa
    • Đừng nói dối công chúng về những gì bằng chứng thực sự cho thấy
  • Đóng góp của DeepSeek
    • Đã trao cho chúng ta một món quà quý giá và có giá trị
    • Các trọng số chỉ đơn thuần là dữ liệu safetensor
    • Nằm trên ổ đĩa và hoạt động đúng theo lệnh
    • Không gọi về nhà. Không do thám. Không làm rò rỉ dữ liệu
  • Kết luận
    • Nếu bạn lo ngại, có nghĩa là bạn chưa hiểu cách suy luận cục bộ hoạt động
    • Nếu bạn tin vào luận điệu gieo rắc sợ hãi, nghĩa là bạn đã bị thao túng thành công
    • Tất cả chuyện này không phải về an toàn. Mà là về quyền lực - ai là người xây dựng, chia sẻ và hiểu những công cụ định hình tương lai

Kết luận

  • Mã và nghiên cứu là mã nguồn mở và có thể kiểm toán. Còn lại đều là chính trị
  • Khuyến nghị dành cho độc giả
    • Hãy tự đọc báo cáo NIST và mã nguồn
    • Hãy tìm bằng chứng thực sự về mã độc hay chức năng giám sát
    • Bạn sẽ không tìm thấy. Vì không có
  • Sau đó hãy bắt đầu đặt câu hỏi
    • Vì sao người ta bảo bạn phải sợ mã nguồn mở ngay khi nó hoạt động quá tốt?

1 bình luận

 
GN⁺ 2025-10-07
Ý kiến trên Hacker News
  • Tôi hoàn toàn không ngạc nhiên khi các cơ quan Mỹ từ lâu đã bị sử dụng cho các mục đích chính trị trong những vấn đề vượt ra ngoài biên giới; bản thân tôi cũng luôn giữ thái độ hoài nghi với đồ điện tử Trung Quốc. Tôi đồng ý rằng báo cáo lần này có tính sai lệch và bài ngoại, nhưng nếu Trung Quốc giành được đủ quyền kiểm soát đối với LLM thì dù là hiện tại hay tương lai, tôi vẫn nghi ngờ họ có thể tìm cách thao túng một cách tinh vi theo cách nào đó. Điều này không chỉ đúng với Trung Quốc; Mỹ hay bất kỳ cường quốc nào, nếu có đủ quyền lực, cũng sẽ làm như vậy. Cuối cùng, điều quan trọng là chúng ta phải liên tục nghi ngờ các mô hình, benchmark chúng, và theo dõi đều đặn xem chúng có phục vụ nhu cầu của chúng ta thay vì nhu cầu của nhà cung cấp hay không.
    • Bạn có nhắc đến khả năng Trung Quốc thao túng tinh vi thông qua LLM; tôi tò mò cụ thể điều đó sẽ diễn ra theo cách nào.
    • Ảnh hưởng của chính phủ hay chính trị dĩ nhiên sẽ can dự ở một mức độ nào đó. Vấn đề không phải là có hay không, mà là nó tác động ở đâu và đến mức nào. Việc khẳng định rồi gạt phăng báo cáo này là “sai” hay “thiên lệch” không có nhiều ý nghĩa; chúng ta cần sàng lọc và phân tích thông tin trong một thế giới phức tạp.
    • Phát tán thông tin sai lệch về hàng ngoại không phải là lời giải; tốt hơn là nhận ra rằng mọi người muốn các mô hình mã nguồn mở, rồi công bố mô hình nội địa có chất lượng tốt nhất để nó được sử dụng rộng rãi.
    • Nếu sắp xếp lại suy nghĩ về nền dân chủ Mỹ, thì giới lãnh đạo Mỹ theo đuổi mức linh hoạt tối đa để có thể quyết định bất cứ điều gì họ muốn vào bất kỳ lúc nào. Vì là dân chủ nên họ phải duy trì ảo tưởng về sự ủng hộ của công chúng, và bằng cách gieo cấy một góc nhìn nhất định, chính phủ có thể kiểm soát một phần suy nghĩ của công chúng để tạo ra môi trường giúp đảm bảo được một mức ủng hộ nhất định cho bất kỳ quyết định nào. Nếu chính sách thay đổi hoặc lãnh đạo mới xuất hiện, họ có thể đổ lỗi cho người tiền nhiệm và tạo ra một sự khởi đầu đạo đức mới kiểu “trước đây tệ nhưng giờ đã thay đổi”. Đây là điều chế độ độc tài không làm được. Ví dụ, dù Putin có nhận ra tổn thất của chiến tranh thì ông ta cũng không thể dừng lại mà không đánh mất tính chính danh chính trị. Nếu Nga là một nền dân chủ kiểu Mỹ, có lẽ họ đã có thể nhanh chóng bầu lãnh đạo mới, rút quân, áp một hình phạt mang tính hình thức lên Putin rồi tiếp tục được miễn trách nhiệm trong cộng đồng quốc tế.
    • Những cơ quan này cũng bị dùng như công cụ chính trị ngay cả trong nội địa.
  • Tôi khuyên mọi người trước tiên hãy đọc báo cáo gốc, rồi sau đó đọc bài phân tích lần này và tự đưa ra phán đoán. Điều quan trọng là đọc nguyên văn thay vì bị cuốn theo những bản tóm tắt câu kéo click.
    • Đây là bản gốc: https://www.nist.gov/system/files/documents/2025/09/30/CAISI_Evaluation_of_DeepSeek_AI_Models.pdf
    • Có vẻ nhiều người chưa đọc bản gốc. Chỉ cần nhìn cách báo cáo xử lý vấn đề exfiltration (rò rỉ thông tin) cũng đủ thấy bài luận và báo cáo gốc của NIST khác nhau. Việc một trang web giật tít thu hút được nhiều chú ý hơn một báo cáo kỹ thuật dài 70 trang phản ánh sự suy giảm khả năng tập trung của con người hiện nay.
  • Với tư cách là người đang host LLM cho các nhà nghiên cứu và nhân viên tại một trường đại học châu Âu, đây là vấn đề khiến tôi cảm nhận rất rõ. Nếu không có các mô hình Trung Quốc thì nhiều công việc hiện tại của chúng tôi đã không thể thực hiện được. Theo tôi, EU hay bất cứ nơi nào khác cũng nên biết ơn việc các viện nghiên cứu Trung Quốc công bố mô hình dưới các giấy phép hào phóng như vậy. Nếu không có họ thì lựa chọn của chúng ta đã cực kỳ tệ. Nếu cần một mô hình mạnh của Mỹ, người ta sẽ khuyên bạn xây cả một datacenter NVIDIA trị giá hàng trăm triệu USD; còn ngay cả lựa chọn của EU, dù host trên phần cứng của mình, bạn vẫn phải trả phí giấy phép, nhưng bí quyết chuyên môn thì vẫn bị giữ kín. Trong khi đó, DeepSeek còn công bố cả “nguồn bí mật”, giúp các dự án mã nguồn mở như vLLM host mô hình hiệu quả hơn.
  • Sau khi thực sự đọc báo cáo, tôi thấy nội dung không khớp với phần mô tả trong bài.
    • Điều thú vị là ngay cả phần bình luận dưới bài này cũng khác với nội dung thật của bài viết. Tác giả cứ liên tục đẩy nó theo hướng là một cuộc tấn công vào mã nguồn mở, nhưng các bình luận lại có vẻ đang đề cập đúng hơn đến những vấn đề có thể phát sinh từ ảnh hưởng của Trung Quốc.
    • Bài blog này có nội dung rất dễ gây hiểu lầm. Những đoạn đầu của bài nhấn mạnh rằng báo cáo NIST nói “không có dấu hiệu mã độc, backdoor hay rò rỉ dữ liệu”, nhưng thực ra NIST không hề đưa ra khẳng định đó. Nếu chỉ đọc bài blog, người ta sẽ có cảm giác như NIST đã vô căn cứ mà tuyên bố có backdoor.
    • Trường hợp của tôi thì tôi cảm thấy nó khá khớp với nội dung báo cáo thực tế.
  • Dù các mô hình Trung Quốc có bị bôi nhọ đi nữa, tôi vẫn sẽ dùng mô hình tốt và rẻ để giành lợi thế cạnh tranh.
    • Việc bôi nhọ đó rốt cuộc là bước đầu tiên dẫn tới hình sự hóa.
    • Tôi không tìm thấy bất kỳ cách diễn đạt bôi nhọ nào trong bài của NIST (bản gốc). Theo định nghĩa của tôi, “bôi nhọ” là tuyên truyền nhằm quỷ hóa đối thủ. Nếu bạn nghĩ khác, mong hãy chỉ ra cụ thể chỗ nào trong báo cáo, tham khảo https://www.thefreedictionary.com/demonization.
    • Thật kỳ lạ khi mọi người lại bênh vực các mô hình đóng: hiệu năng tệ hơn nhưng giá lại đắt gấp nhiều lần, kiểm duyệt cũng nặng hơn. Các công ty Trung Quốc có vẻ không ám ảnh benchmark như các công ty phương Tây; khi dùng thực tế, tôi cảm thấy các mô hình như Kimi, GLM, Deepseek dù điểm benchmark tiếng Anh thấp hơn nhưng chất lượng cảm nhận lại vượt trội hơn hẳn. Đặc biệt, Kimi trả lời các câu hỏi về phần cứng chi tiết và chính xác hơn nhiều so với Gemini hay Claude. Tôi nghĩ điều này là do họ tận dụng dữ liệu huấn luyện tiếng Trung tốt hơn.
  • Tác giả Eric Hartford nói rằng cần “loại bỏ ngôn từ kích động”, nhưng khi đọc báo cáo thì tôi không thấy loại ngôn từ đó. Nhìn chung văn phong của nó khá khô khan và có thể gây buồn chán.
    • Ngược lại, chính bài blog mới chứa rất nhiều ngôn từ kích động vô căn cứ.
    • Trên thực tế, tôi nghĩ chính bài viết lần này lại giống “tuyên truyền bôi nhọ” nhắm vào NIST hay nước Mỹ hơn, và ngôn từ kích động cũng xuất hiện trong bài nhiều hơn.
  • Cảm ơn vì đã chia sẻ góc nhìn hay. Nếu có ai đã thực sự dùng thử mô hình Dolphin uncensored do tác giả tạo ra, tôi rất muốn nghe trải nghiệm.
    • Theo tôi, cách tốt nhất là tự xây dựng framework đánh giá rồi trực tiếp sử dụng. Phương án thay thế thứ hai là tìm các trường hợp bên ngoài đã tiến hành đánh giá tương tự với bạn. Nhưng nếu chưa tự xác lập tiêu chí của mình thì bạn cũng không thể biết liệu đánh giá của người khác có đủ đáng tin hay không. Đặc biệt trong lĩnh vực ML hay AI, tôi đánh giá thấp chất lượng các cuộc thảo luận trên HN. Những người tham gia thường quá vội vàng, mỉa mai và chia phe, khiến tôi có cảm giác họ không thực sự theo đuổi chân lý. Dù vậy, tôi vẫn muốn ở lại đây và đóng góp cho thảo luận. Tôi luôn mong có sự rõ ràng, logic và chiều sâu trong tranh luận. Đôi khi nơi này cho cảm giác như https://xkcd.com/386/.
  • Vì DeepSeek đã có cả bài báo bình duyệt trên tạp chí Nature, và bài viết cũng thừa nhận một số vấn đề mà các nhà nghiên cứu độc lập chỉ ra ở mô hình mở, nên theo tôi lần đánh giá này của NIST gần giống một cuộc tấn công mang màu sắc chính trị hơn. Việc các cơ quan tình báo Mỹ từng tận dụng lợi thế công nghệ cho mục đích giám sát, như trong vụ CryptoAG hay tranh cãi quanh Huawei mà rốt cuộc không xuất hiện nhiều bằng chứng ác ý rõ ràng, chính là cơ sở tạo nên sự bất an này. Cuối cùng, cần có nhiều mô hình mở đa dạng như Kimi, Qwen để chi phí và hiệu năng được bình chuẩn hóa, và việc các nước cạnh tranh biến AI thành “hào địa chính trị” cũng nên biến mất, như vậy sẽ tốt hơn cho toàn bộ lĩnh vực.
  • Báo cáo của NIST dường như đã chậm một nhịp ngay từ thời điểm Trung Quốc công bố các mô hình mã nguồn mở vượt trội hơn nhiều sau DeepSeek.
  • Tôi thắc mắc vì sao NIST lại đánh giá hiệu năng, chi phí và mức độ chấp nhận. Họ chỉ so sánh các mô hình Mỹ mới ra gần đây (OpenAI GPT-5 series, Anthropic Opus 4, v.v.) với các bản DeepSeek cũ hơn (R1, R1-0528, V3.1), trong khi DeepSeek 3.2 hiện tại có hiệu năng rất tốt. Cũng như việc một chiếc xe tăng tốc 0-60 dặm/giờ trong 3 giây không khiến đánh giá của chính phủ trở nên quan trọng; tôi phải tự lái rồi mới tự kết luận. “Mô hình bảo mật cao nhất” của DeepSeek được mô tả là có tỷ lệ từ chối yêu cầu độc hại 6%, nhưng thực tế thì các mô hình GPT của Mỹ giờ cũng có thể bị lạm dụng gần như không hạn chế. Tôi nghĩ báo cáo lần này không phải là một tài liệu của NIST hay về bảo mật, mà đơn thuần chỉ là tài liệu tuyên truyền của Mỹ.