1 điểm bởi GN⁺ 2 giờ trước | 1 bình luận | Chia sẻ qua WhatsApp
  • Mô hình trọng số mở cho phép bất kỳ ai chạy trực tiếp LLM trên phần cứng riêng của mình, nhờ đó bảo vệ dữ liệu nhạy cảm, linh hoạt hơn trong fine-tuning và lượng tử hóa, đồng thời có chi phí suy luận thấp hơn so với các mô hình frontier
  • Các mô hình từ những phòng nghiên cứu Trung Quốc như MiniMax, Z.ai, DeepSeek, Qwen được xem là những mô hình trọng số mở hàng đầu, còn Gemma của Google và gpt-oss của OpenAI nhìn chung bị đánh giá là đứng sau
  • Mô hình trọng số mở tạo ra áp lực giảm giá đối với các phòng nghiên cứu frontier như OpenAI, Anthropic, Google, vì khả năng chuyển sang các lựa chọn rẻ hơn giúp kìm hãm hành vi định giá kiểu độc quyền nhóm
  • Gần đây Meta đã ngừng phát hành mô hình ở “Muse Spark” mới nhất, Alibaba tăng số lần phát hành theo hướng API-first hoặc chỉ qua API, còn Kimi K2.6 và Mistral cũng cho thấy xu hướng áp đặt điều khoản giấy phép chặt chẽ hơn
  • Nếu hệ sinh thái trọng số mở cạnh tranh suy yếu, một số ít phòng nghiên cứu frontier cùng một vài phòng nghiên cứu Trung Quốc có thể hấp thụ phần thặng dư tiêu dùng của người dùng AI nhiều hơn, trong khi chưng cất cũng khó trở thành lời giải căn bản vì vẫn cần khả năng tiếp cận các mô hình nền tảng mạnh

Vai trò của mô hình trọng số mở

  • Thị trường LLM từ lâu đã song song tồn tại các mô hình đóng và mô hình trọng số mở (open weights)
    • Trái với tên gọi, gần như toàn bộ mô hình của OpenAI đều thuộc nhóm mô hình đóng
    • Các mô hình trọng số mở được những phòng nghiên cứu khác công bố, tiêu biểu nhất từng là dòng Llama
    • Gần đây, các mô hình từ những phòng nghiên cứu Trung Quốc như MiniMax, Z.ai, DeepSeek, Qwen (Alibaba) được xem là những mô hình trọng số mở dẫn đầu
    • Dòng Gemma của Google và các mô hình gpt-oss của OpenAI nhìn chung bị đánh giá là đứng sau các mô hình Trung Quốc
  • Mô hình trọng số mở cho phép bất kỳ ai chạy trực tiếp trên phần cứng của chính mình
    • Trước đây, những mô hình đủ giá trị để vận hành thường đòi hỏi phần cứng rất mạnh
    • Điều này đang thay đổi nhanh chóng khi các mô hình nhỏ hơn trở nên hữu ích hơn nhiều
  • Chạy cục bộ có ba lợi thế so với cách gửi yêu cầu qua API tới các nhà cung cấp như OpenAI, Anthropic, Google
    • Khi dữ liệu nhạy cảm khó hoặc không thể gửi tới trung tâm dữ liệu của các phòng nghiên cứu frontier, việc chạy on-premise giúp dữ liệu không rời khỏi mạng nội bộ
    • Có thể dùng mô hình theo hướng fine-tuning, hoặc lượng tử hóa (một dạng nén gần đúng) để phù hợp với điều kiện phần cứng cụ thể, nhờ đó linh hoạt hơn
    • Nếu dùng phần cứng riêng thì chỉ cần tính đến chi tiêu vốn cho phần cứng, điện năng và chi phí vận hành; ngay cả khi dùng nhà cung cấp hosting, chi phí theo token thường vẫn dưới 10% so với mô hình frontier

Áp lực giá và kỷ luật thị trường

  • Mô hình trọng số mở tạo ra áp lực giảm giá đáng kể lên các phòng nghiên cứu frontier
    • Điều này có phần giống với lý thuyết contestable markets, theo đó ngay cả trong thị trường độc quyền hay độc quyền nhóm, sự tồn tại của các lựa chọn thay thế rẻ và đáng tin cậy cũng buộc doanh nghiệp hiện hữu phải hành xử mang tính cạnh tranh
    • Về mặt chặt chẽ, lý thuyết này giả định chi phí chìm gần như bằng 0, trong khi việc huấn luyện mô hình frontier lại gần như là điều ngược lại
    • Dù vậy, cơ chế cốt lõi rằng khả năng người dùng có thể chuyển đổi sẽ kỷ luật mức giá vẫn còn nguyên
  • Mô hình frontier có thể tính giá cao hơn nhờ chất lượng tốt hơn và lợi thế về hợp đồng
    • Người dùng có thể sẵn sàng trả nhiều tiền hơn rất nhiều cho mô hình tốt hơn
    • Một hợp đồng suy luận với công ty quy mô khoảng 1 nghìn tỷ USD có giá trị khác hẳn việc dùng nhà cung cấp suy luận giá rẻ qua OpenRouter
    • OpenAI và các bên khác cung cấp các cam kết ràng buộc pháp lý về những hạng mục như SLA và tính bảo mật
  • Tuy vậy, mô hình trọng số mở vẫn tạo ra đủ áp lực để khiến hành vi định giá độc quyền nhóm trở nên khó hơn
    • Nếu các phòng nghiên cứu frontier tăng giá gấp 5 lần chỉ sau một đêm, nhiều người dùng có thể chuyển sang mô hình trọng số mở, đặc biệt ở các trường hợp sử dụng ít khắt khe hơn
    • Về mặt hành vi giá cả, mô hình trọng số mở đóng vai trò tương tự thuốc generic
    • Khi có generic, các hãng dược lớn sẽ hạ giá xuống gần hơn nhiều với mức giá của generic, đồng thời tập trung vào các liệu pháp mới đi trước generic một bước để giữ giá
  • Nếu không có mô hình trọng số mở, quyền định giá của các phòng nghiên cứu frontier có thể lớn hơn hiện nay rất nhiều

Thay đổi trong giấy phép và cách phát hành

  • Tính sẵn có của mô hình trọng số mở không phải điều đương nhiên
    • Huấn luyện mô hình tốn kém rất lớn, và các công ty tạo ra các mô hình này đều là doanh nghiệp thương mại
    • Dù có thể nhận nhiều trợ cấp từ nhà nước Trung Quốc, họ cũng không phải tổ chức từ thiện
  • Gần đây, điều khoản giấy phép của các mô hình trọng số mở cho thấy xu hướng bị siết chặt rõ rệt
    • Meta đã dừng hoàn toàn trọng số mở ở mô hình “Muse Spark” mới nhất và không công bố mô hình nữa
    • Alibaba ngày càng phát hành mô hình theo hướng API trước, hoặc với một số biến thể thì chỉ phát hành qua API
    • Giấy phép K2.6 của Kimi bổ sung điều khoản ghi công yêu cầu các sản phẩm có trên 100 triệu người dùng hoạt động hàng tháng hoặc doanh thu hàng tháng vượt 20 triệu USD phải hiển thị “Kimi K2.6” nổi bật trong giao diện
    • Mistral của Pháp cũng áp đặt nhiều điều khoản giấy phép khác nhau cho mục đích sử dụng thương mại
  • Cũng có ngoại lệ
    • DeepSeek lại đang chuyển theo hướng cởi mở hơn
    • Nhưng xu hướng chung vẫn là giấy phép kém hào phóng hơn, còn Meta và Alibaba đang đi theo hướng ngừng công bố một phần hoặc toàn bộ mô hình

Cấu trúc thị trường có thể hình thành nếu trọng số mở thu hẹp

  • Trong vòng một năm tới, có thể xảy ra tình huống mà phần lớn hoặc toàn bộ các mô hình cấp cao nhất vốn trước đây sẽ được phát hành dưới dạng trọng số mở thì nay không còn được công bố nữa
    • Ở thời điểm hiện tại, đây vẫn là một giả định
    • Việc so sánh giá giữa các mô hình vẫn có thể tiếp tục tồn tại
    • Nhưng nếu chi phí và độ phức tạp của huấn luyện tiếp tục tăng, có thể chỉ còn lại một số ít người chơi
  • Cấu trúc thị trường khả dĩ có thể thu hẹp còn 3 phòng nghiên cứu frontier lớn ở phương Tây và một vài phòng nghiên cứu Trung Quốc
    • Các phòng nghiên cứu Trung Quốc thậm chí có thể được hợp nhất thành một hoặc hai “siêu phòng lab” Trung Quốc thông qua các vụ “sáp nhập” do nhà nước dẫn dắt
    • Trong các ngành chiến lược, tiền lệ cho kiểu hợp nhất này là rất nhiều
    • Trung Quốc từng áp dụng cách này trong đường sắt (CRRC), điện hạt nhân, hàng không và viễn thông
    • Phương Tây cũng không phải ngoại lệ, với các đợt hợp nhất nhà thầu quốc phòng chủ lực sau Chiến tranh Lạnh
  • Những thay đổi như vậy sẽ cho phép một số ít công ty hấp thụ phần thặng dư tiêu dùng do AI tạo ra
    • Người dùng AI đang thu được giá trị lớn hơn rất nhiều so với chi phí token họ phải trả
    • Có thể xem giá trị lớn đến mức ngay cả khi phải trả gấp 10 lần mức hiện tại, họ cũng sẽ không ngần ngại
    • Với các công việc chuyên môn giá trị cao hoặc các tác vụ kiểu tác tử, khoảng cách giữa số tiền thực trả và mức sẵn sàng chi trả còn lớn hơn
    • Một thị trường độc quyền nhóm không có mức sàn giá từ trọng số mở sẽ ở vị thế biến khoảng chênh này thành lợi nhuận
  • Theo lý thuyết kinh tế, trong một thế giới như vậy, quyền lực và của cải kinh tế có thể tập trung vào một số ít công ty ở mức độ mang tính lịch sử
    • Các phòng nghiên cứu có thể bắt đầu trích xuất trực tiếp thặng dư tiêu dùng dưới dạng biên lợi nhuận
    • Do độc quyền nhóm bởi số ít công ty và rào cản gia nhập từ chi tiêu vốn khổng lồ cần cho các mô hình mới, cạnh tranh về giá nhiều khả năng sẽ bị hạn chế

Khả năng phản biện và rủi ro còn lại

  • Cũng có khả năng dự báo bi quan là quá mức
    • Nếu phần cứng phát triển nhanh hơn, việc huấn luyện các mô hình “đủ tốt” theo thời gian có thể lại trở nên dễ hơn chứ không khó hơn
    • Tuy chỉ có ít nhà sản xuất phần cứng AI, thị trường phần cứng AI vẫn đang chứng kiến cạnh tranh rất khốc liệt
  • Chưng cất (distillation) thường được xem là lối thoát, nhưng không phải lời giải tận gốc
    • Chưng cất là cách huấn luyện mô hình nhỏ hơn bằng đầu ra của mô hình frontier
    • Nhưng muốn làm vậy thì trước hết vẫn phải có quyền truy cập vào mô hình nền tảng mạnh
    • Chính yếu tố đang bị đe dọa ở đây lại là khả năng tiếp cận các mô hình nền tảng mạnh
  • Một hệ sinh thái trọng số mở có tính cạnh tranh đã âm thầm là giả định chịu lực nằm bên dưới toàn bộ nền kinh tế AI
    • Việc giả định này đang suy yếu là điều cần được chú ý
    • Hàm ý đối với nền kinh tế rộng lớn hơn là cực kỳ lớn

Thuật ngữ và giải thích bổ sung

  • Mô hình trọng số mở là nhóm chỉ công bố mô hình cuối cùng
    • Về mặt kỹ thuật, có thể chia thành ba nhóm: mô hình đóng, mô hình trọng số mở, và mô hình mở hoàn toàn hoặc có thể tái tạo
    • Mô hình mở hoàn toàn hoặc có thể tái tạo còn bao gồm dữ liệu huấn luyện và tài liệu về quy trình huấn luyện liên quan
    • Đây là nhóm gần nhất với khái niệm mã nguồn mở trong phần mềm
  • OpenRouter đóng vai trò là “API của các API”
    • Nó định tuyến yêu cầu tới nhà cung cấp suy luận rẻ nhất hoặc có tính sẵn sàng cao nhất cho một mô hình cụ thể
    • Nếu một nhà cung cấp gặp sự cố, có thể chuyển ngay sang nhà cung cấp khác để tăng mạnh độ tin cậy
    • Nếu có nhà cung cấp rẻ hơn, nó sẽ chuyển sang bên đó

1 bình luận

 
Ý kiến trên Lobste.rs
  • Bài này không chính xác về Kimi. Đúng là có một số bên gắn thêm hạn chế lớn rồi gọi là “modified MIT”, nhưng Kimi K2.6 just has an advertising clause mà thôi. Sẽ tốt hơn nếu không có điều khoản đó, nhưng có vẻ không đến mức là vấn đề quá lớn
    Bài viết nói rằng Kimi cấm dùng mô hình open-weight trong các sản phẩm có hơn 100 triệu người dùng hoạt động hàng tháng hoặc doanh thu hàng tháng vượt 20 triệu USD, nhưng giấy phép K2.6 thực tế chỉ yêu cầu hiển thị nổi bật “Kimi K2.6” trong UI của các sản phẩm/dịch vụ như vậy
    Đúng là một số công ty đang giảm việc phát hành open-weight, nhưng cũng có những nơi như Xiaomi, DeepSeek, Moonshot và Z.ai đang tung ra các mô hình open-weight lớn, có sức cạnh tranh. Ở phía mô hình nhỏ, việc Gemma 4 chuyển sang giấy phép mở tiêu chuẩn Apache cũng là tín hiệu tích cực
    Nêu ra mối lo này là hợp lý, nhưng hiện tại có vẻ vẫn gần với xu hướng các công ty rút lui khỏi open-weight được thay thế bởi những bên mới gia nhập hoặc chuyển sang các giấy phép truyền thống hơn

    • Với tư cách tác giả, đây là góp ý xác đáng nên tôi đã cập nhật bài. Có vẻ tôi đã nhầm với phần liên quan đến Cursor Kimi, và nhận xét đó là đúng
      Sẽ rất thú vị để xem mọi chuyện tiếp diễn thế nào. Bài đã khá dài nên tôi không đưa vào, nhưng tôi nghĩ để các công ty này thực sự được chú ý thì họ cần mô hình open-weight. Nhìn vào trường hợp như Grok, dù có tài nguyên tính toán và giá rất quyết liệt nhưng mức độ chấp nhận vẫn thấp, thì ít nhất việc đạt được nhận diện toàn cầu hẳn sẽ rất khó
      Tuy vậy, các mô hình Trung Quốc cũng không có năng lực tính toán cho suy luận ngang với xAI. Giờ khi chất lượng mô hình đã tốt hơn, động lực để đóng lại cũng mạnh hơn, nhưng cũng có thể đây sẽ luôn là một thế giới nơi các bên mới liên tục xuất hiện
  • Tôi tự hỏi động lực thị trường để công bố mô hình ngôn ngữ lớn open-weight là gì
    Nvidia on Hugging Face có công bố một số mô hình, và có vẻ họ đang đặt cược rằng nếu mọi người chạy mô hình ngôn ngữ lớn cục bộ thay vì dùng dịch vụ thuê bao, thì họ sẽ bán được nhiều GPU hơn
    Nếu việc phát hành mô hình open-weight giảm đi, các nhà cung cấp suy luận lớn có thể lập ra một quỹ open-weight tương tự Linux Foundation để điều phối việc thu thập dữ liệu huấn luyện, huấn luyện và tinh chỉnh. Nếu không có mô hình đủ sức cạnh tranh để cung cấp, hoạt động kinh doanh của các công ty này cũng khó tồn tại

    • Tôi từng đọc ở đâu đó một giả thuyết rằng khi định luật Moore kết thúc, sẽ có nhiều thiết bị điện tử cởi mở hơn và dễ sửa chữa hơn. Lập luận là để duy trì vị trí tiên phong, các công ty có động lực giữ kín nguồn bí mật, nhưng nếu ranh giới đó không còn dịch chuyển nữa thì họ sẽ không còn cạnh tranh bằng tính năng, mọi sản phẩm trên thị trường sẽ tốt na ná nhau và động lực đó biến mất
      Tôi không rõ các nhà cung cấp suy luận hiện nay có tiến tới một quỹ open-weight hay không. Nhưng nếu mô hình ngôn ngữ lớn chạm trần trong vài năm tới, thì phía khách hàng chắc chắn có thể có động lực. Kiểu như: “Tại sao chúng ta lại đang trả 5 tỷ USD mỗi tháng cho OpenAnthropic để làm việc mà tự mình có thể làm?”
  • Có vài bình luận ở đây phản bác một số nội dung, nhưng tôi muốn bổ sung thêm vài điểm
    Rõ ràng Alibaba đã chọn cách tiếp cận với Qwen bớt ưu tiên mở hơn một chút, và điều đó đáng tiếc, nhưng khoảng cách thực tế không lớn đến vậy. Các mô hình dòng Max và nhiều mô hình chuyên biệt vốn ngay từ đầu đã chỉ dành cho API, và hiện tại mô hình chủ chốt duy nhất chỉ dành cho API là “Plus” khoảng 400B tham số. Xét theo quy mô thì đây cũng chưa từng là một mô hình xuất sắc vượt trội về mặt lịch sử
    Những mô hình nhỏ mà mọi người thường nghĩ tới khi nói về Qwen thì vẫn đang được công bố. Lịch phát hành có vẻ rải rác hơn một chút, nhưng việc công bố của Qwen vốn dĩ từ trước đến nay cũng đã khá lộn xộn
    Qwen 3.6 Plus được nhắc đến như mô hình đóng hiện đang available on Fireworks thông qua quan hệ đối tác độc quyền. Không rõ đây có phải là cách để các tổ chức muốn có máy chủ do họ tự sở hữu vẫn dùng được hay không, nhưng sẽ rất thú vị nếu kiểu này trở nên phổ biến hơn
    “Muse Spark” của Meta là một họ mô hình gần như hoàn toàn khác, thuộc một nhóm khác với LLaMa, nên có lẽ xem nó như một sản phẩm riêng biệt sẽ hợp lý hơn là nói Meta đã “ngừng” open-weight
    Điều khoản hiển thị của Kimi K2.6 không phải là thứ mới được “thêm vào”, mà the clause has been there since the original K2. DeepSeek cũng đã dùng giấy phép MIT thông thường từ R1V3 0324
    Gần đây cũng đã có nhiều bản phát hành open-weight thực sự đáng chú ý như dòng MiMo v2.5, GLM 5.1 và Gemma 4. Tuy nhiên nhánh chính của GLM là open-weight, còn nhiều bản fine-tune như dòng “Code” thì là độc quyền, và bản cập nhật 2603 của Step 3.5 Flash cũng có vẻ là độc quyền. Dù vậy, họ vẫn release their SFT training data, nên cũng khó mà chỉ trích quá nặng
    Cũng có những trường hợp công bố bị chậm lại, như MiMo v2.5/Pro và GLM 5.1. Nhưng đôi khi nhờ vậy mà hỗ trợ SGLang/vLLM đã sẵn sàng ngay sau khi ra mắt. MiniMax M2.7 thì thực sự đã chuyển sang much more restrictive license, và có vẻ đó mới là thứ bị nhầm với Kimi
    Cách làm “kiếm tiền một thời gian qua API rồi công bố sau” vẫn khá hào phóng nếu xét đến chi phí rất lớn của chính việc phát triển mô hình, và ít nhất ở thời điểm này có vẻ ngành vẫn hài lòng với sự cân bằng đó

  • GLM 5.1 là một mô hình open-weight rất cạnh tranh, được phát hành theo giấy phép MIT vào tháng trước. Đã có nhiều công ty cung cấp nó như một dịch vụ. Nó do Z.ai tạo ra, và cũng như các công ty Trung Quốc khác, về sau họ có thể thêm hạn chế, nhưng hiện tại thì không có

    • Nói cho ai tò mò thì nó là 1.51TB: https://huggingface.co/zai-org/GLM-5.1/tree/main
    • Tôi đang dùng nó với OpenCode thông qua một nhà cung cấp châu Âu, và nó thực sự đủ sức cạnh tranh với Claude. Tôi hy vọng trong tương lai gần chúng ta có thể hoàn toàn thoát khỏi sự phụ thuộc vào các tập đoàn lớn
      Một số người mặc định rằng mọi mô hình Trung Quốc đều ở mức nào đó đã “chưng cất” từ các mô hình lớn như GPT hay Anthropic. Tôi không biết điều đó có đúng không và cũng không quá bận tâm. Dù sao thì tôi cho rằng những mô hình như thế này nên thuộc về phạm vi công cộng, và tôi vui vì có vẻ chúng ta đang tiến rất nhanh theo hướng đó
  • Gần đây tôi nghĩ có lẽ mô hình kinh doanh cấp phép mô hình AI có thể trở nên phổ biến hơn. Bạn trả một khoản tiền để có quyền sử dụng mô hình, rồi tự chạy nó trên phần cứng của mình. Nó hơi giống cách định giá của Photoshop
    Làm vậy có thể tránh được vấn đề rò rỉ thông tin nhạy cảm mà nhà làm mô hình vẫn kiếm được tiền. Nó cũng có lợi thế là tính phí cố định thay vì kiểu tính theo token có thể rất đắt. Tất nhiên chi phí phần cứng là riêng

    • Trong tương lai, tôi nghĩ có thể sẽ có chuyện công bố mô hình open-weight nhưng gắn giấy phép cấm khắc nó vào silicon. Rồi bán các con chip như thế này: https://taalas.com/products/
  • Kimi K2.5 đến giờ vẫn là thứ hợp với tôi nhất, và tôi cũng không thấy cần phải nâng cấp bằng mọi giá