5 điểm bởi GN⁺ 2026-03-05 | 1 bình luận | Chia sẻ qua WhatsApp
  • Nhiều nhà nghiên cứu chủ chốt của nhóm Qwen tại Alibaba đã đồng loạt từ chức, khiến tương lai của dòng mô hình Qwen 3.5 vừa được công bố trở nên khó đoán
  • Trưởng nhóm Lin Junyang thông báo rời đi, sau đó nhiều nhân sự nòng cốt cũng lần lượt nghỉ việc cùng thời điểm
  • Họ mô hình Qwen 3.5 ra mắt gần đây đang thu hút chú ý hơn nữa vì cho thấy hiệu năng xuất sắc ngay cả ở các mô hình nhỏ
  • Khả năng tan rã của nhóm Qwen có thể trở thành một bước ngoặt quan trọng đối với hệ sinh thái nghiên cứu AI mã nguồn mở xuất phát từ Trung Quốc

Biến động nhân sự của nhóm Qwen

  • Ngay sau khi Alibaba công bố dòng mô hình Qwen 3.5, trưởng nhóm Lin Junyang đã thông báo từ chức trên X (Twitter trước đây) với thông điệp: “me stepping down. bye my beloved qwen.”
    • Lin là nhà nghiên cứu chủ chốt dẫn dắt việc công bố các mô hình open-weight của Qwen kể từ sau năm 2024, đồng thời là một trong những nhân sự cấp P10 trẻ tuổi nhất tại Alibaba
  • Theo đưa tin của truyền thông Trung Quốc 36Kr, vào khoảng 1 giờ chiều ngày 4 tháng 3, Tongyi Lab của Alibaba đã tổ chức một cuộc họp toàn công ty khẩn cấp và CEO Wu Yongming trực tiếp giải thích tình hình với nhóm Qwen
    • Việc Lin từ chức được công bố vào 0 giờ 11 phút, tức 12 giờ trước đó, và được cho là gây chấn động lớn ngay trong nội bộ nhóm
    • Khoảng 2 giờ chiều, Lin để lại lời nhắn trên WeChat: “Anh em của Qwen, cứ tiếp tục theo đúng kế hoạch ban đầu. Không có vấn đề gì”, nhưng không nói rõ liệu có quay lại hay không
    • Thành viên nhóm Qwen nói với 36Kr rằng “dưới nguồn lực ít hơn rất nhiều so với đối thủ, vai trò lãnh đạo của Junyang là yếu tố then chốt giúp đạt được thành quả hiện tại”
  • Một số ý kiến cho rằng nguyên nhân từ chức có thể liên quan đến tái cơ cấu tổ chức trong Alibaba, khi một nhà nghiên cứu mới từng thuộc nhóm Google Gemini được bổ nhiệm làm người phụ trách Qwen, nhưng đây là thông tin chưa được xác nhận

Làn sóng rời đi của các nhân sự chủ chốt

  • Sau khi Lin từ chức, đã xác nhận rằng nhiều thành viên nòng cốt cũng rời đi cùng lúc
    • Binyuan Hui: trưởng phát triển mã nguồn Qwen, phụ trách toàn bộ series Qwen-Coder, chịu trách nhiệm toàn bộ quá trình huấn luyện tác tử, gần đây tham gia nghiên cứu robotics
    • Bowen Yu: trưởng mảng hậu huấn luyện (post-training) của Qwen, dẫn dắt phát triển series Qwen-Instruct
    • Kaixin Li: người đóng góp chủ chốt cho Qwen 3.5/VL/Coder, tiến sĩ Đại học Quốc gia Singapore
    • Ngoài ra, nhiều nhà nghiên cứu trẻ khác cũng được đưa tin là đã từ chức trong cùng ngày
  • Việc CEO Alibaba trực tiếp tham dự cuộc họp cho thấy phía công ty nhận thức rõ mức độ nghiêm trọng của sự việc

Đặc điểm của mô hình Qwen 3.5

  • Qwen 3.5 là họ mô hình open-weight mà nhóm Qwen của Alibaba đã công bố trong vài tuần gần đây, với hiệu năng rất ấn tượng
    • Qwen3.5-397B-A17B công bố ngày 17 tháng 2 là một mô hình lớn dung lượng 807GB
    • Sau đó, các mô hình với nhiều kích cỡ như 122B, 35B, 27B, 9B, 4B, 2B, 0.8B cũng lần lượt được công bố
  • Các mô hình 27B và 35B được đánh giá tốt trong tác vụ lập trình, còn 9B·4B·2B thì rất hiệu quả so với kích thước
    • 27B và 35B có thể chạy trên Mac 32GB/64GB mà vẫn xử lý rất tốt các tác vụ coding
    • Đặc biệt, mô hình 2B chỉ có 4.57GB (1.27GB khi lượng tử hóa) nhưng vẫn hỗ trợ cả suy luận và khả năng đa phương thức (thị giác)

Triển vọng sắp tới

  • Nếu nhóm Qwen bị giải thể, có khả năng các thành quả nghiên cứu về việc đạt hiệu năng cao trên mô hình nhỏ sẽ bị gián đoạn
  • Nếu các thành viên trong nhóm thành lập viện nghiên cứu mới hoặc gia nhập tổ chức khác, vẫn có kỳ vọng vào các nghiên cứu tiếp theo
  • Tình hình hiện tại vẫn là “còn chưa rõ ràng”, và Alibaba cũng vẫn có khả năng giữ lại một phần nhân sự

Nguồn bên ngoài được tham khảo

1 bình luận

 
GN⁺ 2026-03-05
Ý kiến trên Hacker News
  • Mong việc phát triển không bị cản trở quá nhiều. Như Simon đã nói, Qwen3.5 thực sự rất ấn tượng
    Tôi đã thử nghiệm Qwen3.5-35B-A3B trong vài ngày qua, và đây là mô hình có năng lực coding tác tử tốt nhất mà tôi từng dùng cho tới nay
    Tôi đã để nó viết mã Rust và Elixir bằng Pi harness, và nó tự tạo test rồi kiểm tra xem có pass hay không. Nó xử lý khá tốt các vòng lặp lỗi test hoặc lỗi biên dịch trong khi vẫn tiến tới mục tiêu
    • Tôi đã chạy 3.5:122b trên GH200, và với các tác vụ Rust/React/TS thì hơi kém Sonnet một chút, nhưng với các việc trong phạm vi nhỏ thì vẫn xử lý đủ tốt
      Tuy vậy, giữa chừng nó có xu hướng phớt lờ chỉ dẫn và xóa sạch toàn bộ mã hỗ trợ vì cho rằng “làm thế này sẽ đơn giản hơn”
    • Tôi cũng đã thử với Rust, thỉnh thoảng nó rơi vào vòng lặp vô hạn rồi tự thoát ra được
      Nó chọn deadpool và deadpool-r2d2 ở giai đoạn lập kế hoạch nên tự làm mình rối. Dù vậy nhìn chung mã vẫn ổn, có lẽ chỉ cần chỉnh lại chút ở tầng cơ sở dữ liệu
      Cho tới giờ đây là mô hình self-host được ổn định nhất
    • Tôi thử bản dense 27B thì thấy vòng lặp và các lặp lại không cần thiết ít hơn hẳn
    • Không biết bạn có đang chạy cục bộ bằng llama.cpp không. Với chat template mặc định thì gọi công cụ bị lỗi, nhưng dùng template này thì hoạt động tốt hơn nhiều
    • Tôi tò mò bạn đang chạy trên phần cứng nào. Bạn có cảm thấy nó có thể thay thế các mô hình frontier trong công việc coding hằng ngày không?
  • Nghe nói đã có căng thẳng giữa nhóm nghiên cứu Qwen và đội sản phẩm Alibaba. Tôi nghe rằng gần đây Alibaba đã ép DAU thành KPI
    Từ góc nhìn doanh nghiệp thì việc đổi chiến lược là điều dễ hiểu, nhưng tôi không hiểu vì sao họ lại để các nhà nghiên cứu cốt lõi ra đi. Chẳng phải đây đang là thời điểm thiếu nhà nghiên cứu mô hình sao?
    • Có lẽ họ định sau này chuyển các mô hình Qwen sang mô hình thương mại đóng, và đội nghiên cứu không chấp nhận điều đó
  • Tôi thắc mắc vì sao các phòng thí nghiệm ở Mỹ không đầu tư khoản tiền khổng lồ vào những nhân tài như vậy
    • Ở khu vực tôi sống (Ohio), ICE đang truy quét người Trung Quốc. Ngay cả người cư trú hợp pháp cũng cảm thấy có rủi ro bị trục xuất
      Trong bầu không khí như vậy, dù các phòng thí nghiệm ở Mỹ có chi bao nhiêu tiền thì cũng khó thu hút nhân tài
    • Mỹ đã tạo ra tình thế mà ngay cả người nhập cư hợp pháp cũng phải đối mặt với rủi ro bị giam giữ
    • Châu Âu nên nuôi dưỡng mô hình cạnh tranh để phòng trước sự hỗn loạn chính trị ở Mỹ
    • Những người đã bị vốn Mỹ thu hút thì rời đi cả rồi, còn Trung Quốc cũng đang đầu tư đủ nhiều
      Hơn nữa, trong các công ty Trung Quốc họ có thể có ảnh hưởng lớn hơn tới quyết định
    • Vấn đề không chỉ đơn giản là cắt giảm ngân sách NSF. Các vấn đề y tế, rủi ro chiến tranh, và sự bất định đối với các nhà nghiên cứu nước ngoài đều làm sức hút của Mỹ giảm đi
      Từ thời chính quyền Trump, lượng du học sinh nước ngoài vào Mỹ đã giảm, và giờ thì việc học tiến sĩ ở Mỹ thậm chí còn bị xem như một rủi ro về danh tiếng
  • Khi dùng mô hình cục bộ, mọi người có xu hướng bao dung hơn với quá trình thử-sai
    Nếu mô hình đám mây lãng phí token thì thấy tốn tiền, còn nếu mô hình cục bộ quay vòng lặp thì lại có cảm giác “à, nó đang suy nghĩ”
    Nếu các mô hình như Qwen trở nên đủ dùng cho coding cục bộ, thì thay đổi đó có lẽ mang tính kinh tế nhiều hơn là kỹ thuật
    • Tôi còn thích việc mô hình cục bộ lãng phí token nữa. Vì dàn GPU mainframe trong phòng tôi cũng đang đóng vai trò máy sưởi (một phần nhờ tình trạng sưởi ấm thiếu ổn định ở Thụy Sĩ)
  • Tôi đã chạy bản 32B cục bộ trong vài ngày, và nó xử lý coding tác tử khá tốt
    Hiệu năng rất ấn tượng so với kích thước, nhưng với chỉ dẫn dài thì nó có xu hướng bỏ qua khoảng một nửa. Ở cỡ này thì đó là một đánh đổi chấp nhận được
  • Với tư cách là một nhà toán học, tôi đã dùng Qwen để tự động hóa việc tóm tắt và liên hệ giữa các bài báo
    Nó thậm chí còn làm cả kiểm chứng trích dẫn sai, và đã được dùng cho các bài báo trên arXiv
    Tôi có tổng hợp kết quả ở trang này
  • Mong đội nghiên cứu sẽ tiếp tục cuộc đua mô hình open-weight ở nơi khác
    Thực ra tôi từng nghĩ đây là kiểu nghiên cứu mà chính phủ nên hỗ trợ, nhưng hiện giờ các công ty Trung Quốc đang thay vai trò đó
  • Qwen3.5 thực sự rất xuất sắc. Tôi đã chạy bản 35B trên Ada NextGen 24GB bằng easy-llm-cli, và nó gần như ngang với Gemini 3 Pro
    Tốc độ cũng khá nhanh
    • Với thiết lập q4 quant, tôi đạt được 175 tg và 7K pp, hiệu quả hơn phần lớn nhà cung cấp đám mây
  • Dạo này có cảm giác bầu không khí đã chuyển từ “AI thay thế con người” sang “AI sẽ chết nếu thiếu một vài cá nhân cụ thể”. Đúng là một bước ngoặt kịch tính
    • Tỷ lệ hoạt động của Anthropic không phải 99.9999999% mà chỉ ở mức 90%. Có thể thấy điều đó trên trang trạng thái
      Nếu AI có thể hoàn toàn thay thế con người, các CEO đã không phải cố gắng thuyết phục như vậy
    • Nói “AI sẽ chết nếu thiếu một vài cá nhân cụ thể” là cường điệu. Mọi người chỉ đơn giản là tò mò về hướng đi của dòng mô hình Qwen mà thôi
    • Việc chuyển từ mục tiêu AGI sang chiến lược ngắn hạn xoay quanh quảng cáo cho thấy rõ tình hình hiện tại
    • Claude không thể tự làm ứng dụng native, ngay cả web app còn thiếu ổn định, và đó là lý do Anthropic mua lại Bun
  • Thôi quên đi, đây là Chinatown