4 điểm bởi GN⁺ 2026-02-05 | 1 bình luận | Chia sẻ qua WhatsApp
  • Tốc độ xử lý của các mô hình GPT-5.2 và GPT-5.2-Codex đã được cải thiện 40% so với trước đây
  • Tối ưu hóa ngăn xếp suy luận cho tất cả người dùng API
  • Cùng một mô hình và cùng trọng số, nhưng đạt được độ trễ thấp hơn

1 bình luận

 
GN⁺ 2026-02-05
Ý kiến trên Hacker News
  • Trong tháng vừa qua, OpenAI đã phát hành nhiều tính năng cho người dùng Codex

    • hỗ trợ subagents
    • giao diện multi-agent được cải tiến (ứng dụng Codex)
    • tốc độ suy luận nhanh hơn 40%
      Chỉ riêng hai tính năng đầu đã tạo cảm giác năng suất tăng gấp 3 lần. Rất mong chờ bản cập nhật này
    • Tò mò không biết subagents hoạt động như thế nào
    • Đây là tính năng chỉ dành cho API
    • Dùng Claude thì hiệu năng tăng ở mức x². Có vẻ OpenAI cũng đang phải dè chừng
  • Cuối tuần qua tôi đã chạy cùng một prompt trên GPT-5.2, Gemini 3, Grok
    Gemini 3 và Grok ở ‘thinking mode’ đều xong trong vòng 2 phút, còn GPT-5.2 thì loay hoay tại chỗ suốt 6 phút

  • Gần đây có người nói rằng roon đã nhận ra tài khoản nhân viên nhanh hơn tài khoản người dùng thường rất nhiều
    Vì vậy họ hiểu ra rằng cách gọi API nội bộ có thể được vận hành hiệu quả hơn so với người dùng thông thường
    Cuối cùng thì người dùng thường chỉ được xử lý bằng phần dung lượng còn lại
    Bài liên quan: Choose Your Fighter (The Zvi)

  • Theo tôi, OpenAI có thói quen cố tình làm giảm chất lượng sau khi phát hành model
    Phiên bản web ChatGPT 5.2 lúc đầu tốt hơn rất nhiều, nhưng sau 1~2 tuần thì chất lượng đột ngột giảm xuống
    Trông giống như một chiến lược để đánh lừa báo chí và benchmark
    Muốn tăng tốc thì chỉ cần giảm cường độ suy luận, nên cũng khó mà tin vào tuyên bố cải thiện 40%
    Cũng có thể đây là kiểu ‘mánh’ như ban đầu cấp model Pro cho người dùng ChatGPT Plus rồi sau đó đổi sang Standard

    • Tôi hiểu góc nhìn hoài nghi đó, nhưng chúng tôi không làm kiểu đánh lừa như vậy
      Chúng tôi giữ chất lượng model ổn định, và nếu có báo cáo về suy giảm hiệu năng thì sẽ điều tra ngay
      Việc tăng tốc lần này là nhờ cải thiện thời gian xử lý trên mỗi token, còn chất lượng model và trọng số vẫn giữ nguyên
    • Không chỉ OpenAI như vậy. Anthropic cũng có trường hợp tương tự
      Tham khảo: Claude Code Tracker (MarginLab)
    • Sẽ hay nếu có một trang benchmark hằng ngày cho Codex
    • Cứ tự chạy benchmark lại là được
  • Điều thú vị là dù chi phí suy luận trên Cerebras đắt hơn nhiều, họ vẫn giữ nguyên giá

    • Nhưng khả năng cao đây không phải là Cerebras.
      Nếu là Cerebras thì cách model hoạt động đã khác, và tốc độ hẳn sẽ nhanh hơn khoảng 10 lần
      Có lẽ họ đã viết lại kernel tối ưu hóa cho dòng Blackwell
    • Gần như chắc chắn không chạy trên Cerebras
  • Tốc độ luôn là lời phàn nàn lớn nhất của tôi, nên với lần cải thiện này tôi lại thấy muốn dùng thử

  • Tôi tò mò không biết họ đã đạt được mức tăng tốc này bằng cách nào

  • Trên Reddit cũng có nhiều bài nói chất lượng đã giảm

    • Nhưng trên Reddit ngày nào cũng có những bài như vậy.
      Ở các subreddit về Claude cũng thế, nhưng gần như không có bằng chứng đáng tin cậy