GPT-5.2 và GPT-5.2-Codex giờ đã nhanh hơn 40%
(twitter.com/OpenAIDevs)- Tốc độ xử lý của các mô hình GPT-5.2 và GPT-5.2-Codex đã được cải thiện 40% so với trước đây
- Tối ưu hóa ngăn xếp suy luận cho tất cả người dùng API
- Cùng một mô hình và cùng trọng số, nhưng đạt được độ trễ thấp hơn
1 bình luận
Ý kiến trên Hacker News
Trong tháng vừa qua, OpenAI đã phát hành nhiều tính năng cho người dùng Codex
Chỉ riêng hai tính năng đầu đã tạo cảm giác năng suất tăng gấp 3 lần. Rất mong chờ bản cập nhật này
Cuối tuần qua tôi đã chạy cùng một prompt trên GPT-5.2, Gemini 3, Grok
Gemini 3 và Grok ở ‘thinking mode’ đều xong trong vòng 2 phút, còn GPT-5.2 thì loay hoay tại chỗ suốt 6 phút
Gần đây có người nói rằng roon đã nhận ra tài khoản nhân viên nhanh hơn tài khoản người dùng thường rất nhiều
Vì vậy họ hiểu ra rằng cách gọi API nội bộ có thể được vận hành hiệu quả hơn so với người dùng thông thường
Cuối cùng thì người dùng thường chỉ được xử lý bằng phần dung lượng còn lại
Bài liên quan: Choose Your Fighter (The Zvi)
Theo tôi, OpenAI có thói quen cố tình làm giảm chất lượng sau khi phát hành model
Phiên bản web ChatGPT 5.2 lúc đầu tốt hơn rất nhiều, nhưng sau 1~2 tuần thì chất lượng đột ngột giảm xuống
Trông giống như một chiến lược để đánh lừa báo chí và benchmark
Muốn tăng tốc thì chỉ cần giảm cường độ suy luận, nên cũng khó mà tin vào tuyên bố cải thiện 40%
Cũng có thể đây là kiểu ‘mánh’ như ban đầu cấp model Pro cho người dùng ChatGPT Plus rồi sau đó đổi sang Standard
Chúng tôi giữ chất lượng model ổn định, và nếu có báo cáo về suy giảm hiệu năng thì sẽ điều tra ngay
Việc tăng tốc lần này là nhờ cải thiện thời gian xử lý trên mỗi token, còn chất lượng model và trọng số vẫn giữ nguyên
Tham khảo: Claude Code Tracker (MarginLab)
Điều thú vị là dù chi phí suy luận trên Cerebras đắt hơn nhiều, họ vẫn giữ nguyên giá
Nếu là Cerebras thì cách model hoạt động đã khác, và tốc độ hẳn sẽ nhanh hơn khoảng 10 lần
Có lẽ họ đã viết lại kernel tối ưu hóa cho dòng Blackwell
Tốc độ luôn là lời phàn nàn lớn nhất của tôi, nên với lần cải thiện này tôi lại thấy muốn dùng thử
Tôi tò mò không biết họ đã đạt được mức tăng tốc này bằng cách nào
Trên Reddit cũng có nhiều bài nói chất lượng đã giảm
Ở các subreddit về Claude cũng thế, nhưng gần như không có bằng chứng đáng tin cậy