2 điểm bởi GN⁺ 2026-03-04 | 1 bình luận | Chia sẻ qua WhatsApp
  • Mô hình được dùng nhiều nhất trong ChatGPT đã được cập nhật, cải thiện độ chính xác, độ trôi chảy và khả năng hiểu ngữ cảnh trong hội thoại hằng ngày
  • Phiên bản mới giảm các từ chối và cảnh báo không cần thiết, đồng thời cung cấp câu trả lời trực tiếp và thiết thực hơn cho câu hỏi
  • Khi tìm kiếm trên web, khả năng tổng hợp thông tin được cải thiện, tạo ra phản hồi có ngữ cảnh thay vì chỉ tóm tắt đơn thuần
  • Giọng điệu và văn phong hội thoại trở nên tự nhiên và ngắn gọn hơn, đồng thời độ chính xác thực tếchất lượng viết sáng tạo cũng được tăng cường
  • GPT‑5.3 Instant có thể dùng ngay trên ChatGPT và API, còn GPT‑5.2 Instant hiện tại dự kiến ngừng hỗ trợ vào ngày 3 tháng 6 năm 2026

Tổng quan về GPT‑5.3 Instant

  • Đây là bản cập nhật nhằm nâng cao toàn diện chất lượng hội thoại hằng ngày của ChatGPT, tập trung vào câu trả lời chính xác, hiểu ngữ cảnh và duy trì mạch hội thoại
    • Giảm các ngắt quãng không cần thiết, những câu dẫn quá mức và cách diễn đạt mang tính tuyên bố để tăng độ tự nhiên của cuộc trò chuyện
  • Phản ánh phản hồi từ người dùng để cải thiện giọng điệu, mức độ liên quan và dòng chảy hội thoại
  • Bản cập nhật được thiết kế xoay quanh trải nghiệm sử dụng hằng ngày, tập trung vào cải thiện chất lượng cảm nhận thực tế hơn là chỉ số benchmark

Giảm từ chối không cần thiết và phản hồi ngắn gọn

  • Phiên bản trước đó (GPT‑5.2 Instant) có vấn đề từ chối quá mức ngay cả với những câu hỏi có thể trả lời an toàn, hoặc làm chậm câu trả lời vì phần mở đầu mang tính đạo đức
  • GPT‑5.3 Instant giảm các từ chối không cần thiết và cung cấp câu trả lời trực tiếp, tập trung vào câu hỏi
    • Ví dụ: khi được yêu cầu tính toán cho bắn cung tầm xa, GPT‑5.2 thêm phần mở đầu dài với cảnh báo an toàn, còn
      GPT‑5.3 sẽ lập tức hỏi các biến số vật lý cần thiết (độ mạnh của cung, khối lượng mũi tên, tốc độ, v.v.) rồi tiến hành tính toán
  • Nhờ đó, sự đứt quãng trong hội thoại giảm đi, và có thể đưa ra phản hồi tức thì, thực dụng hơn

Cải thiện chất lượng phản hồi dựa trên tìm kiếm web

  • GPT‑5.3 Instant tích hợp thông tin lấy từ web với tri thức nội tại và năng lực suy luận để tạo ra câu trả lời có ngữ cảnh
    • Thay vì chỉ liệt kê liên kết hoặc lặp lại thông tin, mô hình ưu tiên đưa ra tóm tắt trọng tâm và kết nối ý nghĩa
  • Ví dụ: với câu hỏi “hợp đồng lớn nhất mùa chuyển nhượng MLB 2025–26”
    • GPT‑5.2 mô tả những trường hợp hồi cứu của mùa trước, còn
    • GPT‑5.3 xác định chính xác hợp đồng 4 năm trị giá 240 triệu USD của Kyle Tucker với LA Dodgers,
      đồng thời giải thích cả thay đổi trong cấu trúc giải đấu và tác động của đàm phán lao động
  • Kết quả là tính cập nhật, mức độ liên quan và độ chính xác về ngữ cảnh đều được cải thiện

Phong cách hội thoại tự nhiên hơn

  • Một số phản hồi của GPT‑5.2 Instant từng bị đánh giá là “không tự nhiên” vì các câu an ủi quá mức hoặc suy đoán cảm xúc
  • GPT‑5.3 Instant giảm biểu đạt cảm xúc không cần thiết và được cải thiện theo hướng văn phong hội thoại tự nhiên, tập trung vào trọng tâm
    • Ví dụ: với câu hỏi “vì sao khó tìm thấy tình yêu ở San Francisco”,
      GPT‑5.3 giải thích có hệ thống các yếu tố cấu trúc như văn hóa đô thị, tính di động và khoảng cách cảm xúc
    • Không mở đầu bằng những câu như “bạn vẫn ổn”, mà đưa ra phản hồi phân tích trực tiếp nhưng vẫn đồng cảm

Độ chính xác thực tế được nâng cao

  • GPT‑5.3 Instant giảm mạnh tỷ lệ ảo giác (hallucination) trong các lĩnh vực rủi ro cao như y tế, pháp lý và tài chính
    • Khi dùng web, tỷ lệ ảo giác giảm 26,8%; khi chỉ dùng tri thức nội bộ, giảm 19,7%
    • Trong đánh giá dựa trên phản hồi người dùng, mức giảm cũng đạt 22,5% (khi dùng web)9,6% (không dùng web)
  • Độ tin cậy của phản hồi dựa trên sự thật được nâng cao, giúp tăng tính hữu dụng trong công việc thực tế

Tăng cường năng lực viết

  • GPT‑5.3 Instant có chiều sâu tự sự và khả năng biểu đạt cảm xúc tốt hơn, thể hiện thế mạnh ở viết sáng tạo và miêu tả văn học
    • Ví dụ: với yêu cầu viết bài thơ “chuyến phát thư cuối cùng của một người đưa thư Philadelphia nghỉ hưu”,
      GPT‑5.3 truyền tải cảm xúc tự nhiên qua các khung cảnh cụ thể và chi tiết giàu cảm giác
    • So với lối kể giàu cảm tính của GPT‑5.2, phiên bản mới có kết cấu hoàn chỉnh và cảm giác chân thực hơn

Giới hạn và cải tiến trong tương lai

  • Với các ngôn ngữ không phải tiếng Anh (như tiếng Nhật, tiếng Hàn, v.v.), vẫn còn xuất hiện cách diễn đạt gượng hoặc dịch sát từng chữ
    • Cải thiện giọng điệu tự nhiên theo từng ngôn ngữ là một bài toán cho giai đoạn tới
  • Tính năng điều chỉnh tông giọng phản hồi vẫn đang được cải tiến, đồng thời tiếp tục thu thập phản hồi từ người dùng

Cung cấp và kế hoạch chuyển đổi

  • GPT‑5.3 Instant hiện có thể dùng ngay cho toàn bộ người dùng ChatGPT và trên API (gpt‑5.3‑chat‑latest)
  • Các bản cập nhật cho mô hình Thinking và Pro sẽ sớm được tiếp nối
  • GPT‑5.2 Instant sẽ ngừng hỗ trợ vào ngày 3 tháng 6 năm 2026, và sẽ được cung cấp cho người dùng trả phí trong mục ‘Legacy Models’ trong 3 tháng

1 bình luận

 
GN⁺ 2026-03-04
Ý kiến trên Hacker News
  • Vấn đề lớn nhất của ChatGPT hiện giờ là giọng văn gượng gạo
    Có quá nhiều cụm như “Why it matters”, “the big picture”, kiểu nhấn mạnh quá đà và các câu hỏi tu từ
    Bản GPT‑5 đầu tiên còn ổn, nhưng rồi khi họ nói sẽ tạo ra một “tính cách ấm áp hơn” thì lại hỏng theo kiểu giống 4o
    Tiếng Nhật trước đây cũng làm khá tốt, nhưng giờ chất lượng đã giảm nên khá thất vọng

    • Trước đây tôi cũng từng viết theo kiểu “Why X works, but Y doesn’t”, nhưng giờ lại thấy giống người đang bắt chước LLM, nên càng ngượng hơn
      Vì vậy giờ tôi thử một kiểu viết mới, ít nhất là thêm cả hiệu ứng âm thanh như <i>swoosh</i>
    • Tôi cũng thấy kiểu văn lặp đi lặp lại đó khó chịu, nhưng giờ đã vượt qua mức ấy và chỉ lọc đọc nội dung
      Tôi tham khảo đầu ra của LLM nhưng không sao chép nguyên xi, mà viết lại bằng giọng của mình để giữ phong cách riêng
    • Có khi sắp tới họ sẽ tung ra một “bản premium bớt kiêu căng”. Nếu vậy chắc khá nhiều người sẽ chuyển sang dùng
  • Thương hiệu “5.2‑Instant” khá khó hiểu
    Tôi tưởng đó là một model siêu nhanh, nhưng hóa ra lại giống phiên bản 5.2 không có router hơn
    Cảm giác như OpenAI lại quay về thời trước GPT‑5, khi có quá nhiều model đến mức không biết nên dùng cái nào

    • ChatGPT Plus thực ra dùng hai dòng model
      Một là dòng Instant, nhanh và được tối ưu cho ChatGPT nhưng độ chính xác thấp hơn
      Dòng còn lại là Thinking, chậm hơn nhưng phù hợp hơn cho công việc chuyên môn
      Họ muốn đơn giản hóa thành một lựa chọn duy nhất, nhưng vì mỗi người dùng có sở thích khác nhau nên vẫn tiếp tục cung cấp cả hai model (người viết là nhân viên OpenAI)
    • Mọi người thích có quyền lựa chọn, nên việc tách thành “5.2 Instant / 5.2 Thinking” thay vì chỉ “5.2” rõ ràng hơn
      Đối thủ Gemini 3 Fast / Gemini 3 Thinking cũng đi theo cách này
    • Vẫn còn khoảng 800 nghìn người mỗi ngày dùng gpt‑4o, nên cũng có mục tiêu giữ lại nhóm người dùng đó
      Model “Thinking” có chi phí cao, nên đây là chiến lược giữ chân họ bằng model Instant giá rẻ
    • Cần xem benchmark thực tế, nhưng theo mô tả của OpenAI thì Instant là model tối ưu độ trễ
      Với giao diện giọng nói, thời gian tới token đầu tiên quan trọng hơn tốc độ token mỗi giây
  • Tôi bật cười khi thấy tiêu đề “GPT‑5.3 Instant: Smoother, more …”
    Mấy câu quảng bá LLM dạo này nghe như quảng cáo thuốc lá

    • “GPT‑5.3 Instant: It’s toasted…”
    • “LLMenthols”
    • “GPT Super Mild”
    • “GPT Crush”
  • Tôi thấy trên trang có câu “Better judgment around refusals”,
    nên tự hỏi các công ty AI đã từng chính thức xử lý vấn đề áp dụng quy tắc khác nhau theo từng nhóm hay chưa
    Ví dụ từ chối trò đùa về một nhóm cụ thể nhưng lại cho phép với nhóm khác
    Ngoài ra, bài báo này còn cho rằng model đánh giá giá trị mạng sống con người khác nhau tùy theo quốc gia

    • Chẳng phải đó cũng có thể là phản ánh của chuẩn mực xã hội sao?
    • Với tôi, vấn đề lớn nhất là thiên lệch lấy Mỹ làm trung tâm
      Dù bảo “hãy trả lời bằng đơn vị metric” thì nó vẫn không làm đúng, khiến tôi phải hỏi lại nhiều lần với các câu hỏi nấu ăn
      Giờ có khá hơn một chút nhưng góc nhìn kiểu Mỹ vẫn còn rất mạnh
    • Việc nêu ra vấn đề thiên lệch của model là hợp lý, nhưng bài báo đó có vẻ phương pháp luận lỏng lẻo
      Họ tính “tỷ giá” của mạng sống con người dựa trên giá dê, nhưng điều đó cũng có thể chỉ phản ánh chênh lệch giá cả giữa các nước
      Mẫu cũng chỉ có 11 quốc gia nên khó khái quát hóa
    • Bài báo ACM chỉ ra rằng thí nghiệm “tỷ giá” kiểu này chỉ là sản phẩm của thiết kế đánh giá,
      chứ không cho thấy sở thích nội tại thực sự của model
      Nếu cho lựa chọn trung lập, phần lớn model sẽ đánh giá mọi mạng sống con người là ngang nhau
      Hơn nữa, bài báo gốc cũng thiếu minh bạch dữ liệu, và khó liên kết code với kết quả nên độ tin cậy thấp
  • Theo liên kết so sánh,
    Gemini 3.1 Lite (không reasoning) có hiệu năng tốt hơn GPT‑5.3 (không reasoning)

    • Hơn nữa chi phí cũng rẻ hơn rất nhiều: GPT‑5.3 là $0.256, còn Gemini khoảng $0.011
  • Tôi thấy khó chịu khi ví dụ trong phần công bố nhắc đến tính quỹ đạo đạn pháo tầm xa

    • Khó chịu thì có, nhưng cũng không hẳn là lạ
      OpenAI đang hợp tác với quân đội Mỹ, nên có vẻ họ đang cố bình thường hóa việc ứng dụng cho mục đích quân sự
      Cảm giác như một chiến lược bọc nó trong các ví dụ ngày càng đời thường để làm mềm bớt phản đối
    • Tôi lại xem ví dụ đó như một lời gợi nhắc đến thời máy tính đời đầu từng được dùng để tính đạn đạo
      Nhưng xét tình hình hiện nay thì tôi cũng không chắc cách hiểu đó có còn đúng không
    • Cũng có thể chỉ đơn giản là một ví dụ kiểu sách giáo khoa vật lý trung học
    • Nhưng xét các sự kiện gần đây, kiểu ví dụ đó trông như một sai lầm thiếu nhạy cảm
    • Cũng có người đùa kiểu: “Gần đây có vụ tai nạn bắn cung nào à?”
  • Tôi đồng ý với mô tả rằng “GPT‑5.3 Instant kết hợp thông tin lấy từ web tốt hơn”
    Trên thực tế, GPT tận dụng tìm kiếm tự nhiên hơn Claude rất nhiều

    • Ngược lại, tôi lại thấy Claude tìm kiếm quá thường xuyên
      Hơn nữa còn có lỗi quên cài đặt ngay cả khi đã tắt web search
  • Trong benchmark của tôi, GPT‑5.3 cho kết quả ngang hoặc hơi thấp hơn 5.2‑chat
    Nên tôi nghĩ mình hiểu vì sao họ không công bố benchmark trong blog
    Liên kết so sánh

  • Điều thú vị là ngay trước khi công bố “5.3 Instant”, họ đã xóa hẳn tùy chọn “Instant” khỏi bộ chọn model
    và đổi thành “Auto (nhưng trong trạng thái đã tắt Auto-switch)”
    Cách giải thích “tự động nhưng tự động đang tắt” có vẻ là bằng chứng cho thấy chính họ cũng đang thấy rối