- TimesFM là mô hình tiền huấn luyện quy mô lớn cho dự báo chuỗi thời gian do Google Research phát triển, sử dụng kiến trúc chỉ gồm decoder
- Phiên bản mới nhất 2.5 hỗ trợ 200 triệu tham số, độ dài ngữ cảnh 16k và dự báo horizon tối đa 1k
- Bao gồm nhiều tính năng như dự báo phân vị liên tục, đầu vào biến đồng biến (XReg), backend Flax·PyTorch
- Mô hình được công bố qua Hugging Face và cũng có thể được tích hợp để sử dụng trong BigQuery
- Đây là mô hình nền tảng phổ dụng cho dự báo dữ liệu chuỗi thời gian, mang lại khả năng mở rộng và hiệu quả cho cả nghiên cứu lẫn thực tiễn
Tổng quan về TimesFM
- TimesFM(Time Series Foundation Model) là mô hình tiền huấn luyện cho dự báo chuỗi thời gian do Google Research phát triển
- Dựa trên bài báo ICML 2024 “A decoder-only foundation model for time-series forecasting”
- Checkpoint của mô hình được cung cấp qua bộ sưu tập Hugging Face và cũng được tích hợp chính thức vào BigQuery
- Phiên bản mở không phải là sản phẩm chính thức của Google
Phiên bản mô hình và các cập nhật chính
- Phiên bản mới nhất là TimesFM 2.5; các phiên bản trước đó (1.0, 2.0) được lưu trong thư mục
v1 và có thể cài bằng timesfm==1.3.0
-
Cập nhật ngày 15 tháng 9 năm 2025
- Công bố mô hình TimesFM 2.5
- Số lượng tham số giảm xuống 200M (ít hơn một nửa so với 500M trước đó)
- Độ dài ngữ cảnh mở rộng lên 16k (tăng từ 2048)
- Hỗ trợ dự báo phân vị liên tục (continuous quantile forecast) tới tối đa horizon 1k, kèm quantile head 30M tùy chọn
- Loại bỏ chỉ báo
frequency
- Bổ sung forecasting flags mới
- Nâng cấp inference API
- Các hạng mục dự kiến bổ sung trong tương lai
- Hỗ trợ mô hình phiên bản Flax (suy luận nhanh hơn)
- Khôi phục hỗ trợ biến đồng biến (covariate)
- Bổ sung docstring, tài liệu và notebook
-
Cập nhật ngày 29 tháng 10 năm 2025
- Hỗ trợ đầu vào biến đồng biến (covariate) thông qua XReg đã được thêm lại vào TimesFM 2.5
Cách cài đặt
- Clone kho lưu trữ GitHub và dùng
uv để tạo môi trường ảo và cài gói
- Có thể cài backend tùy chọn trong số
torch, flax, xreg
- Tùy theo OS và bộ tăng tốc (CPU, GPU, TPU, Apple Silicon), có thể chọn PyTorch hoặc JAX(Flax)
Ví dụ mã
- Có cung cấp ví dụ tải mô hình TimesFM 2.5 nền PyTorch (200M tham số)
- Sử dụng
timesfm.TimesFM_2p5_200M_torch.from_pretrained("google/timesfm-2.5-200m-pytorch")
- Qua
ForecastConfig, có thể thiết lập chuẩn hóa đầu vào (normalize_inputs), sử dụng continuous quantile head, ép giá trị dương (infer_is_positive), sửa hiện tượng giao nhau giữa các phân vị (fix_quantile_crossing)
- Khi gọi
forecast(), sẽ trả về hai kết quả: point forecast và quantile forecast
point_forecast.shape: (2, 12)
quantile_forecast.shape: (2, 12, 10) — bao gồm trung bình và các phân vị 10~90
1 bình luận
Ý kiến trên Hacker News
Khái niệm mô hình chuỗi thời gian kiểu tổng quát này có vẻ hơi kỳ lạ
Khó hiểu làm sao cùng một mô hình lại có thể dự báo đáng tin cậy vừa giá trứng ở Ý vừa lạm phát toàn cầu
Ngoài ra, nếu không giải thích được cơ sở của dự báo thì rất khó để tin vào kết quả
Những sự kiện phi mùa vụ như chiến tranh ở Trung Đông ảnh hưởng đến lạm phát thì mô hình không thể nắm bắt được
Theo phụ lục 8 của bài báo, họ tạo dữ liệu tổng hợp bằng các mô hình thống kê truyền thống như xu hướng tuyến tính, ARMA, các mẫu mùa vụ sin và cos
Rốt cuộc đây vẫn là kiến trúc Transformer, nên giống như LLM, nó tìm ra các mẫu phù hợp cho từng bài toán dựa trên ngữ cảnh đầu vào
Nhiều nhà quảng cáo chỉ đơn giản kẻ một đường thẳng từ số liệu hiện tại để dự báo, nhưng cách đó không phản ánh được ngày trong tuần và tính mùa vụ nên thiếu chính xác
Trong khi đó mô hình chuỗi thời gian chính xác hơn nhiều, và khi học trên toàn bộ dữ liệu chiến dịch thì có thể cung cấp khoảng tin cậy 95%
Dấu và số mũ thay đổi chậm, nên có thể dự đoán chúng, còn phần trị số thì ước lượng bằng định luật Benford
Sẽ tốt hơn nếu thêm (2024) vào tiêu đề
Đây không phải tin mới vì nội dung này đã từng được giới thiệu trên blog Google Research
Có thể xem bài blog liên quan trên trang TimesFM của GitHub
Có vẻ nhỏ hơn rất nhiều so với LLM, nên muốn biết liệu các nhà nghiên cứu cá nhân hay phòng lab đại học cũng có thể huấn luyện được không
Nhân tiện, các dự án tương tự có Nixtla và Prophet
Có người hỏi: “Có thể giải thích ở mức ELI5 không? Và nó có thể đọc được bao nhiêu điểm dữ liệu?”
Không rõ chuỗi thời gian có được đưa vào chỉ như một tập hợp số không có ngữ cảnh hay không
Có vẻ mô hình sẽ nhìn dữ liệu, đoán xem nó thuộc loại nào (giá cổ phiếu, xu hướng tìm kiếm, v.v.), rồi đưa ra dự báo phù hợp
Nhưng có lẽ nó sẽ yếu với các danh mục không có trong dữ liệu huấn luyện
Cá nhân tôi vẫn thích các mô hình đơn giản như ARIMA hoặc các mô hình dựa trên lý thuyết hơn
Cốt lõi là kiến trúc và cách huấn luyện có tổng quát hóa được đến mức nào
Mô hình này đã được công khai từ vài tháng trước, nên tôi tò mò không biết đã có ai thực sự xây dựng thứ gì dựa trên nó chưa
Nếu có chuỗi thời gian về bức xạ mặt trời trong quá khứ và dự báo thời tiết, liệu có thể dùng dự báo thời tiết ở các thời điểm tương lai để dự đoán giá điện hay không
Tức là có thể dùng dữ liệu ở thời điểm X của một chuỗi để dự đoán thời điểm X của một chuỗi khác, hay nó chỉ xử lý các mẫu bên trong một chuỗi đơn lẻ
Nhưng nếu dữ liệu huấn luyện ít, có vẻ nó chỉ học được các mẫu kiểu “đi lên về phía bên phải”, nên có lẽ vẫn có giới hạn
Tôi đã bỏ lỡ dự án này, không biết có cuộc thi nào liên quan không
Chuỗi thời gian và ML lúc nào cũng khó, nhưng tôi muốn tự thử làm xem sao
Một đồng nghiệp đã dùng mô hình này để dự đoán thời điểm CEO sẽ đăng bài trên Slack, nghe nói khá thú vị
Cá nhân tôi nghĩ chỉ cần chạy LLM + pandas + vòng lặp thử nghiệm tự xây thì có thể cho kết quả tốt hơn mô hình này
Đây đâu phải giới hạn cố định, mà ngược lại tôi còn nghĩ khả năng cao là nhận định đó sai