rtk - proxy CLI giúp giảm 60~90% lượng token tiêu thụ của LLM
(github.com/rtk-ai)- Một binary Rust đơn lẻ (Windows/macOS/Linux) giúp lọc·nén đầu ra của các lệnh CLI do công cụ coding AI thực thi trước khi chuyển cho LLM, từ đó giảm 60~90% token
- Hỗ trợ hơn 100 lệnh như git, grep, ls, cargo test, đồng thời áp dụng 4 chiến lược gồm lọc thông minh, gom nhóm, cắt ngắn và loại bỏ trùng lặp trước khi đưa đầu ra lệnh vào ngữ cảnh của LLM
- Hỗ trợ 10 công cụ coding AI như Claude Code, Codex, Cursor, Gemini CLI, và khi cài hook thì các lệnh bash sẽ tự động được viết lại một cách trong suốt sang lệnh tương ứng của rtk
- Hook này chỉ áp dụng cho các lời gọi công cụ Bash; các công cụ tích hợp sẵn của Claude Code như
Read,Grep,Globsẽ bỏ qua hook này, nên để áp dụng bộ lọc RTK thì cần dùng lệnh shell hoặc lệnh rtk tường minh
- Hook này chỉ áp dụng cho các lời gọi công cụ Bash; các công cụ tích hợp sẵn của Claude Code như
- Mức tiết kiệm ước tính cho một phiên Claude Code 30 phút là ~23.900 token (giảm khoảng 80%) so với mức chuẩn ~118.000 token
- Với các test runner như
cargo test/npm test,pytest,go testthì có thể giảm tới 90%
- Với các test runner như
- Cách bắt đầu
# 1. Cài đặt rtk init -g # Claude Code / Copilot (default) rtk init -g --gemini # Gemini CLI rtk init -g --codex # Codex (OpenAI) rtk init -g --agent cursor # Cursor # 2. Sau đó khởi động lại công cụ AI git status # giờ sẽ hoạt động thành rtk git status - Giấy phép Apache-2.0
9 bình luận
Suy cho cùng đây là sự đánh đổi với chất lượng, và tôi cũng lo rằng liệu rồi nó có trở thành một cấu trúc phải dùng thêm token để khôi phục phần chất lượng đã mất hay không
Tôi đã thử dùng trước đây, nhưng rồi gỡ bỏ vì Claude cứ tiêu tốn thêm nhiều token hơn để xử lý các vấn đề do rtk gây ra.
(Ví dụ, khi gửi yêu cầu JSON bằng
curlthì nó tạo ra JSON không hợp lệ khiếnjqbáo lỗi, rồi Claude lại debug chuyện đó và đốt token, cuối cùng vẫn phải quay về lấy lại yêu cầucurlthô để parse bằngjq.)Dù vậy, tôi vẫn nghĩ bản thân ý tưởng này là một nỗ lực đáng khen, nên nếu ổn định hơn thì có lẽ sẽ đáng để thử dùng.
Không rõ là nó có thực sự giảm được không. Tôi đã bảo agent cứ dùng lệnh
rtk ls..mà nó lại không dùng.Cá nhân tôi cũng đang thử dùng, nhưng có vẻ còn tùy từng trường hợp vì do nén của rtk, đôi khi Claude Code cũng không lấy được ngữ cảnh cần thiết từ kết quả lệnh.
Tôi cũng từng thấy tiếc ở điểm đó!
Bản cập nhật gần đây cho phép lưu
full outputvào một tệp riêng để LLM có thể đọc khi cần~Có vẻ như có một vài tác dụng phụ nhỏ trong các trường hợp sử dụng của những người dùng khác.
Mong rằng vấn đề sẽ sớm được khắc phục và được áp dụng tốt.
https://reddit.com/r/ClaudeCode/…
Nếu có thể giảm được nhiều như vậy thì có vẻ sẽ rất tuyệt!
Ý tưởng hay đấy
Tuy nhiên, vì có lẽ việc huấn luyện được thực hiện dựa trên đầu ra CLI thông thường, nên tôi hơi lo rằng nếu cô đọng như thế này thì đầu ra có còn tốt như trước không
Tôi sẽ thử dùng một lần
Chắc phải so sánh với contextmode rồi...