- DeepClaude giữ nguyên vòng lặp công cụ, chỉnh sửa tệp, bash, và luồng git của Claude Code CLI, nhưng chỉ thay đích gọi API sang các backend tương thích DeepSeek V4 Pro, OpenRouter, Fireworks AI và Anthropic
- Claude Code có mức phí $200 mỗi tháng và giới hạn mức sử dụng, trong khi DeepSeek V4 Pro đưa ra điểm LiveCodeBench 96.4% và giá token đầu ra $0.87/M
- Hỗ trợ đọc·ghi·chỉnh sửa tệp, chạy Bash/PowerShell, tìm kiếm Glob/Grep, vòng lặp công cụ tự động nhiều bước, tạo sub-agent, tác vụ git,
/init, và thinking mode được bật mặc định
- Backend mặc định là DeepSeek; OpenRouter được cung cấp như lựa chọn với máy chủ tại Mỹ và độ trễ thấp, Fireworks AI cho suy luận nhanh, còn Anthropic là lựa chọn dùng Claude Opus cho các bài toán khó
- Mức giá theo backend được nêu là DeepSeek và OpenRouter có đầu vào $0.44/M · đầu ra $0.87/M, Fireworks AI có đầu vào $1.74/M · đầu ra $3.48/M, còn Anthropic có đầu vào $3.00/M · đầu ra $15.00/M
- DeepClaude thiết lập theo từng phiên các biến
ANTHROPIC_BASE_URL, ANTHROPIC_AUTH_TOKEN, ANTHROPIC_DEFAULT_OPUS_MODEL, ANTHROPIC_DEFAULT_SONNET_MODEL, ANTHROPIC_DEFAULT_HAIKU_MODEL, CLAUDE_CODE_SUBAGENT_MODEL, rồi khôi phục cấu hình gốc khi kết thúc
- Tính năng tự động cache ngữ cảnh của DeepSeek lưu system prompt và ngữ cảnh tệp với giá $0.004/M sau yêu cầu đầu tiên, giúp giảm chi phí vòng lặp agent ở các lượt lặp lại
- So sánh mức sử dụng cho thấy so với Anthropic Max $200/tháng, DeepClaude được ước tính khoảng $20/tháng khi dùng nhẹ, khoảng $50/tháng khi dùng nhiều, và khoảng $80/tháng nếu gồm cả vòng lặp tự động
- Các giới hạn cũng được nêu rõ: endpoint Anthropic của DeepSeek không hỗ trợ đầu vào hình ảnh, Claude Code mặc định gửi công cụ theo tuần tự, MCP server tools không được hỗ trợ qua lớp tương thích, và
cache_control của Anthropic bị bỏ qua
- Hỗ trợ live switching để đổi backend trong phiên mà không cần khởi động lại; proxy
localhost:3200 gửi /v1/messages tới backend đang hoạt động và cung cấp các endpoint điều khiển /_proxy/mode, /_proxy/status, /_proxy/cost
- Có thể dùng các lệnh slash như
/deepseek, /anthropic, /openrouter ngay trong Claude Code hoặc deepclaude --switch ds để đổi backend, và proxy cũng tính cả mức dùng token lẫn số tiền tiết kiệm so với Anthropic
- Có thể chạy bằng terminal profile của VS Code/Cursor;
--remote mở phiên Claude Code trong trình duyệt, nhưng cầu nối WebSocket dùng Anthropic còn các lệnh gọi API mô hình được gửi qua proxy cục bộ tới DeepSeek hoặc backend khác
- Để điều khiển từ xa cần
claude auth login, gói thuê bao claude.ai, và Node.js 18+ cho proxy; giấy phép của dự án là MIT
1 bình luận
Ý kiến trên Hacker News
Việc chạy Claude Code bằng API của DeepSeek về cơ bản có thể làm bằng một shell wrapper chỉ với vài biến môi trường
Chỉ cần đặt
ANTHROPIC_BASE_URL=https://api.deepseek.com/anthropic,ANTHROPIC_AUTH_TOKEN,ANTHROPIC_MODELrồi chạyclaude $@Chỉ là có vẻ API của DeepSeek không cho chọn không dùng dữ liệu để huấn luyện, và nếu sau này có mặt trên các nhà cung cấp khác thì có lẽ sẽ tốt hơn. OpenRouter hiện trông như chỉ đang proxy sang DeepSeek
Nhưng README có vẻ như do LLM viết nên các tính năng này bị chìm nghỉm, và nhìn vào lịch sử thì chúng được thêm vào sau nhưng cấu trúc README dường như không được tổ chức lại
Tác giả còn commit cả kế hoạch quảng bá trên mạng xã hội trông khá hiệu quả: https://github.com/aattaran/deepclaude/commit/a90a399682defc...
Chỉ cần chạy kiểu như
aivo claude -m deepseek-v4-proTôi không rõ chuyện này có ý nghĩa gì. DeepSeek vốn đã hướng dẫn cách dùng API trong nhiều CLI, bao gồm cả Claude Code
https://api-docs.deepseek.com/quick_start/agent_integrations...
Có vẻ LLM viết README đã không cập nhật phần mô tả dự án chung để nhấn mạnh những tính năng này
Kế hoạch quảng bá của tác giả cũng đã được commit: https://github.com/aattaran/deepclaude/commit/a90a399682defc...
Nếu đang tìm giải pháp thay thế Claude Code, tôi khuyên nên xem pi.dev hoặc opencode trước như một framework thực thi
Về mô hình thì OpenCode Go hiện có vẻ hiệu quả chi phí nhất, và cũng có thể kết nối trực tiếp OpenRouter hoặc DeepSeek. Cá nhân tôi nghĩ nghiêng sang Kimi và mua gói đăng ký kimi.com còn tốt hơn
Ở dự án phụ cá nhân mouse.dev, tôi đang kết hợp OpenCode, Claude Code và một phần của Hermes để tạo kiến trúc cloud agent hoạt động tốt cả trên di động
Hóa ra bot đang tự động đóng toàn bộ issue. Thật sự không biết nói gì hơn
Ngay cả khi giá token chỉ khoảng 1 USD cho mỗi 1 triệu token, việc dùng hết 200 USD tiền token vẫn dễ đến mức đáng ngạc nhiên
Tính kiểu nào thì gói cước coding vẫn đáng tiền hơn
Nếu hiệu năng cỡ Sonnet là đủ thì điều này chắc chắn nghe như một bản nâng cấp
Nhưng Sonnet mắc lỗi quá nhiều, nên tôi cảm thấy tối ưu chi phí ở mức mô hình đó rốt cuộc cũng không có nhiều giá trị. Dù vậy, có thêm lựa chọn vẫn là điều tốt
Nếu tách thiết kế bằng Opus và triển khai bằng DeepSeek thì có lẽ giảm chi phí được khá nhiều. Cá nhân tôi thì sẽ tránh Anthropic hoàn toàn, nhưng tôi hiểu vì sao người khác vẫn dùng
Dù là công ty hay nhân viên, hiện giờ tôi không thấy nhiều lý do để không dùng mô hình tốt nhất sẵn có cùng cường độ suy luận cao nhất hoặc nhì. Giá không rẻ, nhưng cũng chưa đến mức quá đắt
Để tạo được một kiến trúc tốt thì phải đọc rất nhiều đặc tả, code các thứ, nên số token vào/ra sẽ lớn; sửa bug cũng vậy, nhất là khi còn phải xem log hay Datadog
Sau khi đã tìm ra hướng đi thì patch thường nhỏ, và nếu không phải refactor hay dọn dẹp thì số tiền tiết kiệm được từ mô hình rẻ cũng không nhiều
Việc thử nghiệm ngày càng phức tạp. Chỉ riêng opencode go đã có GLM-5.1, GLM-5, Kimi K2.5, Kimi K2.6, MiMo-V2-Pro, MiMo-V2-Omni, MiMo-V2.5-Pro, MiMo-V2.5, Qwen3.5 Plus, Qwen3.6 Plus, MiniMax M2.5, MiniMax M2.7, DeepSeek V4 Pro, DeepSeek V4 Flash
Giờ còn phải trực tiếp chạy quy mô lớn các mô hình này cùng với bug của chúng, nên tôi không biết mình có đang bỏ sót điều gì không. Tôi thật sự tò mò công dụng thực tế của các mô hình rẻ hơn là gì
Claude.mdvững vàng, thường xuyên rà soát đầu ra và dùng CI cơ bản để ép các thực hành code tốt, thì tôi gần như chưa bao giờ phải chuyển sang OpusTôi cứ tự hỏi có phải đây là kiểu việc chỉ cần đặt hai biến môi trường mà lại bảo AI làm one-shot hay không
Tôi tò mò liệu Claude Code có phải framework thực thi cho code tốt nhất không. Có nơi nào chạy benchmark chuyện này không?
Trong khi đó, Claude Code lại là công cụ được trợ giá nhiều nhất, cả từ gói Max cho người dùng cá nhân lẫn ưu đãi token cho doanh nghiệp. Nó cũng tối ưu chi phí rất mạnh bằng token caching và giảm lượng suy luận, và cái giá phải trả là chất lượng giảm đi
Sau khi thử DeepSeek V4 qua nhiều CLI, tôi thấy Langcli là hợp nhất. Trong các tác vụ lập trình, tỷ lệ cache hit vượt 95%
Nó cho phép chuyển đổi mượt và động giữa DeepSeek V4 Flash, V4 Pro và các mô hình phổ biến khác trong cùng một ngữ cảnh, đồng thời tương thích 100% với Claude Code
Tôi đã dành nửa ngày để làm cho CUDA và LLAMA chạy được trên 5070TI
Tôi đã có thể thử bằng agent mode của Roo, cho nó lập kế hoạch rồi dừng lại, nhưng nếu có thêm thời gian tôi sẽ tiếp tục
DeepSeek có vẻ ít nguy cơ bị rút lại đột ngột vì nếu có đủ tiền thì có thể tự host, nhưng tôi vẫn kỳ vọng hơn vào giải pháp cục bộ
Thường thứ cần chỉ là lao động đơn giản chứ không phải giải các bài toán khó
Rõ ràng có cảm giác được đồng sáng tác bằng vibe coding, và giá cả cũng không khớp