1 điểm bởi GN⁺ 1 giờ trước | 1 bình luận | Chia sẻ qua WhatsApp
  • DeepClaude giữ nguyên vòng lặp công cụ, chỉnh sửa tệp, bash, và luồng git của Claude Code CLI, nhưng chỉ thay đích gọi API sang các backend tương thích DeepSeek V4 Pro, OpenRouter, Fireworks AI và Anthropic
  • Claude Code có mức phí $200 mỗi tháng và giới hạn mức sử dụng, trong khi DeepSeek V4 Pro đưa ra điểm LiveCodeBench 96.4% và giá token đầu ra $0.87/M
  • Hỗ trợ đọc·ghi·chỉnh sửa tệp, chạy Bash/PowerShell, tìm kiếm Glob/Grep, vòng lặp công cụ tự động nhiều bước, tạo sub-agent, tác vụ git, /init, và thinking mode được bật mặc định
  • Backend mặc định là DeepSeek; OpenRouter được cung cấp như lựa chọn với máy chủ tại Mỹ và độ trễ thấp, Fireworks AI cho suy luận nhanh, còn Anthropic là lựa chọn dùng Claude Opus cho các bài toán khó
  • Mức giá theo backend được nêu là DeepSeek và OpenRouter có đầu vào $0.44/M · đầu ra $0.87/M, Fireworks AI có đầu vào $1.74/M · đầu ra $3.48/M, còn Anthropic có đầu vào $3.00/M · đầu ra $15.00/M
  • DeepClaude thiết lập theo từng phiên các biến ANTHROPIC_BASE_URL, ANTHROPIC_AUTH_TOKEN, ANTHROPIC_DEFAULT_OPUS_MODEL, ANTHROPIC_DEFAULT_SONNET_MODEL, ANTHROPIC_DEFAULT_HAIKU_MODEL, CLAUDE_CODE_SUBAGENT_MODEL, rồi khôi phục cấu hình gốc khi kết thúc
  • Tính năng tự động cache ngữ cảnh của DeepSeek lưu system prompt và ngữ cảnh tệp với giá $0.004/M sau yêu cầu đầu tiên, giúp giảm chi phí vòng lặp agent ở các lượt lặp lại
  • So sánh mức sử dụng cho thấy so với Anthropic Max $200/tháng, DeepClaude được ước tính khoảng $20/tháng khi dùng nhẹ, khoảng $50/tháng khi dùng nhiều, và khoảng $80/tháng nếu gồm cả vòng lặp tự động
  • Các giới hạn cũng được nêu rõ: endpoint Anthropic của DeepSeek không hỗ trợ đầu vào hình ảnh, Claude Code mặc định gửi công cụ theo tuần tự, MCP server tools không được hỗ trợ qua lớp tương thích, và cache_control của Anthropic bị bỏ qua
  • Hỗ trợ live switching để đổi backend trong phiên mà không cần khởi động lại; proxy localhost:3200 gửi /v1/messages tới backend đang hoạt động và cung cấp các endpoint điều khiển /_proxy/mode, /_proxy/status, /_proxy/cost
  • Có thể dùng các lệnh slash như /deepseek, /anthropic, /openrouter ngay trong Claude Code hoặc deepclaude --switch ds để đổi backend, và proxy cũng tính cả mức dùng token lẫn số tiền tiết kiệm so với Anthropic
  • Có thể chạy bằng terminal profile của VS Code/Cursor; --remote mở phiên Claude Code trong trình duyệt, nhưng cầu nối WebSocket dùng Anthropic còn các lệnh gọi API mô hình được gửi qua proxy cục bộ tới DeepSeek hoặc backend khác
  • Để điều khiển từ xa cần claude auth login, gói thuê bao claude.ai, và Node.js 18+ cho proxy; giấy phép của dự án là MIT

1 bình luận

 
Ý kiến trên Hacker News
  • Việc chạy Claude Code bằng API của DeepSeek về cơ bản có thể làm bằng một shell wrapper chỉ với vài biến môi trường
    Chỉ cần đặt ANTHROPIC_BASE_URL=https://api.deepseek.com/anthropic, ANTHROPIC_AUTH_TOKEN, ANTHROPIC_MODEL rồi chạy claude $@

    • Với các dự án không phải bí mật, tôi đã dùng kiểu này với DeepSeek v4 khoảng một tuần, và có lẽ vì không giao các tác vụ quá nặng nên gần như không cảm thấy khác biệt
      Chỉ là có vẻ API của DeepSeek không cho chọn không dùng dữ liệu để huấn luyện, và nếu sau này có mặt trên các nhà cung cấp khác thì có lẽ sẽ tốt hơn. OpenRouter hiện trông như chỉ đang proxy sang DeepSeek
    • Có vẻ bất kỳ dự án nào trêu chọc Claude cũng có thể leo lên hạng 1 Hacker News, kể cả chỉ có bốn dòng code
    • Phần thú vị hơn của deepclaude là proxy cục bộ cho phép đổi mô hình giữa chừng trong phiên và tính năng theo dõi chi phí hợp nhất
      Nhưng README có vẻ như do LLM viết nên các tính năng này bị chìm nghỉm, và nhìn vào lịch sử thì chúng được thêm vào sau nhưng cấu trúc README dường như không được tổ chức lại
      Tác giả còn commit cả kế hoạch quảng bá trên mạng xã hội trông khá hiệu quả: https://github.com/aattaran/deepclaude/commit/a90a399682defc...
    • Vì vậy tôi đã làm https://getaivo.dev, và có thể dùng mô hình trực tiếp trong coding agent
      Chỉ cần chạy kiểu như aivo claude -m deepseek-v4-pro
    • Về bản chất, cách này cho phép dùng bất kỳ mô hình nào, kể cả mô hình cục bộ, cùng với Claude Code
  • Tôi không rõ chuyện này có ý nghĩa gì. DeepSeek vốn đã hướng dẫn cách dùng API trong nhiều CLI, bao gồm cả Claude Code
    https://api-docs.deepseek.com/quick_start/agent_integrations...

    • README thực sự chôn vùi hoàn toàn các tính năng không hề nhỏ: chạy proxy chuyển đổi mô hình giữa chừng trong phiên, và theo dõi chi phí hợp nhất khi dùng Anthropic cùng các mô hình khác
      Có vẻ LLM viết README đã không cập nhật phần mô tả dự án chung để nhấn mạnh những tính năng này
      Kế hoạch quảng bá của tác giả cũng đã được commit: https://github.com/aattaran/deepclaude/commit/a90a399682defc...
    • Có lẽ chẳng có ý nghĩa gì mấy. Cảm giác như ai đó chưa hiểu cho đúng, cũng chẳng nghiên cứu, chỉ lấy ý tưởng đầu tiên rồi làm ngay một phát để đăng lên trang nhất HN và mọi mạng xã hội
    • Có vẻ là công cụ do một vibe coder làm ra cho các vibe coder khác
    • Tôi thấy định dạng gọi công cụ không hoàn toàn giống hệt nhau. Nên để gắn bất kỳ AI nào vào Claude Code thì có lẽ cần chuyển đổi định dạng
    • Tôi khá tò mò thực tế nó hoạt động tốt đến đâu. Tôi đã thử DeepSeek trong Hermes và Opencode, nhưng dù system prompt có hướng dẫn rất mạnh thì khả năng dùng các công cụ cơ bản như công cụ bộ nhớ holographic của Hermes vẫn cực kỳ tệ
  • Nếu đang tìm giải pháp thay thế Claude Code, tôi khuyên nên xem pi.dev hoặc opencode trước như một framework thực thi
    Về mô hình thì OpenCode Go hiện có vẻ hiệu quả chi phí nhất, và cũng có thể kết nối trực tiếp OpenRouter hoặc DeepSeek. Cá nhân tôi nghĩ nghiêng sang Kimi và mua gói đăng ký kimi.com còn tốt hơn

    • Tôi cũng xin đề cử framework thực thi của mình: https://codeberg.org/mlow/lmcli
    • pi.dev hay opencode đều tốt, nhưng plugin và skill mà tôi muốn dùng thì phía Claude Code vẫn có nhiều nhất
    • Đồng ý. OpenCode có nền tảng vững, và chỉ cần chỉnh vài thứ là có thể trở thành một framework thực thi rất hiệu quả
      Ở dự án phụ cá nhân mouse.dev, tôi đang kết hợp OpenCode, Claude Code và một phần của Hermes để tạo kiến trúc cloud agent hoạt động tốt cả trên di động
    • Tôi có xem pi.dev và thấy chỉ có 7 issue mở trên GitHub nên thấy đáng ngờ
      Hóa ra bot đang tự động đóng toàn bộ issue. Thật sự không biết nói gì hơn
    • Ollama Cloud cũng rất hiệu quả về chi phí. Tôi đã dùng cả tháng và chỉ đúng một lần chạm giới hạn 5 giờ, mà đó còn là lúc chạy đồng thời 8 agent trong 2 giờ
  • Ngay cả khi giá token chỉ khoảng 1 USD cho mỗi 1 triệu token, việc dùng hết 200 USD tiền token vẫn dễ đến mức đáng ngạc nhiên
    Tính kiểu nào thì gói cước coding vẫn đáng tiền hơn

  • Nếu hiệu năng cỡ Sonnet là đủ thì điều này chắc chắn nghe như một bản nâng cấp
    Nhưng Sonnet mắc lỗi quá nhiều, nên tôi cảm thấy tối ưu chi phí ở mức mô hình đó rốt cuộc cũng không có nhiều giá trị. Dù vậy, có thêm lựa chọn vẫn là điều tốt

    • Nhiều người đang có kết quả tốt khi dùng Opus cho phần thiết kế và qwen3.6 tự host cho phần triển khai
      Nếu tách thiết kế bằng Opus và triển khai bằng DeepSeek thì có lẽ giảm chi phí được khá nhiều. Cá nhân tôi thì sẽ tránh Anthropic hoàn toàn, nhưng tôi hiểu vì sao người khác vẫn dùng
    • Chúng ta vẫn chưa ở trạng thái bão hòa nơi trí thông minh của mọi mô hình tuyến đầu đều tương đối ngang nhau để có thể chọn theo các yếu tố khác như tốc độ hay cửa sổ ngữ cảnh hiệu dụng
      Dù là công ty hay nhân viên, hiện giờ tôi không thấy nhiều lý do để không dùng mô hình tốt nhất sẵn có cùng cường độ suy luận cao nhất hoặc nhì. Giá không rẻ, nhưng cũng chưa đến mức quá đắt
    • Điểm cốt lõi là không phải cần một mô hình tốt, mà là mô hình tốt nhất
      Để tạo được một kiến trúc tốt thì phải đọc rất nhiều đặc tả, code các thứ, nên số token vào/ra sẽ lớn; sửa bug cũng vậy, nhất là khi còn phải xem log hay Datadog
      Sau khi đã tìm ra hướng đi thì patch thường nhỏ, và nếu không phải refactor hay dọn dẹp thì số tiền tiết kiệm được từ mô hình rẻ cũng không nhiều
      Việc thử nghiệm ngày càng phức tạp. Chỉ riêng opencode go đã có GLM-5.1, GLM-5, Kimi K2.5, Kimi K2.6, MiMo-V2-Pro, MiMo-V2-Omni, MiMo-V2.5-Pro, MiMo-V2.5, Qwen3.5 Plus, Qwen3.6 Plus, MiniMax M2.5, MiniMax M2.7, DeepSeek V4 Pro, DeepSeek V4 Flash
      Giờ còn phải trực tiếp chạy quy mô lớn các mô hình này cùng với bug của chúng, nên tôi không biết mình có đang bỏ sót điều gì không. Tôi thật sự tò mò công dụng thực tế của các mô hình rẻ hơn là gì
    • Tôi cứ phải học lại bài học này mãi. Đang dùng mô hình thấp khá ổn, rồi ném vào một vấn đề quá phức tạp, thử hết mô hình này đến mô hình khác, cuối cùng lại bỏ cuộc và gọi Opus 4.6 vào dọn dẹp
    • Với Sonnet thì tôi hoàn toàn không thấy như vậy. Nếu có Claude.md vững vàng, thường xuyên rà soát đầu ra và dùng CI cơ bản để ép các thực hành code tốt, thì tôi gần như chưa bao giờ phải chuyển sang Opus
  • Tôi cứ tự hỏi có phải đây là kiểu việc chỉ cần đặt hai biến môi trường mà lại bảo AI làm one-shot hay không

  • Tôi tò mò liệu Claude Code có phải framework thực thi cho code tốt nhất không. Có nơi nào chạy benchmark chuyện này không?

    • Theo cảm nhận cá nhân thì không. Cùng một mô hình Opus nhưng nó hoạt động tốt hơn trong các framework thực thi bên thứ ba như Factory Droid hay Amp
      Trong khi đó, Claude Code lại là công cụ được trợ giá nhiều nhất, cả từ gói Max cho người dùng cá nhân lẫn ưu đãi token cho doanh nghiệp. Nó cũng tối ưu chi phí rất mạnh bằng token caching và giảm lượng suy luận, và cái giá phải trả là chất lượng giảm đi
  • Sau khi thử DeepSeek V4 qua nhiều CLI, tôi thấy Langcli là hợp nhất. Trong các tác vụ lập trình, tỷ lệ cache hit vượt 95%
    Nó cho phép chuyển đổi mượt và động giữa DeepSeek V4 Flash, V4 Pro và các mô hình phổ biến khác trong cùng một ngữ cảnh, đồng thời tương thích 100% với Claude Code

  • Tôi đã dành nửa ngày để làm cho CUDA và LLAMA chạy được trên 5070TI
    Tôi đã có thể thử bằng agent mode của Roo, cho nó lập kế hoạch rồi dừng lại, nhưng nếu có thêm thời gian tôi sẽ tiếp tục
    DeepSeek có vẻ ít nguy cơ bị rút lại đột ngột vì nếu có đủ tiền thì có thể tự host, nhưng tôi vẫn kỳ vọng hơn vào giải pháp cục bộ
    Thường thứ cần chỉ là lao động đơn giản chứ không phải giải các bài toán khó

  • Rõ ràng có cảm giác được đồng sáng tác bằng vibe coding, và giá cả cũng không khớp

    • Từ giờ chắc sẽ ngày càng khó tìm được những tiêu đề không phải do vibe coding tạo ra
    • Đây là vibe coding cẩu thả. Máy rất giỏi kiểm tra các chi tiết dễ xác minh, nên nên dùng nó vào những việc như thế