- Đại diện Anthropic thông báo rằng việc dùng Claude CLI theo kiểu OpenClaw lại được cho phép
- Hỗ trợ đồng thời khóa API Anthropic và tái sử dụng Claude CLI, đồng thời các hồ sơ token Anthropic hiện có vẫn tiếp tục được chấp nhận khi chạy
- Backend Claude CLI của Anthropic lại được xử lý như một cách tích hợp được cho phép, và việc dùng
claude -p cũng được cho phép cho đến khi có công bố chính sách mới
- Với các model Claude 4.6, khi không có thiết lập thinking tường minh thì adaptive thinking được áp dụng mặc định, và có thể ghi đè bằng
/think:<level> hoặc tham số model
- Công tắc
/fast chỉ chèn service_tier cho các yêu cầu đi trực tiếp đến api.anthropic.com; nếu đi qua proxy hoặc gateway thì thay đổi tier sẽ không được áp dụng
- Cũng hỗ trợ prompt caching và cửa sổ ngữ cảnh 1M, nhưng cache chỉ dành cho API, còn ngữ cảnh 1M cần được bật tường minh và phải được phép dùng long-context; với xác thực
sk-ant-oat-* hiện có thì header beta sẽ bị loại bỏ
Cách hỗ trợ Anthropic
- Hỗ trợ đồng thời API và Claude CLI như các đường truy cập vào họ model Claude, và trong OpenClaw có thể dùng cả khóa API Anthropic lẫn tái sử dụng Claude CLI
- Các hồ sơ token Anthropic hiện có đã được thiết lập cũng vẫn tiếp tục được chấp nhận khi chạy
-
Khóa API Anthropic
- Đây là đường đi phù hợp cho truy cập API chuẩn và tính phí theo mức sử dụng
- Có thể tạo khóa API trong Anthropic Console
- Trong ví dụ cấu hình CLI, có thể chọn Anthropic API key trong
openclaw onboard
- Hỗ trợ cách không tương tác qua
openclaw onboard --anthropic-api-key "$ANTHROPIC_API_KEY"
- Trong ví dụ snippet cấu hình, dùng biến môi trường
ANTHROPIC_API_KEY và model mặc định anthropic/claude-opus-4-6
Giá trị mặc định cho Thinking
- Với các model Claude 4.6, OpenClaw sẽ áp dụng adaptive thinking làm mặc định khi không có mức thinking được chỉ định tường minh
- Có thể ghi đè theo từng tin nhắn bằng
/think:<level> hoặc bằng tham số model agents.defaults.models["anthropic/<model>"].params.thinking
- Có kèm liên kết tài liệu liên quan tới Adaptive thinking và Extended thinking
Fast mode
- Công tắc chia sẻ
/fast của OpenClaw cũng hỗ trợ lưu lượng Anthropic công khai được gửi trực tiếp tới api.anthropic.com
- Bao gồm cả xác thực bằng khóa API và yêu cầu xác thực OAuth
/fast on được ánh xạ thành service_tier: "auto"
/fast off được ánh xạ thành service_tier: "standard_only"
- Trong ví dụ giá trị mặc định của cấu hình, model
anthropic/claude-sonnet-4-6 dùng params.fastMode: true
-
Hạn chế
- OpenClaw chỉ chèn service tier của Anthropic cho các yêu cầu trực tiếp tới
api.anthropic.com
- Nếu các yêu cầu
anthropic/* được chuyển vòng qua proxy hoặc gateway thì /fast sẽ không thay đổi service_tier
- Nếu có tham số model
serviceTier hoặc service_tier được chỉ định tường minh thì chúng sẽ được ưu tiên hơn giá trị mặc định của /fast
- Anthropic ghi lại tier thực tế đã áp dụng trong
usage.service_tier của phản hồi
- Với các tài khoản không có Priority Tier capacity,
service_tier: "auto" vẫn có thể bị hiểu là standard
Prompt caching
- OpenClaw hỗ trợ tính năng prompt caching của Anthropic
- Tính năng này chỉ dành cho API; xác thực bằng token Anthropic hiện có sẽ không phản ánh thiết lập cache
-
Cấu hình
- Dùng tham số
cacheRetention trong cấu hình model
none là tắt cache
short là cache 5 phút
long là cache mở rộng 1 giờ
- Trong ví dụ cấu hình, model
anthropic/claude-opus-4-6 dùng params.cacheRetention: "long"
-
Mặc định
- Khi dùng xác thực bằng khóa API Anthropic, tất cả model Anthropic sẽ tự động áp dụng
cacheRetention: "short"
- Có thể ghi đè giá trị mặc định này bằng cách đặt
cacheRetention tường minh
-
Ghi đè theo từng agent
- Có thể dùng tham số ở cấp model làm đường cơ sở, rồi ghi đè riêng cho từng agent bằng
agents.list[].params
- Trong ví dụ,
research dùng cấu hình mặc định còn alerts áp dụng cacheRetention: "none"
- Thứ tự hợp nhất tham số liên quan đến cache là
agents.defaults.models["provider/model"].params rồi đến agents.list[].params
- Ngay cả khi dùng cùng một model, một agent có thể giữ cache dài hạn còn agent khác có thể tắt cache
- Ví dụ về mục đích tắt cache có nhắc tới việc tránh chi phí ghi trong các lưu lượng mang tính burst hoặc ít tái sử dụng
-
Ghi chú về Bedrock Claude
- Với model Anthropic Claude trên Bedrock
amazon-bedrock/*anthropic.claude*, nếu được cấu hình thì việc truyền cacheRetention được hỗ trợ
- Các model Bedrock không phải Anthropic sẽ bị ép thành
cacheRetention: "none" khi chạy
- Mặc định thông minh dựa trên khóa API Anthropic cũng áp dụng
cacheRetention: "short" cho các tham chiếu model Claude-on-Bedrock khi không có giá trị tường minh
Cửa sổ ngữ cảnh 1M
- 1M context window của Anthropic là tính năng beta bị giới hạn, và trong OpenClaw có thể bật bằng
params.context1m: true cho từng model Opus/Sonnet được hỗ trợ
- Trong ví dụ cấu hình, model
anthropic/claude-opus-4-6 dùng params.context1m: true
- OpenClaw ánh xạ điều này thành header
anthropic-beta: context-1m-2025-08-07 trong yêu cầu gửi tới Anthropic
- Tính năng này chỉ được bật khi
params.context1m được đặt tường minh là true cho model đó
- Điều kiện sử dụng là Anthropic phải cho phép long-context usage đối với thông tin xác thực đó
- Hiện tại, Anthropic từ chối các yêu cầu beta
context-1m-* khi dùng xác thực bằng token Anthropic hiện có sk-ant-oat-*
- Nếu đặt
context1m: true trong chế độ xác thực hiện có, OpenClaw sẽ ghi log cảnh báo, bỏ qua header beta context1m, và thay thế bằng cửa sổ ngữ cảnh chuẩn
- Các beta OAuth cần thiết vẫn được giữ nguyên
Backend Claude CLI
- OpenClaw hỗ trợ backend Anthropic
claude-cli đi kèm
- Nhân viên Anthropic cho biết cách sử dụng này lại được cho phép
- Theo đó, cho tới khi Anthropic công bố chính sách mới, OpenClaw xem tái sử dụng Claude CLI và việc dùng
claude -p là các cách tích hợp được cho phép
- Với host gateway luôn bật và việc kiểm soát tính phí phía máy chủ một cách tường minh, khóa API Anthropic là con đường vận hành rõ ràng nhất
- Chi tiết cấu hình và thực thi xem tại đường dẫn
/gateway/cli-backends
Ghi chú tham khảo
- Tài liệu công khai về Claude Code của Anthropic vẫn đang ghi nhận cách dùng CLI trực tiếp như
claude -p
- Nhân viên Anthropic đã cho biết việc dùng Claude CLI theo kiểu OpenClaw lại được cho phép, và cho tới khi Anthropic công bố thay đổi chính sách mới, điều này được xem là hướng dẫn đã được xác nhận
- OpenClaw cũng tiếp tục cung cấp Anthropic setup-token như một đường xác thực bằng token được hỗ trợ
- Tuy nhiên, khi có thể, OpenClaw ưu tiên hơn cách tái sử dụng Claude CLI và
claude -p
- Chi tiết về xác thực và quy tắc tái sử dụng xem tại đường dẫn
/concepts/oauth
Khắc phục sự cố
-
Lỗi 401 / token đột nhiên không hợp lệ
- Xác thực bằng token Anthropic có thể hết hạn hoặc bị thu hồi
- Với cấu hình mới, nên chuyển sang khóa API Anthropic
-
No API key found for provider “anthropic”
- Xác thực được áp dụng theo từng agent
- Agent mới không kế thừa khóa của agent chính
- Cần chạy lại onboarding cho agent đó, hoặc thiết lập khóa API trên host gateway rồi kiểm tra bằng
openclaw models status
-
No credentials found for profile anthropic:default
- Có thể kiểm tra hồ sơ xác thực nào đang hoạt động bằng
openclaw models status
- Cần chạy lại onboarding hoặc thiết lập khóa API tại đường dẫn hồ sơ tương ứng
-
No available auth profile (all in cooldown/unavailable)
- Có thể kiểm tra
auth.unusableProfiles trong openclaw models status --json
- Thời gian cooldown do rate limit của Anthropic có thể áp dụng theo từng model, nên ngay cả khi model hiện tại đang cooldown thì một model Anthropic khác cùng họ vẫn có thể dùng được
- Cần thêm hồ sơ Anthropic khác hoặc chờ cooldown kết thúc
- Có thêm các đường dẫn
/gateway/troubleshooting và /help/faq
7 bình luận
Sau khi dùng Codex để bật khả năng sử dụng model cục bộ gemma4 31b ngay trong codex (còn kỹ tính đến mức tự kiểm tra cả multi-turn nữa!), tôi đã hủy hết các gói đăng ký khác ngoài ChatGPT Pro. Kết hợp codex-app-linux với hai thứ này thì ngay cả khi chạy tác vụ ở mức song song tối đa mà tôi có thể nhận thức được, vẫn còn dư hạn mức sử dụng.
Thật lòng mà nói thì trông khá là chán...
Có vẻ chỉ là biện pháp tạm thời vì họ định không cho người dùng Pro dùng Claude Code, nhưng phản ứng dư luận không tốt nên mới làm vậy thôi..
Dù vậy, có lẽ trước mắt vẫn nên cứ quan sát đã, còn hơn là lỡ dùng sai rồi bị khóa tài khoản.
Từng đau đầu vì phải dùng khóa API OAuth của CC, nhưng rồi tôi cứ thế chuyển hẳn sang dùng Codex trước đây...
Thật ra dạo này tôi cũng gần như chuyển hẳn sang Codex.. Claude ngốn token quá nhanh.
Ý kiến trên Hacker News
Tôi là Peter của OpenClaw. Boris từ Claude Code đã công khai nói trên Twitter rằng được phép dùng theo kiểu CLI, nên tôi tin vào hướng dẫn đó và đã đầu tư triển khai theo hướng này. Khi dùng CLI, tôi cũng đã đổi để mặc định tắt các tính năng ngốn token quá mức như heartbeat, nhưng trên thực tế Anthropic vẫn đang chặn một phần system prompt, nên những gì họ công khai nói không khớp với cách hệ thống đang hoạt động. Có thể xem phát biểu liên quan ở đây. Có vẻ như sau khi mọi người lách bằng cách chỉ đổi tên một chút thì cả bộ phân loại cũng thay đổi theo, nhưng tôi không định chơi trò mèo vờn chuột để lách luật kiểu đó, nên giờ rơi vào trạng thái mập mờ: trên lý thuyết thì được, nhưng thực tế thì không
claude -pkhá sâu. Nhưng với việc thêm cờ--baremới, có vẻ như-pdành cho người dùng gói unlimited đang bị đẩy ra rìa theo kiểu rug pull. Trong tài liệu cũng ghi rằng--barelà chế độ được khuyến nghị cho script và các lời gọi SDK, và về sau sẽ trở thành mặc định của-p, nên tôi hy vọng là mình đã hiểu sai, hoặc ít nhất cần một lời giải thích rõ ràng. Tài liệu ở headless docsclaude -phoặc với SDK tốt hơnTôi thật sự thấy tình hình hiện tại như một vũng bùn mờ mịt. Anthropic cần nói rõ cái gì được hỗ trợ và cái gì không, tùy theo có thuê bao hay không, vì nếu không thì người dùng rất khó biết mình đang đứng ở đâu và nên dùng sản phẩm thế nào. Hiện tại tôi cũng không dùng OpenClaw hay sản phẩm tương tự, nhưng ít nhất tôi muốn biết cái gì được làm và cái gì không, còn bây giờ thì điều đó gần như bất khả thi
vibe product. Dạo này mọi thứ xuất hiện rồi biến mất quá nhanh, nên cảm giác kỳ vọng như trước đây đã giảm đi nhiềuTheo tôi, điểm mấu chốt là nhân viên Anthropic trên Twitter đã đưa ra những giải thích mâu thuẫn nhau, rồi còn đính chính qua lại, khiến mọi thứ càng rối hơn. Hôm nay họ nói kiểu dùng Claude CLI theo phong cách OpenClaw là ổn, nhưng ngày mai có thể lại rút lời bằng một bản cập nhật chính sách. Về Claude Code, Anthropic đã thể hiện là bên khó đáng tin, và nếu muốn giữ sức khỏe tinh thần thì có lẽ nên chuyển sang nhà cung cấp khác
keep your insanitylại khiến tôi bật cười vì nghe chuẩn quá mứcclaude -psang diện tính phí bổ sung. Vì vậy tôi không thấy trang này mâu thuẫn với thông báo đóThay đổi này thực ra đã quay trở lại từ 2 tuần trước qua một commit và thời điểm đó cũng chỉ 3 ngày sau khi Anthropic nói OpenClaw cần mức sử dụng bổ sung. Nhìn vào diễn biến này thì rất khó để xem là nghiêm túc, mà việc không có nổi một tuyên bố chính thức hay dù chỉ một Tweet cũng rất kỳ lạ. Bối cảnh khác có thể xem ở liên kết HN
Open-Claw style CLI usagecó nghĩa gần với trường hợp thứ hai, còn nếu dùng OAuth credential bên ngoài Claude Code CLI thì tôi hiểu là sẽ bị tính thêm theo giá API ngoài gói thuê bao hiện cóclaude -pvào diện bị tính thêmCó cảm giác Anthropic đang đốt sạch thiện chí mà họ đã tích lũy được bằng cách tăng giá, siết hạn mức và giữ chính sách mơ hồ
Vì chuyện này xảy ra ngay sau khi ký hợp đồng với Amazon, tôi tự hỏi liệu cuối cùng đây có phải chỉ là vấn đề giới hạn compute hay không. Dù sao đi nữa, gói Codex 20 đô một tháng mà tôi từng dùng có hạn mức thấp đến mức agent còn chưa kịp làm được gì tử tế trước khi phải nhảy sang agent khác. Chừng nào Anthropic còn chưa có thông báo chính thức, có lẽ tôi sẽ còn thận trọng quan sát thêm một thời gian vì sợ dùng kiểu này rồi mất tài khoản Max 200 đô một tháng mà mình rất quý
Theo hiểu biết của tôi, miễn là dùng thư viện hoặc công cụ của Anthropic thì vẫn có thể dùng thông tin xác thực OAuth. Ví dụ, có thể gắn OAuth vào Claude Agent SDK để prototype nhiều loại agent nhúng Claude Code trong một mức chi phí tháng dễ dự đoán, và điều này đặc biệt hấp dẫn khi biến skill thành công cụ hoặc ứng dụng độc lập. Phức tạp hơn nữa, bạn có thể chạy Claude Code trong tmux rồi giao tiếp đầu vào đầu ra với nó; MCP Channels cũng khá thú vị, vì nó cho phép đặt một máy chủ MCP ở giữa ứng dụng và một instance Claude Code đang chạy để giao tiếp hai chiều. Tốc độ thì chậm, nhưng cách dùng kiểu tạm rời khỏi ngữ cảnh phiên CLI để làm việc nào đó dễ hơn trên GUI rồi quay lại mà không bị mất mạch ngữ cảnh nghe vẫn rất thú vị
Trong khoảng một tuần qua, trợ lý phụ OpenClaw của tôi khi dùng Claude đã mất dần cá tính, và rơi vào trạng thái không làm tốt cả những việc trước đây vốn làm rất ổn. Mức sử dụng đã cộng dồn lên khoảng 28 đô, rồi sau đó không tăng thêm nữa, nên tôi cũng không rõ có vấn đề khác hay không, nhưng hiện tượng đó vẫn tiếp diễn. Cuối cùng tôi chán quá nên dùng script migrate để chuyển lịch sử hội thoại và tính cách sang cấu hình claude code, và nhờ tính năng remote exec mới nên tôi đã lấy lại được phần lớn chức năng cũ mà không phải chấp nhận sự bất ổn của các công cụ thử nghiệm mới nhất như OpenClaw. Theo cảm nhận của tôi thì Anthropic ngay từ đầu đã định tạo đủ mức ma sát với nhóm người dùng hobby để đẩy họ sang giải pháp độc quyền của chính họ, và dù sao thì hướng đó cũng có vẻ là lựa chọn an toàn hơn
claude -p promptvà cron thì Anthropic có vui vẻ với chuyện đó hay không; có lẽ họ không bận tâm vì số người thực sự làm được vậy nằm trong sai số thống kê. Có thể tham khảo thêm bối cảnh ở bài HN nàyCái cấu trúc kiểu OpenClaw nói rằng
Anthropic bảo là ổnđúng là một tình huống rõ như pha lê, nghe thật mỉa maiTôi nhìn chung khá hài lòng với tổ hợp Claude Code, Opus và gói Max, nhưng thỉnh thoảng vẫn thấy lấn cấn vì có lúc không hoạt động, chi phí, và cả nỗi lo bị khóa tài khoản. Nên tôi đang muốn biết có tổ hợp thay thế nào cho trải nghiệm tương đương hoặc tốt hơn mà rẻ hơn không. Tôi thấy nhiều người khen pi.dev và OpenCode; tôi cũng đã thử ghép Mimo V2 pro với OpenCode và thấy khá ổn. Trước đây tôi còn dùng Qwen CLI và Gemini CLI trước khi bản miễn phí bị chặn, và cũng từng dùng Z.ai cùng với OpenCode. Ngoài ra có người nói họ dùng Opus để lập kế hoạch rồi chuyển các việc ít quan trọng hơn sang model rẻ hơn, nhưng tôi không thích kiểu tính phí theo mức sử dụng vì cảm giác cuối cùng cũng chưa chắc rẻ hơn. Tôi chủ yếu làm backend Python và frontend TypeScript, host trên Hetzner, dùng Docker nhiều và khi cần thì dùng cả k3s, nên rất muốn nghe chia sẻ về những thiết lập thực chiến phù hợp với môi trường như vậy
Nếu không có prompt caching thì có vẻ token sẽ cứ thế mà bốc hơi mất thôi.