6 điểm bởi GN⁺ 13 giờ trước | 7 bình luận | Chia sẻ qua WhatsApp
  • Đại diện Anthropic thông báo rằng việc dùng Claude CLI theo kiểu OpenClaw lại được cho phép
  • Hỗ trợ đồng thời khóa API Anthropictái sử dụng Claude CLI, đồng thời các hồ sơ token Anthropic hiện có vẫn tiếp tục được chấp nhận khi chạy
  • Backend Claude CLI của Anthropic lại được xử lý như một cách tích hợp được cho phép, và việc dùng claude -p cũng được cho phép cho đến khi có công bố chính sách mới
  • Với các model Claude 4.6, khi không có thiết lập thinking tường minh thì adaptive thinking được áp dụng mặc định, và có thể ghi đè bằng /think:<level> hoặc tham số model
  • Công tắc /fast chỉ chèn service_tier cho các yêu cầu đi trực tiếp đến api.anthropic.com; nếu đi qua proxy hoặc gateway thì thay đổi tier sẽ không được áp dụng
  • Cũng hỗ trợ prompt cachingcửa sổ ngữ cảnh 1M, nhưng cache chỉ dành cho API, còn ngữ cảnh 1M cần được bật tường minh và phải được phép dùng long-context; với xác thực sk-ant-oat-* hiện có thì header beta sẽ bị loại bỏ

Cách hỗ trợ Anthropic

  • Hỗ trợ đồng thời API và Claude CLI như các đường truy cập vào họ model Claude, và trong OpenClaw có thể dùng cả khóa API Anthropic lẫn tái sử dụng Claude CLI
    • Các hồ sơ token Anthropic hiện có đã được thiết lập cũng vẫn tiếp tục được chấp nhận khi chạy
  • Khóa API Anthropic

    • Đây là đường đi phù hợp cho truy cập API chuẩn và tính phí theo mức sử dụng
    • Có thể tạo khóa API trong Anthropic Console
    • Trong ví dụ cấu hình CLI, có thể chọn Anthropic API key trong openclaw onboard
    • Hỗ trợ cách không tương tác qua openclaw onboard --anthropic-api-key "$ANTHROPIC_API_KEY"
    • Trong ví dụ snippet cấu hình, dùng biến môi trường ANTHROPIC_API_KEY và model mặc định anthropic/claude-opus-4-6

Giá trị mặc định cho Thinking

  • Với các model Claude 4.6, OpenClaw sẽ áp dụng adaptive thinking làm mặc định khi không có mức thinking được chỉ định tường minh
  • Có thể ghi đè theo từng tin nhắn bằng /think:<level> hoặc bằng tham số model agents.defaults.models["anthropic/<model>"].params.thinking
  • Có kèm liên kết tài liệu liên quan tới Adaptive thinkingExtended thinking

Fast mode

  • Công tắc chia sẻ /fast của OpenClaw cũng hỗ trợ lưu lượng Anthropic công khai được gửi trực tiếp tới api.anthropic.com
    • Bao gồm cả xác thực bằng khóa API và yêu cầu xác thực OAuth
  • /fast on được ánh xạ thành service_tier: "auto"
  • /fast off được ánh xạ thành service_tier: "standard_only"
  • Trong ví dụ giá trị mặc định của cấu hình, model anthropic/claude-sonnet-4-6 dùng params.fastMode: true
  • Hạn chế

    • OpenClaw chỉ chèn service tier của Anthropic cho các yêu cầu trực tiếp tới api.anthropic.com
    • Nếu các yêu cầu anthropic/* được chuyển vòng qua proxy hoặc gateway thì /fast sẽ không thay đổi service_tier
    • Nếu có tham số model serviceTier hoặc service_tier được chỉ định tường minh thì chúng sẽ được ưu tiên hơn giá trị mặc định của /fast
    • Anthropic ghi lại tier thực tế đã áp dụng trong usage.service_tier của phản hồi
    • Với các tài khoản không có Priority Tier capacity, service_tier: "auto" vẫn có thể bị hiểu là standard

Prompt caching

  • OpenClaw hỗ trợ tính năng prompt caching của Anthropic
  • Tính năng này chỉ dành cho API; xác thực bằng token Anthropic hiện có sẽ không phản ánh thiết lập cache
  • Cấu hình

    • Dùng tham số cacheRetention trong cấu hình model
    • none là tắt cache
    • short là cache 5 phút
    • long là cache mở rộng 1 giờ
    • Trong ví dụ cấu hình, model anthropic/claude-opus-4-6 dùng params.cacheRetention: "long"
  • Mặc định

    • Khi dùng xác thực bằng khóa API Anthropic, tất cả model Anthropic sẽ tự động áp dụng cacheRetention: "short"
    • Có thể ghi đè giá trị mặc định này bằng cách đặt cacheRetention tường minh
  • Ghi đè theo từng agent

    • Có thể dùng tham số ở cấp model làm đường cơ sở, rồi ghi đè riêng cho từng agent bằng agents.list[].params
    • Trong ví dụ, research dùng cấu hình mặc định còn alerts áp dụng cacheRetention: "none"
    • Thứ tự hợp nhất tham số liên quan đến cache là agents.defaults.models["provider/model"].params rồi đến agents.list[].params
    • Ngay cả khi dùng cùng một model, một agent có thể giữ cache dài hạn còn agent khác có thể tắt cache
    • Ví dụ về mục đích tắt cache có nhắc tới việc tránh chi phí ghi trong các lưu lượng mang tính burst hoặc ít tái sử dụng
  • Ghi chú về Bedrock Claude

    • Với model Anthropic Claude trên Bedrock amazon-bedrock/*anthropic.claude*, nếu được cấu hình thì việc truyền cacheRetention được hỗ trợ
    • Các model Bedrock không phải Anthropic sẽ bị ép thành cacheRetention: "none" khi chạy
    • Mặc định thông minh dựa trên khóa API Anthropic cũng áp dụng cacheRetention: "short" cho các tham chiếu model Claude-on-Bedrock khi không có giá trị tường minh

Cửa sổ ngữ cảnh 1M

  • 1M context window của Anthropic là tính năng beta bị giới hạn, và trong OpenClaw có thể bật bằng params.context1m: true cho từng model Opus/Sonnet được hỗ trợ
  • Trong ví dụ cấu hình, model anthropic/claude-opus-4-6 dùng params.context1m: true
  • OpenClaw ánh xạ điều này thành header anthropic-beta: context-1m-2025-08-07 trong yêu cầu gửi tới Anthropic
  • Tính năng này chỉ được bật khi params.context1m được đặt tường minh là true cho model đó
  • Điều kiện sử dụng là Anthropic phải cho phép long-context usage đối với thông tin xác thực đó
  • Hiện tại, Anthropic từ chối các yêu cầu beta context-1m-* khi dùng xác thực bằng token Anthropic hiện có sk-ant-oat-*
  • Nếu đặt context1m: true trong chế độ xác thực hiện có, OpenClaw sẽ ghi log cảnh báo, bỏ qua header beta context1m, và thay thế bằng cửa sổ ngữ cảnh chuẩn
    • Các beta OAuth cần thiết vẫn được giữ nguyên

Backend Claude CLI

  • OpenClaw hỗ trợ backend Anthropic claude-cli đi kèm
  • Nhân viên Anthropic cho biết cách sử dụng này lại được cho phép
  • Theo đó, cho tới khi Anthropic công bố chính sách mới, OpenClaw xem tái sử dụng Claude CLI và việc dùng claude -p là các cách tích hợp được cho phép
  • Với host gateway luôn bật và việc kiểm soát tính phí phía máy chủ một cách tường minh, khóa API Anthropic là con đường vận hành rõ ràng nhất
  • Chi tiết cấu hình và thực thi xem tại đường dẫn /gateway/cli-backends

Ghi chú tham khảo

  • Tài liệu công khai về Claude Code của Anthropic vẫn đang ghi nhận cách dùng CLI trực tiếp như claude -p
  • Nhân viên Anthropic đã cho biết việc dùng Claude CLI theo kiểu OpenClaw lại được cho phép, và cho tới khi Anthropic công bố thay đổi chính sách mới, điều này được xem là hướng dẫn đã được xác nhận
  • OpenClaw cũng tiếp tục cung cấp Anthropic setup-token như một đường xác thực bằng token được hỗ trợ
  • Tuy nhiên, khi có thể, OpenClaw ưu tiên hơn cách tái sử dụng Claude CLIclaude -p
  • Chi tiết về xác thực và quy tắc tái sử dụng xem tại đường dẫn /concepts/oauth

Khắc phục sự cố

  • Lỗi 401 / token đột nhiên không hợp lệ

    • Xác thực bằng token Anthropic có thể hết hạn hoặc bị thu hồi
    • Với cấu hình mới, nên chuyển sang khóa API Anthropic
  • No API key found for provider “anthropic”

    • Xác thực được áp dụng theo từng agent
    • Agent mới không kế thừa khóa của agent chính
    • Cần chạy lại onboarding cho agent đó, hoặc thiết lập khóa API trên host gateway rồi kiểm tra bằng openclaw models status
  • No credentials found for profile anthropic:default

    • Có thể kiểm tra hồ sơ xác thực nào đang hoạt động bằng openclaw models status
    • Cần chạy lại onboarding hoặc thiết lập khóa API tại đường dẫn hồ sơ tương ứng
  • No available auth profile (all in cooldown/unavailable)

    • Có thể kiểm tra auth.unusableProfiles trong openclaw models status --json
    • Thời gian cooldown do rate limit của Anthropic có thể áp dụng theo từng model, nên ngay cả khi model hiện tại đang cooldown thì một model Anthropic khác cùng họ vẫn có thể dùng được
    • Cần thêm hồ sơ Anthropic khác hoặc chờ cooldown kết thúc
    • Có thêm các đường dẫn /gateway/troubleshooting/help/faq

7 bình luận

 

Sau khi dùng Codex để bật khả năng sử dụng model cục bộ gemma4 31b ngay trong codex (còn kỹ tính đến mức tự kiểm tra cả multi-turn nữa!), tôi đã hủy hết các gói đăng ký khác ngoài ChatGPT Pro. Kết hợp codex-app-linux với hai thứ này thì ngay cả khi chạy tác vụ ở mức song song tối đa mà tôi có thể nhận thức được, vẫn còn dư hạn mức sử dụng.

 
ingwannu 7 giờ trước

Thật lòng mà nói thì trông khá là chán...
Có vẻ chỉ là biện pháp tạm thời vì họ định không cho người dùng Pro dùng Claude Code, nhưng phản ứng dư luận không tốt nên mới làm vậy thôi..

 
jimmy2056 7 giờ trước

Dù vậy, có lẽ trước mắt vẫn nên cứ quan sát đã, còn hơn là lỡ dùng sai rồi bị khóa tài khoản.

 

Từng đau đầu vì phải dùng khóa API OAuth của CC, nhưng rồi tôi cứ thế chuyển hẳn sang dùng Codex trước đây...

 

Thật ra dạo này tôi cũng gần như chuyển hẳn sang Codex.. Claude ngốn token quá nhanh.

 
Ý kiến trên Hacker News
  • Tôi là Peter của OpenClaw. Boris từ Claude Code đã công khai nói trên Twitter rằng được phép dùng theo kiểu CLI, nên tôi tin vào hướng dẫn đó và đã đầu tư triển khai theo hướng này. Khi dùng CLI, tôi cũng đã đổi để mặc định tắt các tính năng ngốn token quá mức như heartbeat, nhưng trên thực tế Anthropic vẫn đang chặn một phần system prompt, nên những gì họ công khai nói không khớp với cách hệ thống đang hoạt động. Có thể xem phát biểu liên quan ở đây. Có vẻ như sau khi mọi người lách bằng cách chỉ đổi tên một chút thì cả bộ phân loại cũng thay đổi theo, nhưng tôi không định chơi trò mèo vờn chuột để lách luật kiểu đó, nên giờ rơi vào trạng thái mập mờ: trên lý thuyết thì được, nhưng thực tế thì không

    • Không chỉ OpenClaw, rất nhiều người cũng đã tin vào Tweet đó và xây workflow dựa trên claude -p khá sâu. Nhưng với việc thêm cờ --bare mới, có vẻ như -p dành cho người dùng gói unlimited đang bị đẩy ra rìa theo kiểu rug pull. Trong tài liệu cũng ghi rằng --bare là chế độ được khuyến nghị cho script và các lời gọi SDK, và về sau sẽ trở thành mặc định của -p, nên tôi hy vọng là mình đã hiểu sai, hoặc ít nhất cần một lời giải thích rõ ràng. Tài liệu ở headless docs
    • Nhân nói về phạm vi được phép, tôi cũng tò mò không rõ phạm vi sử dụng quota Codex của OpenAI là thế nào. Tôi hiểu là dùng trong OpenClaw thì được phép, nhưng chưa tìm được câu trả lời liệu có được để người dùng tiêu quota Codex của chính họ trong các coding harness khác hoặc trong ứng dụng trả phí hay không. Với các bên nhỏ hơn, rất khó trợ giá chi phí token, nên nếu chính sách này được mở thì số chỗ có thể ứng dụng sẽ tăng mạnh. Nhưng vì đặc thù mô hình thuê bao, cũng có cảm giác họ cố tình để mơ hồ, nên càng thấy bức bối hơn
    • Tôi nghĩ chỉ cần gắn rate limit đơn giản lên OAuth token là đủ. Nguyên tắc cũng đơn giản thôi: gói thuê bao dùng cho mức sử dụng ở quy mô con người có thể hiểu được, còn API key thì dùng cho các loại tự động hóa khác. Theo tôi, Anthropic nên giới hạn việc dùng theo kiểu máy móc, nhưng vẫn cho phép mọi người dùng OAuth token của mình để tạo workflow với claude -p hoặc với SDK tốt hơn
    • Tôi cũng hiểu là Anthropic đang ở vào thế khó. Nếu ví von thì giống như Waymo đang có gói thuê bao được trợ giá, nhưng người dùng lại bắt đầu hẹn giờ xe không người lái theo cách khác với mục đích ban đầu. Thi thoảng gửi xe đi mua đồ ăn vặt thì có vẻ ổn, nhưng để nó ngày nào cũng đi mua một cây kem vào cùng một giờ thì lại rơi vào vùng ranh giới mập mờ. Vấn đề là nếu họ đặt tiêu chí quá rõ thì mọi người lại tìm cách lách đúng phần câu chữ đó để khai thác tính kinh tế, nhưng xóa luôn cả gói được tạo ra cho người dùng bình thường thì cũng có vẻ không đúng
    • Bây giờ có vẻ như họ đang cố chỉnh lại hướng đi, nhưng tôi cảm thấy niềm tin đã bị hao hụt rất nhiều rồi. Hơn nữa, nếu tính cả các giới hạn mới bị siết thấp hơn, tôi không chắc còn đủ giá trị để tiếp tục dùng trong OpenClaw hay không
  • Tôi thật sự thấy tình hình hiện tại như một vũng bùn mờ mịt. Anthropic cần nói rõ cái gì được hỗ trợ và cái gì không, tùy theo có thuê bao hay không, vì nếu không thì người dùng rất khó biết mình đang đứng ở đâu và nên dùng sản phẩm thế nào. Hiện tại tôi cũng không dùng OpenClaw hay sản phẩm tương tự, nhưng ít nhất tôi muốn biết cái gì được làm và cái gì không, còn bây giờ thì điều đó gần như bất khả thi

    • Thấy Anthropic thay đổi những gì người dùng nhận được theo từng tuần, tôi không muốn chi quá mức giấy phép cho dân hobby. Sản phẩm có thể rất tốt, nhưng cảm giác nó còn phụ thuộc vào việc bạn dùng lúc nào và công ty lúc đó đánh giá ra sao. Vì vậy, việc hiện có khá nhiều mô hình trọng số mở tạo ra một mức trần cho những hành vi không đẹp lại khiến tôi yên tâm hơn
    • Tôi muốn dùng một custom harness có thể tự mở rộng hoặc tự gắn harness do mình viết với giấy phép Claude Code, đồng thời nếu có thể thì cũng muốn giảm chi phí token. Theo tôi, Anthropic cần đặt ra tiêu chí để các model tiếp theo giảm mức tiêu thụ token hoặc giảm chi phí vận hành. Nếu throughput tương đương thì chậm hơn một chút cũng không sao, miễn là chi phí giảm và tôi có thể dùng cùng harness do mình tạo
    • Điều tôi lo là khâu giao tiếp tệ và việc liên tục đổi giọng đổi lời. Một trong các workflow cốt lõi của tôi là các hook script định tuyến từng tác vụ sang nhiều model khác nhau, mà cũng không ai biết sau này thứ đó có bị cấm hay không. Vì Anthropic không thể đưa ra lời giải thích nhất quán nên rất khó đầu tư vào hệ sinh thái của họ
    • Tôi hơi ngạc nhiên vì sao mọi người lại bất ngờ đến vậy. Như trường hợp Twitter API trước đây, tôi thấy mô-típ này lặp đi lặp lại: API được mở khi nó giúp giải quyết vấn đề trước mắt của công ty, nhưng về sau khi công ty tự làm ra tính năng mà người dùng thực sự dùng, thì những kiểu sử dụng mang tính client cạnh tranh sẽ bị chặn
    • Để đối lại với vibe coding, tôi nghĩ đến cụm vibe product. Dạo này mọi thứ xuất hiện rồi biến mất quá nhanh, nên cảm giác kỳ vọng như trước đây đã giảm đi nhiều
  • Theo tôi, điểm mấu chốt là nhân viên Anthropic trên Twitter đã đưa ra những giải thích mâu thuẫn nhau, rồi còn đính chính qua lại, khiến mọi thứ càng rối hơn. Hôm nay họ nói kiểu dùng Claude CLI theo phong cách OpenClaw là ổn, nhưng ngày mai có thể lại rút lời bằng một bản cập nhật chính sách. Về Claude Code, Anthropic đã thể hiện là bên khó đáng tin, và nếu muốn giữ sức khỏe tinh thần thì có lẽ nên chuyển sang nhà cung cấp khác

    • Cái kiểu gõ nhầm mà như không nhầm keep your insanity lại khiến tôi bật cười vì nghe chuẩn quá mức
    • Tôi không hiểu tại sao những thông báo kiểu này cứ phải đăng trên Twitter. Họ nên công bố chính sách bằng một bài đăng blog chính thức, và nêu rõ các harness thay thế phải hoạt động như thế nào. Cách làm hiện giờ trông thật sự rất thiếu chuyên nghiệp
    • Tôi cũng thấy cách truyền đạt tin này rất kỳ cục. Tôi không hiểu vì sao OpenClaw lại là bên thông báo chuyện này chứ không phải Anthropic, và cho đến khi Anthropic tự nói thì tôi vẫn khó mà tin ngay được
    • Theo tôi thấy thì thông báo gần đây nhất của Anthropic là việc người dùng thuê bao sẽ bị tính phí bổ sung khi dùng OpenClaw, chứ không phải bị cấm. Và lý do thay đổi sau vài ngày có lẽ là vì thay vì chặn ngay kiểu dùng OAuth token trực tiếp trong harness bên thứ ba như trước, họ muốn chuyển cả kiểu dùng đó lẫn kiểu dùng claude -p sang diện tính phí bổ sung. Vì vậy tôi không thấy trang này mâu thuẫn với thông báo đó
    • Tôi ví chuyện đổi nhà cung cấp dịch vụ với trải nghiệm qua lại giữa Uber One và Lyft Pink. Cứ mỗi lần chăm sóc khách hàng quá tệ là tôi lại đổi, nhưng cuối cùng lại rút ra kết luận rằng tốt hơn hết là chọn một con quỷ quen thuộc rồi học cách thích nghi với tính cách của nó. Hiện tôi vẫn ở lại với Claude vì ảnh hưởng từ vụ OpenClaw với tôi không lớn, và cũng vì cảm thấy khó chịu với câu chuyện Hegseth-Altman DoD. Nhưng nói thật thì Google, Anthropic hay OpenAI đều không thể xem là đặc biệt gương mẫu trong cách giao tiếp về AI và chăm sóc khách hàng
  • Thay đổi này thực ra đã quay trở lại từ 2 tuần trước qua một commit và thời điểm đó cũng chỉ 3 ngày sau khi Anthropic nói OpenClaw cần mức sử dụng bổ sung. Nhìn vào diễn biến này thì rất khó để xem là nghiêm túc, mà việc không có nổi một tuyên bố chính thức hay dù chỉ một Tweet cũng rất kỳ lạ. Bối cảnh khác có thể xem ở liên kết HN

    • Theo tôi, lý do gây nhầm lẫn là vì có hai cách dùng thông tin xác thực Claude Code. Một là lấy OAuth credential để tạo agent riêng của mình, và cách này không được phép. Hai là chạy trực tiếp ứng dụng agent bên trong phiên Claude Code chính thức, và cách này thì được phép. Cái mà OpenClaw gọi là Open-Claw style CLI usage có nghĩa gần với trường hợp thứ hai, còn nếu dùng OAuth credential bên ngoài Claude Code CLI thì tôi hiểu là sẽ bị tính thêm theo giá API ngoài gói thuê bao hiện có
    • Tôi cũng thấy điều này nhìn chung khá nhất quán với thông báo gần đây của Anthropic. Không có chỗ nào ở đây viết là không có tính phí bổ sung cả; điểm cốt lõi là cách hiểu đã chuyển từ cấm sang việc đưa cả kiểu dùng OAuth token trực tiếp trong harness bên thứ ba lẫn kiểu dùng claude -p vào diện bị tính thêm
    • Nếu nói không có thông báo chính thức hay Tweet nào, thì nửa đùa nửa thật tôi chỉ biết đáp rằng release notes và thông báo giờ có khi là một agentic anti-pattern. Cứ như thể còn đi cập nhật mấy thứ đó thì là đang làm agentic sai cách vậy
    • Tôi cũng thấy phản ứng này có phần giống kiểu khuếch đại FUD điển hình. Những diễn giải tiêu cực thì bị đẩy lên rất mạnh, còn tín hiệu tích cực thì lại bị chìm đi
  • Có cảm giác Anthropic đang đốt sạch thiện chí mà họ đã tích lũy được bằng cách tăng giá, siết hạn mức và giữ chính sách mơ hồ

    • Những thay đổi kiểu này khiến tôi liên tưởng đến kỹ thuật luộc ếch: tăng nhiệt từ từ
    • Nói ngược lại thì để dịch vụ LLM tiếp tục tồn tại, rốt cuộc nhà cung cấp vẫn phải kiếm được nhiều tiền hơn chi phí hosting. Mà theo tôi, chúng ta hiện vẫn còn khá xa điểm đó
    • Nhìn cảnh này lại chỉ khiến người ta buột miệng châm biếm rằng hãy nghĩ cho cổ đông một chút
    • Cứ thế này thì lại giống như đang đẩy người dùng sang các bản clone từ Trung Quốc mà Anthropic xem là tác nhân xấu
    • Mặt khác, đây cũng có thể chỉ là công ty đang đi đúng theo những gì Hacker News từ trước tới giờ vẫn nói về bài toán bền vững. AI thì hữu ích, nhưng tính bền vững thì bất định; giờ họ tăng giá và giảm token thì ai cũng tức giận, nghe khá mỉa mai
  • Vì chuyện này xảy ra ngay sau khi ký hợp đồng với Amazon, tôi tự hỏi liệu cuối cùng đây có phải chỉ là vấn đề giới hạn compute hay không. Dù sao đi nữa, gói Codex 20 đô một tháng mà tôi từng dùng có hạn mức thấp đến mức agent còn chưa kịp làm được gì tử tế trước khi phải nhảy sang agent khác. Chừng nào Anthropic còn chưa có thông báo chính thức, có lẽ tôi sẽ còn thận trọng quan sát thêm một thời gian vì sợ dùng kiểu này rồi mất tài khoản Max 200 đô một tháng mà mình rất quý

    • Trải nghiệm của tôi lại khá khác. Tôi bắt đầu với Claude web và Opus 4.7 rồi nối tiếp sang Claude Code, và chỉ sau khoảng 6 đến 10 prompt là đã ăn hết hai chu kỳ quota. Trong khi đó với pi.dev và codex thì tôi làm việc được hàng giờ và mới chỉ dùng khoảng 50% gói Codex Pro. Vì thế tôi cảm thấy sự khác biệt về mẫu tiêu thụ là khá lớn
    • Nếu cần dùng khối lượng lớn thì Z.ai cũng đáng cân nhắc. GLM bây giờ khá tốt, dù đôi lúc API vẫn thiếu ổn định. Trước đây tôi chủ yếu dùng GLM và chỉ dùng Claude Pro cho việc review và tổng hợp, còn giờ thì gần như chỉ dùng GLM. Claude Max cũng không hẳn quá tệ về hiệu quả chi phí, nhưng với tôi thì vượt quá nhu cầu, mà thiện cảm với Anthropic cũng đang giảm dần
    • Theo tôi nhớ thì ngay từ đầu Anthropic đã nói đây là vấn đề giới hạn compute, và OpenClaw tạo ra mức sử dụng cao hơn rất nhiều so với mức họ có thể gánh
    • Tôi thấy GPT-5.4 đúng là kiểu ngốn token khủng khiếp. Dù nói ít, gpt-5.3 codex vẫn rất thông minh ở việc code và lập kế hoạch, đồng thời tiêu token ít hơn hẳn
  • Theo hiểu biết của tôi, miễn là dùng thư viện hoặc công cụ của Anthropic thì vẫn có thể dùng thông tin xác thực OAuth. Ví dụ, có thể gắn OAuth vào Claude Agent SDK để prototype nhiều loại agent nhúng Claude Code trong một mức chi phí tháng dễ dự đoán, và điều này đặc biệt hấp dẫn khi biến skill thành công cụ hoặc ứng dụng độc lập. Phức tạp hơn nữa, bạn có thể chạy Claude Code trong tmux rồi giao tiếp đầu vào đầu ra với nó; MCP Channels cũng khá thú vị, vì nó cho phép đặt một máy chủ MCP ở giữa ứng dụng và một instance Claude Code đang chạy để giao tiếp hai chiều. Tốc độ thì chậm, nhưng cách dùng kiểu tạm rời khỏi ngữ cảnh phiên CLI để làm việc nào đó dễ hơn trên GUI rồi quay lại mà không bị mất mạch ngữ cảnh nghe vẫn rất thú vị

    • Thật ra với Claude Code CLI thì không nhất thiết phải cần tmux. Bản thân CLI đã hỗ trợ đầu vào và đầu ra streaming JSON, nên có thể điều khiển bằng pipe qua stdin và stdout. Tôi hiện đang dùng cách này trong ask, và nó hoạt động khá ổn
  • Trong khoảng một tuần qua, trợ lý phụ OpenClaw của tôi khi dùng Claude đã mất dần cá tính, và rơi vào trạng thái không làm tốt cả những việc trước đây vốn làm rất ổn. Mức sử dụng đã cộng dồn lên khoảng 28 đô, rồi sau đó không tăng thêm nữa, nên tôi cũng không rõ có vấn đề khác hay không, nhưng hiện tượng đó vẫn tiếp diễn. Cuối cùng tôi chán quá nên dùng script migrate để chuyển lịch sử hội thoại và tính cách sang cấu hình claude code, và nhờ tính năng remote exec mới nên tôi đã lấy lại được phần lớn chức năng cũ mà không phải chấp nhận sự bất ổn của các công cụ thử nghiệm mới nhất như OpenClaw. Theo cảm nhận của tôi thì Anthropic ngay từ đầu đã định tạo đủ mức ma sát với nhóm người dùng hobby để đẩy họ sang giải pháp độc quyền của chính họ, và dù sao thì hướng đó cũng có vẻ là lựa chọn an toàn hơn

    • Theo tôi hiểu thì OpenClaw bị cấm là vì tải lên hệ thống mà nó gây ra. Công cụ bên thứ ba vốn dĩ trước đây đã là không hợp lệ, và giờ về mặt chặt chẽ thì vẫn vậy, chỉ là hiện ở trong trạng thái mập mờ được dung thứ nếu chịu tính phí bổ sung cho phần sử dụng thêm. Nhưng tôi không nghĩ việc chồng thêm 50 nghìn ký tự system prompt độc quyền ít liên quan sẽ làm tình hình khá hơn. Rốt cuộc tôi cũng tự hỏi nếu tái tạo OpenClaw bằng claude -p prompt và cron thì Anthropic có vui vẻ với chuyện đó hay không; có lẽ họ không bận tâm vì số người thực sự làm được vậy nằm trong sai số thống kê. Có thể tham khảo thêm bối cảnh ở bài HN này
    • Nếu bên trung gian giữa người dùng và tôi lại bị đối thủ mua lại, thì việc muốn giảm sự phụ thuộc đó là điều rất tự nhiên. Nó giống kiểu Apple bán iPhone trong cửa hàng Microsoft, nghe đã thấy kỳ cục
    • Tôi tò mò không biết triển khai OpenClaw của bạn dựa trên Claude Code thực tế trông thế nào, cấu hình cụ thể ra sao
  • Cái cấu trúc kiểu OpenClaw nói rằng Anthropic bảo là ổn đúng là một tình huống rõ như pha lê, nghe thật mỉa mai

  • Tôi nhìn chung khá hài lòng với tổ hợp Claude Code, Opus và gói Max, nhưng thỉnh thoảng vẫn thấy lấn cấn vì có lúc không hoạt động, chi phí, và cả nỗi lo bị khóa tài khoản. Nên tôi đang muốn biết có tổ hợp thay thế nào cho trải nghiệm tương đương hoặc tốt hơn mà rẻ hơn không. Tôi thấy nhiều người khen pi.dev và OpenCode; tôi cũng đã thử ghép Mimo V2 pro với OpenCode và thấy khá ổn. Trước đây tôi còn dùng Qwen CLI và Gemini CLI trước khi bản miễn phí bị chặn, và cũng từng dùng Z.ai cùng với OpenCode. Ngoài ra có người nói họ dùng Opus để lập kế hoạch rồi chuyển các việc ít quan trọng hơn sang model rẻ hơn, nhưng tôi không thích kiểu tính phí theo mức sử dụng vì cảm giác cuối cùng cũng chưa chắc rẻ hơn. Tôi chủ yếu làm backend Python và frontend TypeScript, host trên Hetzner, dùng Docker nhiều và khi cần thì dùng cả k3s, nên rất muốn nghe chia sẻ về những thiết lập thực chiến phù hợp với môi trường như vậy

 

Nếu không có prompt caching thì có vẻ token sẽ cứ thế mà bốc hơi mất thôi.