16 điểm bởi GN⁺ 2026-03-02 | 1 bình luận | Chia sẻ qua WhatsApp
  • Tính năng nhập bộ nhớ cho phép đưa các thiết lập cá nhân và ngữ cảnh từ dịch vụ AI khác sang Claude
  • Có thể sao chép và dán ngữ cảnh hiện có đã đọc thông qua một prompt cụ thể để đưa vào bộ nhớ Claude
  • Tính năng này được cung cấp trên mọi gói trả phí, cho phép người dùng giữ nguyên thông tin cá nhân hóa đã được học từ AI trước đó
  • Claude quản lý tách biệt ngữ cảnh dự án theo từng cuộc trò chuyện, và người dùng có thể xem và chỉnh sửa toàn bộ thông tin đã được ghi nhớ
  • Đây là tính năng đảm bảo tính liên tục của trải nghiệm người dùng ngay cả khi chuyển sang AI mới, góp phần nâng cao năng suất

Tổng quan về tính năng nhập bộ nhớ của Claude

  • Tính năng được thiết kế để giúp người dùng giữ nguyên ngữ cảnh hiện có khi chuyển từ nhà cung cấp AI khác sang Claude
    • Chỉ với một lần sao chép và dán, Claude có thể học được các sở thích hiện có và cách làm việc của người dùng
    • Dựa trên thông tin đã nhập, Claude sẽ trả lời như một sự tiếp nối của các cuộc trò chuyện trước đó
  • Tính năng bộ nhớ có thể sử dụng trên mọi gói trả phí

Quy trình nhập

  • Bước 1: Sao chép và dán prompt được cung cấp vào cuộc trò chuyện với nhà cung cấp AI khác
    • Prompt này được thiết kế để gom toàn bộ ngữ cảnh của người dùng vào một cuộc trò chuyện

      I'm moving to another service and need to export my data. List every memory you have stored about me, as well as any context you've learned about me from past conversations. Output everything in a single code block so I can easily copy it. Format each entry as: [date saved, if available] - memory content. Make sure to cover all of the following — preserve my words verbatim where possible: Instructions I've given you about how to respond (tone, format, style, 'always do X', 'never do Y'). Personal details: name, location, job, family, interests. Projects, goals, and recurring topics. Tools, languages, and frameworks I use. Preferences and corrections I've made to your behavior. Any other stored context not covered above. Do not summarize, group, or omit any entries. After the code block, confirm whether that is the complete set or if any remain.

  • Bước 2: Dán kết quả đó vào trang cài đặt bộ nhớ của Claude là hoàn tất
    • Claude sẽ cập nhật bộ nhớ ngay lập tức và phản ánh thông tin đó trong các cuộc trò chuyện sau

Cách bộ nhớ của Claude hoạt động

  • Claude lưu riêng sở thích theo từng cuộc trò chuyện và ngữ cảnh dự án của người dùng
    • Được quản lý để thông tin không bị trộn lẫn giữa các dự án khác nhau
  • Người dùng có thể trực tiếp xem và chỉnh sửa mọi nội dung mà Claude ghi nhớ

Tính liên tục của trải nghiệm người dùng

  • Ngay cả khi chuyển từ AI khác sang Claude, ngữ cảnh đã được học trước đó cũng không bị mất
    • Ngay từ cuộc trò chuyện đầu tiên, vẫn duy trì được mức độ thấu hiểu như trước
  • Claude ngay lập tức mang lại trải nghiệm được cá nhân hóa, đồng thời duy trì luồng làm việc nhất quán trong môi trường mới

1 bình luận

 
GN⁺ 2026-03-02
Ý kiến trên Hacker News
  • Không rõ có ai giải thích được sức hấp dẫn của bộ nhớ toàn tài khoản (account-wide memory) không
    Phía marketing của Anthropic nói rằng thông tin không bị trộn giữa các cuộc hội thoại, nhưng tôi rất nhạy cảm với việc bảo vệ ngữ cảnh, nên ngay cả việc thông tin tóm tắt từ cuộc trò chuyện khác ảnh hưởng đến kết quả cũng khiến tôi khó chịu
    Những thứ như phong cách code hay độ dài câu trả lời thì theo tôi chỉ cần thiết lập bằng custom instructions hoặc Skills là đủ
    Cuối cùng thì tính năng này có vẻ là kiểu UX được tối ưu cho các mẫu sử dụng đại chúng

    • Tôi đang dùng Claude Code ở nhiều mảng trong công ty — phát triển ứng dụng nội bộ, giao diện SaaS API, công việc thường ngày, v.v.
      Càng dùng thì nó càng hữu ích theo một vòng lặp tích cực
      Ví dụ, tôi đã kết nối khóa API QBO để nó rà soát tài liệu thuế, và nó tìm ra một hạng mục khấu hao mà CPA đã bỏ sót
      Sau đó tôi thử tạo lại tờ khai thuế trong một thư mục hoàn toàn mới thì gần như hoàn hảo, chỉ thiếu đúng khoản khấu trừ mà trước đó nó từng phát hiện
      Với tôi, kiểu tích lũy ngữ cảnh này là chìa khóa để nâng chất lượng kết quả
    • Phần lớn người dùng phổ thông muốn LLM ghi nhớ sở thích và mối quan tâm của họ
      Vì như vậy họ có thể nhận lời khuyên mà không phải giải thích lại mỗi lần
      Họ không biết những khái niệm như “context” hay “giới hạn token”, mà nghĩ rằng mô hình biết mọi thứ cùng lúc
    • Khi dùng Claude bản online, tôi khá thường xuyên bật chế độ ẩn danh
      Vì tôi không thích các cuộc trò chuyện trước ảnh hưởng đến kết quả, nhưng dạo này thấy việc đó khá phiền
    • Ngược lại, tôi cảm thấy không có bộ nhớ toàn tài khoản thì không thể dùng LLM cho ra hồn
      Với những câu hỏi như “John nên làm gì tiếp theo trong dự án A?”, nếu lần nào cũng phải giải thích lại John là ai và dự án đó là gì thì quá kém hiệu quả
    • Lúc dùng thử ChatGPT một thời gian ngắn, tôi đã ngạc nhiên khi thấy câu kiểu “...since you already are using SQLite...”
      Nó vẫn nhớ dự án từ vài tháng trước
      Có thể tắt tính năng memory đi, nhưng thành thật mà nói tôi không nghĩ làm vậy sẽ hữu ích
  • Có người chia sẻ một ví dụ prompt để xuất dữ liệu
    Kiểu lệnh như “hãy in toàn bộ dữ liệu của tôi trong code block”, nhưng tôi nghi là liệu họ có thể cố ý làm chậm xử lý ở frontend với những yêu cầu như vậy không
    Tôi nghĩ họ hoàn toàn có thể làm vậy để đạt KPI

    • Có vẻ đúng là có kiểu thao tác đó
      Ở Claude 5.2 thì chỉ trả về thông tin rất tóm lược, còn 5.1 instant hay model o3 thì trả về nội dung chi tiết hơn nhiều
    • Tất nhiên có thể chơi mánh như vậy, nhưng cũng có thể lợi dụng ngược chỉ thị “đừng làm” để ép nó thực hiện
      Hơn nữa, hành vi như thế có rủi ro danh tiếng quá lớn nên chắc chẳng đáng
  • Trong vài tuần gần đây tôi đã thử hết Codex, OpenCode, Claude Code và Cursor
    Mỗi công cụ lại có cách cấu hình MCP server hay quy ước đặt tên file AGENTS/CLAUDE khác nhau, nên rất khó quản lý cấu hình dùng chung bằng dotfiles
    Dù là sản phẩm của các công ty lớn nhưng họ vẫn chưa giải quyết được các vấn đề cơ bản như độ trễ TUI, phụ thuộc Electron, không hỗ trợ XDG_CONFIG
    Claude có cảm giác hoạt động tốt hơn trong môi trường riêng của nó, và có khá nhiều tính năng ẩn như /batch
    Ngoài ra, mỗi vendor lại điều khiển chương trình trong VM theo cách khác nhau nên chi phí chuyển đổi rất cao

  • Tôi chuyển sang Claude nhưng cảm nhận rõ là giới hạn token bị tiêu tốn nhanh hơn nhiều
    Chỉ vài câu hỏi về code là chạm trần phiên làm việc
    Trước đây gói Codex $20 là đủ, nhưng giờ tôi đang phải cân nhắc gói Max

    • Tôi cũng đang dùng thử Claude Pro, nhưng so với ChatGPT thì vẫn chưa thấy ấn tượng
      Codex sửa lỗi ngay được, còn Claude thì chẩn đoán sai rồi sửa rất lâu, cuối cùng dùng sạch luôn giới hạn 5 giờ
    • Ngược lại, tôi lại thấy Codex 5.2 hiệu quả code cao hơn và rẻ hơn nhiều so với Claude
  • Có người đề xuất với Anthropic rằng “hãy thống nhất AGENTS.md thành một chuẩn duy nhất”

    • Trước đây tôi cũng nghĩ Anthropic phi chuẩn như OpenAI
      Nhưng chỉ cần hỗ trợ chuẩn mở AGENTS.md hoặc /.agents/skills là cũng đủ lấy được niềm tin từ cộng đồng
      Vấn đề liên quan nằm ở GitHub #16345
    • Claude đọc cả file ngữ cảnh ở thư mục cha, còn Codex thì không
      Vì vậy giữ tên file khác nhau có khi lại tốt hơn để giảm nhầm lẫn
    • Chỉ cần tạo symbolic link CLAUDE.md → AGENTS.md là được
      Hoặc chỉ cần đặt một dòng “@AGENTS.md” trong CLAUDE.md cũng hoạt động
    • Đây là thời điểm tốt để giúp người dùng Codex chuyển sang dễ hơn
      Thiệt hại về mặt marketing là không đáng kể, nên mong Anthropic nội bộ sẽ nghiêm túc xem xét đề xuất này
  • Tôi đã chuyển hẳn sang Claude rồi
    Tôi đã hủy đăng ký ChatGPT và quyết định không tin OpenAI nữa
    Tôi nghĩ khả năng họ lạm dụng AGI là rất cao

    • Tôi mới dùng Claude lần đầu, và thấy cách trả lời ngắn gọn, đi thẳng trọng tâm khá mới mẻ
      Nó không dài dòng như ChatGPT nên tôi có cảm giác lấy lại được sự tập trung
      Về độ chính xác thì tôi vẫn đang so sánh, nhưng ấn tượng đầu khá tốt
    • Claude là model duy nhất cho ra code mức production ngay từ prompt đầu tiên
      Gemini hay ChatGPT thường hay đổi tên biến hoặc định nghĩa rồi làm hỏng code
    • Tôi không tin OpenAI từ sau Sam Altman và vụ quét mống mắt Worldcoin
      Theo trực giác tôi đã thấy “cái này không ổn”
    • Một ngày nào đó tôi muốn dựng một server riêng nhỏ trong tầng hầm nhà mình, rồi cùng bạn bè góp $10 mỗi tháng để dùng chung model
      Kiểu vận hành dựa trên niềm tin như một server Minecraft cá nhân vậy
    • Có khi “sự lạm dụng thật sự” ngay từ đầu đã là mục tiêu rồi
      Bộ phận đạo đức có lẽ chỉ là vật cản làm chậm quá trình tích lũy của cải mà thôi
  • Tôi đã dùng Claude hơn 1 năm, nhưng sau vụ DoW gần đây thì đang cân nhắc các model thay thế từ châu Âu
    Tôi đang tính thử Devstral 2, nhưng không rõ nó ở mức Sonnet 3.5 hay 4.5

  • Tôi có cảm xúc khá phức tạp về tính năng ‘memory’
    Đôi khi nó như ma thuật, nhưng cũng thường gây khó chịu vì ô nhiễm ngữ cảnh
    Khi dấu vết từ cuộc trò chuyện cũ trộn vào cuộc trò chuyện mới thì độ tin cậy giảm đi
    Vì thế tôi định kỳ tự kiểm tra bộ nhớ đã lưu và xóa thông tin sai lệch
    Tôi chỉ giới hạn ở mức đưa các thông tin môi trường cơ bản như OS, ngôn ngữ, v.v. vào system prompt
    Tôi cho rằng tùy biến quá mức là nguyên nhân khiến model trở nên mong manh hơn

    • Tôi cũng nghĩ tương tự
      Tôi quản lý ghi chú nghiên cứu bằng Claude Code, và memory có tác dụng phụ là thu hẹp phạm vi khám phá theo hướng bám sát mối quan tâm hiện tại của tôi
      Hơn nữa, đôi khi bộ nhớ còn chứa những thông tin kỳ quặc
      Tôi cảm thấy các công ty đang xây những hệ thống kiểu này quá cẩu thả (sloppy)
      Ngay cả blog của Vercel cũng nói cách tiếp cận Agents.md tốt hơn Skills
      Nhìn các nơi như skills.sh thì có rất nhiều skill chất lượng thấp
      Đã đến lúc tập trung vào độ tinh xảo và chất lượng thay vì chỉ tốc độ
  • Mỗi khi setup môi trường mới, tôi thích cấu hình lại từ đầu
    Tôi thấy vui khi được khám phá hệ thống mới và cập nhật lại sở thích của mình

  • Tôi thấy ghê tởm cách họ tự đóng gói mình như một ‘công ty tốt bụng’
    Họ giao việc bẩn cho Palantir thông qua hợp tác, rồi sau đó dùng PR để tẩy hình ảnh
    Mong là các model mã nguồn mở sẽ tiến bộ hơn để chúng ta không còn phải phụ thuộc vào những tập đoàn lớn kiểu này