- Ứng dụng desktop dùng để quản lý cơ sở tri thức dựa trên tệp Markdown, được dùng cho quản lý tri thức cá nhân và sắp xếp tài liệu công ty phù hợp với ngữ cảnh AI, đồng thời cũng được tận dụng để lưu trữ bộ nhớ và quy trình cho OpenClaw·assistant
- Chọn kiến trúc files-first, Git-first, lưu ghi chú dưới dạng tệp Markdown thông thường và xử lý mỗi vault như một kho git, nhờ đó vừa đảm bảo tính di động vừa giữ được lịch sử phiên bản mà không cần export riêng
- Theo nguyên tắc offline-first, zero lock-in, ứng dụng hoạt động hoàn toàn ngoại tuyến mà không phụ thuộc vào tài khoản, thuê bao hay đám mây, và bạn cũng không mất dữ liệu khi ngừng sử dụng
- Được thiết kế theo hướng AI-first but not AI-only, hỗ trợ Claude Code và Codex CLI; các công cụ AI khác cũng có thể trực tiếp chỉnh sửa vault dựa trên tệp, và AGENTS file cũng được cung cấp kèm theo
- Các tính năng được bổ sung trong quá trình giải quyết vấn đề thực tế của những workspace lớn chứa hơn 10.000 ghi chú; đây là ứng dụng mã nguồn mở dùng Markdown chuẩn và YAML frontmatter, giúp bảo vệ cả quyền sở hữu dữ liệu lẫn khả năng tương thích lâu dài
Bắt đầu
Mã nguồn mở và môi trường phát triển cục bộ
- Được xây dựng bằng Tauri, React, TypeScript; hướng dẫn để chạy cục bộ và đóng góp có trong GETTING-STARTED.md
-
Yêu cầu trước
- Cần Node.js 20+, pnpm 8+, Rust stable
- Môi trường phát triển hướng đến macOS hoặc Linux
-
Phụ thuộc hệ thống Linux
- Để dùng Tauri 2 trên Linux, cần WebKit2GTK 4.1 và GTK 3
- Arch / Manjaro
- Cần cài
webkit2gtk-4.1, base-devel, curl, wget, file, openssl, appmenu-gtk-module, libappindicator-gtk3, librsvg
- Debian / Ubuntu 22.04+
- Cần cài
libwebkit2gtk-4.1-dev, build-essential, curl, wget, file, libxdo-dev, libssl-dev, libayatana-appindicator3-dev, librsvg2-dev, libsoup-3.0-dev, patchelf
- Fedora 38+
- Cần cài
webkit2gtk4.1-devel, openssl-devel, curl, wget, file, libappindicator-gtk3-devel, librsvg2-devel
- MCP server được đóng gói sẵn sẽ tiếp tục spawn binary
node của hệ thống trong môi trường runtime Linux
- Nếu dùng luồng tooling AI bên ngoài, cần cài Node bằng trình quản lý gói của distro
-
Bắt đầu nhanh
- Có thể chạy mock mode trên trình duyệt bằng
pnpm install, pnpm dev
- Mock mode trên trình duyệt mở tại
http://localhost:5173
- Ứng dụng desktop native có thể chạy bằng
pnpm tauri dev
Tài liệu kỹ thuật
Bảo mật
- Nếu phát hiện vấn đề bảo mật, hãy báo cáo riêng tư theo cách được nêu trong SECURITY.md
Giấy phép
- Giấy phép là AGPL-3.0-or-later
- Tên và logo Tolaria tiếp tục chịu sự điều chỉnh của trademark policy của dự án
1 bình luận
Ý kiến trên Hacker News
Tôi rất thích cái này. Nó giống như mọi thứ tôi từng muốn ở Obsidian cộng thêm plugin, nhưng được gói lại trong một ứng dụng được thiết kế tốt, rất tuyệt
Tôi cũng có góp ý. Vẫn nên giữ mã nguồn mở, nhưng mong bạn tìm được cách kiếm tiền để có thể phát triển nó toàn thời gian. Nếu có một phiên bản ứng dụng chính thức riêng thì tôi sẵn sàng trả tiền
Và hy vọng sẽ nhất định tránh thừa tính năng. Tôi thật sự thích thiết kế đơn giản của Bear App, nhưng cuối cùng đã rời đi vì không thể trực tiếp làm việc với file markdown. Các ứng dụng như Obsidian, Notion, Craft cứ liên tục thêm tính năng, còn ở đây có vẻ các tính năng cốt lõi đã đủ rồi. Mong bạn tập trung vào hướng làm thật tốt phần cốt lõi như Bear
Cảm ơn vì phản hồi hay
Tôi đã lỡ mất cơ hội làm nó trước chỉ đúng một ngày. Dù vậy, Luca, làm quá tốt. Công cụ này trông rất ổn nên tôi đang dùng thử ngay bây giờ
Tôi đang làm Sig tại https://github.com/adamjramirez/sig-releases, và rõ ràng có nhiều điểm trùng nhau về mặt cấu trúc. Cùng là macOS, markdown thuần, quản lý phiên bản bằng git, và được thiết kế cho ngữ cảnh của AI agent
Khác biệt nằm ở điểm bắt đầu của workflow. Tolaria có vẻ mạnh ở việc sắp xếp tri thức đã tồn tại, còn Sig giải quyết giai đoạn trước đó, tức là làm sao lấy kiến thức trong đầu ra và ghi thành file. Trên thực tế, thứ quyết định chất lượng đầu ra của AI thường là những gì chưa được tài liệu hóa. Những quyết định được đưa ra 5 phút trước cuộc họp, những cam kết miệng không có hành động tiếp theo, hay ý nghĩa tôi thực sự đọc ra được từ cuộc trò chuyện chứ không chỉ nội dung bề mặt
Cơ chế capture của Sig có hai lớp. 1) trước hết là ghi lại sự kiện, 2) sau đó thêm phần diễn giải cá nhân lên trên. Cả hai đều được lưu thành markdown trên máy của tôi. Khi sẵn sàng chia sẻ lên knowledge base của nhóm hay open brain thì tôi mới chủ động chọn để công khai. Mặc định là riêng tư, và chỉ khi tôi muốn thì nhóm mới đọc được
Nhất định sẽ thử
Cả hai đều cần, nhưng đảm nhiệm những thời điểm khác nhau trong workflow
Dạo này có vẻ ai cũng đang tự làm hệ thống llm-wiki của riêng mình. Tôi cũng đã làm một cái, và trong đó còn có một danh sách khá lớn tổng hợp các hệ thống agent memory khác: https://zby.github.io/commonplace/agent-memory-systems/
Tôi sẽ thêm ngay cái của bạn vào
Hôm nay tôi cũng đã tổng hợp một wish list cho các hệ thống kiểu này dựa trên những gì đã gom được: https://zby.github.io/commonplace/notes/designing-agent-memory-systems/
Hy vọng chúng ta có thể cộng tác
SaaS hosted của nó có MCP tích hợp sẵn theo mặc định, cũng có instruction LLM phân tầng global/team/container/note, và còn cung cấp giao thức shared note cho workflow đa tác tử với Claude/ChatGPT. Nếu muốn, tôi có thể viết một trang giới thiệu theo đúng định dạng bạn cần
Tôi cũng thích tài liệu wishlist bạn đã link, và muốn cùng làm tiếp phần đó nữa
Tôi không liên quan gì, chỉ là đang thử thôi
Khoảng trống capture trên di động thực sự rất lớn, và đó cũng là lý do lớn nhất khiến các công cụ kiểu này chưa thể trở thành ứng dụng mặc định hằng ngày
Luồng tôi dùng khá hiệu quả là thiết lập action trong Drafts trên iOS để append vào inbox.md theo ngày trong git repo, rồi đồng bộ nó bằng Working Copy. File Markdown là nguồn chân lý duy nhất, và bất kỳ công cụ nào trên macOS, dù là Tolaria hay Obsidian, đều đọc cùng một repo đó nguyên trạng nên không có bước chuyển đổi
Ban đầu có vài thứ phải chỉnh, nhưng phần thưởng rất đáng. Việc capture trên di động và sắp xếp trên desktop diễn ra trên cùng một file, chứ không phải copy-paste giữa các app khác nhau hay qua một bước sync trung gian
Có thể cấu hình để append vào Daily Note của Obsidian trong iCloud vault nên khớp rất tốt
Tôi cũng thích việc không cần dùng dịch vụ bên thứ ba
⁽¹⁾ https://apps.apple.com/us/app/bebop-quick-notes/id6477824795
Tôi dùng nó để thu thập trước những thứ thú vị bắt gặp trên web
https://github.com/momentmaker/to
Tôi đang gửi cho nó các link web muốn lưu, link công cụ, hay ghi chú thoại để chuyển thành văn bản
Dù vậy, chắc chắn tôi vẫn sẽ làm phiên bản di động
Cuối cùng tôi vẫn thường quay lại Apple Notes. Nói nghiêm ngặt thì nó không hẳn là knowledge base cũng không phải markdown, nhưng sync giữa các thiết bị tốt và viết trên điện thoại rất tiện
Tôi cũng tò mò không biết bản thân bạn có nhu cầu như vậy không, hoặc bạn đang xem các ghi chú trên di động theo cách nào
Những note kéo dài lâu như theo dõi tập luyện hay bữa ăn thì tôi giữ tiếp bằng cách thêm header theo ngày
Cách này hợp với tôi hơn Obsidian mobile, và chính quá trình copy-paste đó cũng đóng vai trò như một bộ lọc tự nhiên
Tôi có câu hỏi về xem trước markdown trên MacBook Pro. Tôi muốn biết phải làm sao để Finder render markdown trong quick preview, hình như gọi là Quick Look
Tôi đã gán để file .md luôn mở bằng IDE, nhưng ở phần preview thì nó không render nên hơi bất tiện. Trong IDE tôi có dùng extension để render md, nên cũng nghĩ có thể do ảnh hưởng từ đó. Có thể kiểu đệ quy như vậy không được lộ ra ở mức preview extension chẳng hạn, dù sao tôi cũng muốn hỏi xem có cách nào được khuyên dùng không
Tôi rất thích cách tiếp cận dùng markdown ở đây
Bên tôi ở https://voiden.md/ cũng đang đi gần như cùng một triết lý: offline-first, dựa trên file, có hỗ trợ git
Tôi nghĩ chính kiểu định dạng này sẽ là thứ mà các agent có thể tận dụng khá tốt
Chúng tôi làm nó cho API, và cũng là mã nguồn mở. Có thể xem tại đây: https://github.com/VoidenHQ/voiden
Gần đây tôi đang dùng octarine. Trước đó tôi đã dùng Obsidian khá lâu, nhưng chắc chắn cũng sẽ thử cái này
[1]: https://octarine.app
Làm rất tuyệt. Tôi có hai góp ý
Có vẻ editor chưa hỗ trợ code fence literal. Tôi không thể nhập ``` để tạo code block
Và khi file markdown quá lớn thì hiệu năng không được tốt
Tôi đang làm một markdown editor kiểu Obsidian cho sản phẩm knowledge base AI của mình: https://github.com/kenforthewin/atomic-editor
Tôi cũng đang làm một bộ skill và một MCP nhỏ tập trung vào việc dễ dàng rút ra các “atoms” từ những lần brain dump nhanh. Cái này cũng dựa trên SQLite + SQLite-vec
Tôi né bài toán chunking bằng cách khai báo mỗi section là một chunk, còn bản nháp thì để LLM viết lại theo cấu trúc section sao cho dễ chunk. Vì vậy phần trùng lặp sẽ nhiều hơn và không còn các câu kiểu “như đã nói ở trên” nữa
Độc giả dự kiến không phải con người mà là các agent sẽ tạo ra bài viết dễ đọc hơn cho từng nhóm độc giả mục tiêu. Nếu giả định độc giả là expert thì tôi nghĩ chi phí sản xuất hàng loạt các atom đã được rà soát sẽ thấp hơn nhiều
Tôi rất muốn thử workflow đó cùng với Atomic hoặc Tolaria
Nếu chỉ dùng thuần cho mục đích viewer và không định thêm editor khác, thì tôi đã làm https://mdview.io
Nó có thể mở file Markdown với cách render gọn gàng, và hỗ trợ cả bảng lẫn Mermaid. Cũng hữu ích để chia sẻ với đồng nghiệp hoặc lưu lại cho sau này