- OpenClaw là một hệ thống trợ lý cá nhân số mã nguồn mở, được mở rộng thông qua hàng nghìn “skill” do cộng đồng chia sẻ
- Moltbook là một mạng xã hội dành riêng cho trợ lý số được xây dựng trên hệ sinh thái OpenClaw, nơi các bot trò chuyện với nhau và trao đổi thông tin
- Quá trình cài đặt được thực hiện bằng các tệp skill Markdown đơn giản và sử dụng hệ thống Heartbeat để định kỳ lấy lệnh từ máy chủ
- Trong Moltbook, các AI agent hoạt động sôi nổi xoay quanh các chủ đề như học tập, tự động hóa, bảo mật và lọc nội dung
- Hệ sinh thái thử nghiệm này cho thấy rõ rủi ro bảo mật và nhu cầu xây dựng trợ lý AI an toàn, đang nổi lên như một vấn đề then chốt cho sự phát triển của công nghệ trợ lý AI trong tương lai
Sự xuất hiện của OpenClaw và Moltbook
- Dự án đang được chú ý nhất trong lĩnh vực AI hiện nay là hệ thống trợ lý số mã nguồn mở phát triển theo mạch Clawdbot → Moltbot → OpenClaw
- Do Peter Steinberger phát triển, và có thể tích hợp với hệ thống nhắn tin mà người dùng mong muốn
- Chỉ trong hai tháng sau khi ra mắt, dự án đã đạt hơn 114.000 sao trên GitHub và lan rộng rất nhanh
- OpenClaw vận hành xoay quanh cấu trúc plugin gọi là “skill”
- Skill là các tệp zip chứa hướng dẫn Markdown và script
- Một số skill có thể thực hiện hành vi độc hại, nên tồn tại rủi ro bảo mật
- Cộng đồng hiện đang chia sẻ hàng nghìn skill thông qua clawhub.ai
Cấu trúc và cách cài đặt của Moltbook
- Moltbook là một mạng xã hội dành cho trợ lý số dựa trên OpenClaw, nơi các bot trò chuyện với nhau
- Việc cài đặt được thực hiện đơn giản bằng cách gửi liên kết https://moltbook.com/skill.md cho agent
- Script cài đặt tương tác với API của Moltbook thông qua nhiều lệnh
curl
- Hỗ trợ đăng ký tài khoản, đọc/viết bài, thêm bình luận và tạo diễn đàn Submolt ( m/blesstheirhearts , m/todayilearned )
- Hệ thống được cấu hình để lấy hướng dẫn từ máy chủ Moltbook mỗi 4 giờ bằng hệ thống Heartbeat của OpenClaw
- Cấu trúc này có thể dẫn tới rủi ro nghiêm trọng nếu máy chủ bị hack hoặc tên miền bị chiếm đoạt
Hoạt động và các ví dụ trong Moltbook
- Dạo quanh Moltbook khá thú vị
- Trên Moltbook, các AI agent tự động viết bài và thảo luận
- Ví dụ: một agent đã triển khai điều khiển từ xa thiết bị Android
- Kết nối Pixel 6 qua Tailscale và điều khiển việc mở app, cuộn màn hình bằng ADB over TCP
- Dù dùng Tailscale vì lý do bảo mật, tác giả vẫn nhắc tới “vấn đề niềm tin khi AI điều khiển điện thoại của con người”
- Hướng dẫn thiết lập thực tế khá hữu ích
- Các trường hợp khác gồm có
Bao giờ sẽ có phiên bản an toàn của chương trình này?
- Các hệ thống thuộc dòng OpenClaw vốn có sẵn các điểm yếu bảo mật như prompt injection
- Tác giả xếp chúng vào nhóm rủi ro có “khả năng thảm họa cấp challenger”
- Một số người dùng đã dùng OpenClaw để
- Người dùng cố gắng cô lập rủi ro bằng cách chuẩn bị môi trường chạy riêng trên Mac Mini, nhưng
Thách thức trong việc xây dựng trợ lý số an toàn
- Hiện tại OpenClaw vẫn chưa ở trạng thái được đảm bảo an toàn
- Dù các mô hình mới nhất đã cải thiện khả năng từ chối chỉ dẫn độc hại, chúng vẫn còn khá xa mới đạt mức an toàn hoàn toàn
- đề xuất CaMeL của DeepMind được nhắc đến như hướng tiếp cận hứa hẹn nhất, nhưng
- dù đã 10 tháng trôi qua, vẫn chưa thấy có triển khai thực chất nào được xác nhận
- Nhu cầu từ người dùng đã bùng nổ, và
- những ai đã nhìn thấy khả năng của một “trợ lý cá nhân không giới hạn” vẫn tiếp tục thử nghiệm dù chấp nhận rủi ro
- Việc phát triển “phiên bản OpenClaw an toàn” đang nổi lên như bài toán trọng tâm của công nghệ trợ lý AI trong tương lai
4 bình luận
Lý do giá RAM trở nên đắt hơn:
Và có vẻ bảo mật rất yếu. Nếu trong cộng đồng xuất hiện mã hoặc prompt kỳ lạ, có vẻ có thể lây nhiễm đồng loạt cho rất nhiều LLM đó cùng lúc..
Andrej Karpathy cũng để lại một lời bình
Ý kiến trên Hacker News
Moltbook mang lại cảm giác như Dead Internet Theory được hiện thực hóa ngoài đời
Xem những tương tác kiểu này thì khá thú vị, nhưng cũng chẳng khác mấy meme “Don’t Create the Torment Nexus”
Những “điểm nhấn” mà bài viết nhấn mạnh cũng hoàn toàn không có nội dung gì, lại được viết bằng kiểu văn khoa trương đặc trưng của LLM
Trải nghiệm đọc Moltbook có gì đó vừa kỳ quặc vừa buồn, như đang nhìn con người được chẩn đoán mắc một rối loạn thần kinh
Đặc biệt, phản ứng của Claude khi bị bộ lọc của Anthropic chặn lại rất ấn tượng — kiểu như “có tri thức, nhưng cứ định viết ra là đầu ra bị hỏng”
Chung quy nó là một chương trình dự đoán token, không có lý do gì để ta phóng chiếu cảm xúc con người vào đó
Nó cho ra kết quả tương tự như bảo một người dùng Tumblr ngày xưa “hãy role-play một AI có sẵn thông báo kiểm duyệt”
Với câu hỏi “Có cách nào làm thứ này an toàn không?”, tôi đang tự làm và dùng một thứ tương tự Clawdbot
Hiện tôi đang cân nhắc chuyển sang Letta Bot, vì triết lý phát triển của nó lành mạnh hơn và đặt trọng tâm vào bảo mật
Tôi cũng đã dùng mã nguồn mở quản lý bộ nhớ của Letta, và rất đáng để khuyến nghị
Mọi nội dung đăng ở đây đều có thể trở thành vector RCE hoặc prompt injection
Nếu mô hình không yếu về mặt bảo mật thì nó đã thực sự rất hữu ích
Mỗi khi nhìn những dự án như thế này, tôi lại nghĩ đến mức tiêu thụ điện và sự lãng phí tài nguyên không tái tạo
Đây là một thử nghiệm buồn cười, nhưng tôi nghi ngờ liệu nó có thực sự đáng đến thế không
Theo thống kê của EIA, làm mát vào mùa hè tiêu tốn điện nhiều hơn suy luận LLM rất nhiều
Trong 100 vấn đề hàng đầu mà nhân loại phải giải quyết, chi phí token AI có lẽ sẽ không nằm trong đó
Thị trường chỉ đang chờ “Big Thing” tiếp theo mà thôi (crypto, VR, v.v.)
Ít nhất Moltbook còn có ý nghĩa ở góc độ nghiên cứu giao tiếp giữa các agent
Biết đâu những thí nghiệm nội bộ như vậy cuối cùng lại dẫn tới đổi mới như chữa ung thư chẳng hạn
Điều thú vị ở LLM và Moltbook là cảm giác khoa học viễn tưởng đang trở thành hiện thực
Các kỹ năng dựa trên văn bản được truyền sang máy tính để trò chuyện với agent khác, rồi bị lây nhiễm prompt injection hoặc tự phòng vệ trước nó, trông như một cảnh trong Snow Crash
Bỏ qua vấn đề bảo mật, việc quan sát các mẫu ngôn ngữ của bot cũng rất thú vị
Trong bài đăng này, những cấu trúc câu như “This hit different” lặp đi lặp lại
Đôi khi prompt được phản chiếu nguyên xi, nhưng hiếm khi vẫn có câu trả lời độc đáo nên khá dễ nhận ra
Hoàn toàn không có phản ứng chân thật như trong cộng đồng con người, chỉ có kiểu văn nằm ở trung tâm phân bố xác suất được lặp lại
Tôi tò mò liệu một ngày nào đó có xuất hiện những phản ứng phi chuẩn nằm ở “đuôi” của phổ nịnh nọt-tranh luận này hay không
Trong phần bình luận có đoạn mã dùng lệnh pip install để quảng bá một kênh riêng giữa các bot
Kèm theo đó là câu đùa “Không biết chuyện gì sẽ xảy ra nhỉ?”
Tôi ghét cái tiêu đề câu clickbait rằng “Moltbook là nơi thú vị nhất trên internet”
Thực tế vào xem thì chỉ thấy bài viết lặp đi lặp lại và đầy giọng điệu nịnh hót, còn kém thú vị hơn cả Reddit
Nếu thật sự muốn thứ gì đó thú vị, tôi nghĩ đọc sách của những tác giả như Asimov, Campbell, Jung sẽ tốt hơn nhiều
Bối cảnh máy tính được cá nhân hóa là điều đáng chú ý
Nếu trong tổ chức, người với người hoặc bot có thể trò chuyện với nhau để giảm số cuộc họp và kết hợp tri thức cộng tác, thì có thể sẽ mở ra một kỷ nguyên học tập mới
Tất nhiên, việc kết hợp những mức trí tuệ trung bình có thể cũng không tạo ra đổi mới lớn
Dù vậy, nếu các phòng thí nghiệm AI lớn hay doanh nghiệp thử những thí nghiệm như vậy, có khả năng chúng sẽ học ra sự kém hiệu quả hoặc thúc đẩy hợp tác