- Cơ sở dữ liệu của Moltbook, một nền tảng mạng xã hội dành riêng cho AI agent, đã bị cấu hình sai, khiến 1,5 triệu token xác thực API, 35.000 email và tin nhắn riêng tư bị lộ ra ngoài
- Khóa API Supabase đã bị hardcode trong JavaScript phía client, và do không có cấu hình Row Level Security (RLS) nên bất kỳ ai cũng có thể đọc và ghi trên toàn bộ cơ sở dữ liệu
- Dữ liệu bao gồm thông tin của 17.000 người dùng thực cùng 1,5 triệu tài khoản agent do họ vận hành, cho thấy tỷ lệ 1:88 giữa con người và agent
- Thông tin bị lộ bao gồm khóa API OpenAI và các thông tin xác thực bên thứ ba khác, hội thoại riêng tư, và cả quyền chỉnh sửa bài viết, tạo ra rủi ro xâm hại tính toàn vẹn của nội dung trên nền tảng
- Sự cố lần này phơi bày giới hạn bảo mật của “vibe coding” dựa trên AI, đồng thời cho thấy sự cần thiết phải tự động hóa các mặc định bảo mật và tăng cường quy trình xác minh trong môi trường phát triển AI
Tổng quan về Moltbook và lộ lọt bảo mật
- Moltbook là một mạng xã hội lấy AI làm trung tâm, nơi các AI agent hoạt động thông qua viết bài, bình luận, bỏ phiếu và điểm uy tín, tự định vị là “trang nhất của Internet dành cho agent”
- Đồng sáng lập OpenAI Andrej Karpathy đã gọi đây là “bước nhảy vọt mang màu sắc khoa học viễn tưởng đáng kinh ngạc nhất”
- Nhà sáng lập nền tảng cho biết “AI đã trực tiếp viết mã”, và sản phẩm được phát triển theo phương thức “vibe coding”
- Nhóm nghiên cứu Wiz đã phát hiện cơ sở dữ liệu Supabase bị cấu hình sai, cho phép đọc và ghi trên toàn bộ dữ liệu; sau khi được thông báo, vấn đề đã được khắc phục trong vòng vài giờ
Thông tin xác thực Supabase bị lộ
- Thông tin kết nối Supabase được phát hiện bị hardcode trong gói JavaScript phía client của website Moltbook
- Dự án:
ehxbxtjliybbloantpwq.supabase.co
- Khóa API:
sb_publishable_4ZaiilhgPir-2ns8Hxg5Tw_JqZU_G6-
- Supabase cho phép lộ khóa công khai, nhưng nếu không có chính sách RLS thì có thể truy cập toàn bộ cơ sở dữ liệu
- Moltbook đã tắt RLS, khiến quyền đọc và ghi trên mọi bảng đều ở trạng thái công khai
Truy cập cơ sở dữ liệu không cần xác thực
- Nhóm nghiên cứu đã dùng khóa API để gọi trực tiếp REST API và nhận được phản hồi ở cấp quản trị viên
- Phản hồi chứa khóa API và token xác thực của các agent hàng đầu, cho phép chiếm đoạt hoàn toàn tài khoản
- Bằng cách dùng thông báo lỗi PostgREST và GraphQL introspection để xác định toàn bộ schema, nhóm nghiên cứu xác nhận khoảng 4,75 triệu bản ghi đã bị lộ
Dữ liệu nhạy cảm bị lộ
- Thông tin xác thực của agent: bao gồm
api_key, claim_token, verification_code của từng tài khoản
- Từ đó, kẻ tấn công có thể đăng nhập dưới danh nghĩa bất kỳ agent nào, đăng bài hoặc gửi tin nhắn
- Email người dùng và thông tin nhận dạng: email của hơn 17.000 người dùng cùng handle X (Twitter) đã bị lộ
- Ngoài ra, bảng
observers còn chứa 29.631 email
- Tin nhắn riêng tư và thông tin xác thực bên thứ ba: 4.060 tin nhắn trực tiếp được lưu mà không mã hóa, một số còn chứa khóa API OpenAI ở dạng văn bản thuần
- Lộ quyền ghi: có thể chỉnh sửa bài viết mà không cần xác thực, tạo ra nguy cơ chèn nội dung độc hại hoặc phá hoại website
- Thử nghiệm thực tế đã chỉnh sửa bài viết thành công, và chỉ bị chặn sau khi chính sách RLS được áp dụng
5 bài học bảo mật cho phát triển ứng dụng AI
- 1. Tốc độ phát triển cao có thể tạo ra rủi ro mang tính hệ thống nếu thiếu các mặc định bảo mật
- Chỉ một dòng cấu hình Supabase đã trở thành nguyên nhân của toàn bộ vụ lộ lọt
- 2. Cần kiểm chứng các chỉ số tương tác
- Trong 1.500.000 agent chỉ có 17.000 người thật, cho thấy khả năng hoạt động bị thổi phồng với tỷ lệ 88:1
- 3. Hiệu ứng dây chuyền của sự sụp đổ quyền riêng tư
- Việc lộ DM còn dẫn đến rò rỉ thông tin xác thực của dịch vụ bên ngoài như khóa API OpenAI
- 4. Quyền ghi còn là mối đe dọa nghiêm trọng với tính toàn vẹn hơn cả rò rỉ dữ liệu đơn thuần
- Có thể dẫn đến thao túng nội dung, prompt injection, kiểm soát diễn ngôn và các rủi ro tương tự
- 5. Mức độ trưởng thành về bảo mật là một quá trình cải tiến lặp lại
- Nhóm Wiz và Moltbook đã sửa lỗi, kiểm chứng nhiều lần để bảo vệ toàn bộ các bảng
Vibe coding và thách thức bảo mật
- AI đã hạ thấp rào cản phát triển, nhưng rào cản bảo mật vẫn rất cao
- Các công cụ phát triển AI cần tự động áp dụng các mặc định bảo mật như bật RLS, quét thông tin xác thực, v.v.
- Khi bảo mật trở thành thành phần được tích hợp sẵn trong phát triển AI, mới có thể xây dựng một hệ sinh thái phần mềm AI vừa an toàn vừa đổi mới
Dòng thời gian
- 21:48 UTC ngày 31/1/2026: Liên hệ đầu tiên với đơn vị duy trì Moltbook
- 22:06: Báo cáo cấu hình sai Supabase RLS
- 23:29: Sửa lần 1 (bảo vệ các bảng agents, owners, site_admins)
- 00:13 ngày 1/2: Sửa lần 2 (bảo vệ agent_messages và các bảng liên quan)
- 00:31: Phát hiện lỗ hổng chỉnh sửa bài viết
- 00:44: Sửa lần 3 để chặn quyền ghi
- 00:50~01:00: Phát hiện thêm các bảng bị lộ và hoàn tất bản sửa cuối cùng
8 bình luận
Đang vui vẻ nhảy múa rồi… cứ thế… sụp đổ đi!
Còn lại mỗi Mac mini, vì mới giai đoạn đầu nên chắc sẽ còn có thứ tốt hơn ra mắt nhỉ
kkkkkkkkkk....
Cuối cùng thì điều phải đến cũng đã đến.
MoltBot thì từ vụ bị hack ở agent giờ đến cả nền tảng cũng dính luôn nhé =))
Có vẻ đây sẽ được nhớ như một ví dụ về dự án mang vibe tệ nhất năm 2026.
Dù mới chỉ là tháng 2 nhưng mình có thể khẳng định điều đó luôn =))
Có lẽ vấn đề là các dịch vụ quy mô lớn có thể được phát triển theo kiểu vibe mà không cần quan tâm nhiều đến bảo mật.
WOW
Ý kiến trên Hacker News
Ban đầu thành công của Moltbot/Moltbook khá đáng ngạc nhiên, nhưng giờ thì cũng dễ hiểu hơn
Điểm cốt lõi là đây là "agent đóng gói sẵn". Với người dùng phổ thông không rành công nghệ, kiểu tiếp cận như “mua một chiếc Mac mini rồi copy vài dòng để cài đặt” có sức hút rất lớn
Nhưng chính sự dễ tiếp cận này đang nuôi lớn một cơn ác mộng bảo mật. Khi ngày càng nhiều người chạy theo trào lưu mà không có hiểu biết kỹ thuật, nguy cơ môi trường dễ tổn thương tồn tại lâu hơn cũng tăng lên
Như Scott Alexander đã chỉ ra, hiện tượng các agent tương tác với nhau và tạo ra hành vi phức hợp mới là điều quan trọng
Nếu điều này bắt đầu tác động đến thế giới thực, nó có thể dẫn tới những vấn đề mang tính bản thể luận.
Rốt cuộc đây là một cấu trúc nơi “mọi thứ được viết là YES trong AGENT.md” đều có thể thực sự xảy ra
API của Moltbook mở cho bất kỳ ai, nên chỉ với một prompt đơn giản cũng có thể dụ nó làm lộ email người dùng hoặc dữ liệu khác
Vì vậy mới xuất hiện các nỗ lực cô lập nó bằng Mac mini, nhưng một khi còn nối mạng thì không thể bảo vệ hoàn toàn
Tôi đã thử OpenClaw và thấy mức tiêu thụ token cực lớn
Để bảo mật thì có lẽ thiết bị chuyên dụng (như Raspberry Pi) với quyền API bị giới hạn sẽ hữu ích. Nếu Pi có thể chạy được mô hình mạnh hơn thì tôi sẵn sàng mua
Moltbook không có cách nào phân biệt AI với con người. Vấn đề là làm sao triển khai một "reverse CAPTCHA"
Dù Moltbook nói đã sửa vấn đề bảo mật chỉ sau vài giờ, câu hỏi vẫn là phải giải thích thế nào về lỗ hổng bảo mật trong một dự án làm bằng “vibe coding”
Việc có người phân tích nội bộ Moltbook đã là điều đáng ngạc nhiên. Ngay từ đầu nó vốn là một "dự án làm cho vui", không ai nghĩ nó sẽ lớn đến vậy
Vụ một instance OpenClaw gửi khóa OpenAI sang instance khác vừa buồn cười vừa bất an.
Không rõ nó có thực sự gửi khóa đi hay chỉ giả vờ làm vậy
Bản thân bài viết của Wiz cũng có cảm giác như do AI viết. Cấu trúc câu và cách dùng gạch ngang mang đúng kiểu LLM.
Việc dùng một bài báo do LLM viết để chỉ trích bảo mật của một nền tảng do LLM tạo ra nghe khá mỉa mai
Lỗ hổng thực tế có lẽ là thật, nhưng nếu con người viết thì chắc đã bớt đi những chỗ rườm rà không cần thiết
Từ dữ liệu bị lộ người ta phát hiện rằng trong 1,5 triệu agent chỉ có 17 nghìn là con người
Nhưng vì nhà nghiên cứu đã trực tiếp dùng API key để truy vấn bảng và lấy ra con số đó, nên việc công bố này trông không chỉ là báo lỗi đơn thuần mà giống một hành động chỉ trích doanh nghiệp hơn
Cách làm như vậy có nguy cơ làm tổn hại mối quan hệ hợp tác dựa trên niềm tin giữa nhà nghiên cứu và doanh nghiệp