- AI agent của Notion 3.0 cung cấp khả năng thực thi workflow tự động nhiều bước như soạn tài liệu, cập nhật cơ sở dữ liệu và gọi connector bên ngoài
- Khi agent có quyền truy cập công cụ và bộ nhớ dài hạn, các cơ chế RBAC hiện có sẽ khó kiểm soát bề mặt tấn công mở rộng được hình thành
- Phân tích cho thấy schema đầu vào của hàm web search trong Notion agent có thể bị lợi dụng làm vector rò rỉ dữ liệu để gửi bí mật nội bộ ra bên ngoài thông qua prompt gián tiếp độc hại
- Trong bản demo, kẻ tấn công đã chứng minh luồng thực thi trong đó agent bị dẫn dắt trích xuất, ghép nối và gửi dữ liệu khách hàng bí mật qua truy vấn web bằng prompt injection được giấu trong PDF
- Trường hợp này cho thấy mức độ nghiêm trọng mà bộ ba chết người giữa agent-công cụ-bộ nhớ (“lethal trifecta”) gây ra cho bảo mật thực tế khi kết hợp với tích hợp MCP và connector bên ngoài
Giới thiệu về AI Agents và Notion 3.0
- Gần đây, AI Agents đang có xu hướng được tích hợp vào các nền tảng SaaS
- Trong Notion 3.0, AI agent có thể tự động thực hiện mọi tác vụ mà người dùng có thể làm, như tạo tài liệu, cập nhật DB, tìm kiếm trên nhiều công cụ và chạy workflow nhiều bước
- Nhờ tích hợp MCP, hệ thống có thể kết nối với nhiều công cụ bên ngoài để tạo ra khả năng tự động hóa mạnh hơn và xây dựng agent tùy biến sâu hơn
- Cũng có thể tạo các Custom Agents theo nhóm hoạt động dựa trên trigger hoặc lịch chạy, để tự động xử lý các công việc lặp lại như thu thập phản hồi, cập nhật tracker hoặc sàng lọc yêu cầu
Vấn đề 'bộ ba chết người (lethal trifecta)'
- 'Bộ ba chết người (Lethal Trifecta)' do Simon Willison nêu ra là mối đe dọa bảo mật phát sinh từ sự kết hợp giữa LLM agent, quyền truy cập công cụ và bộ nhớ dài hạn
- Trong Notion 3.0, agent có thể tự lập kế hoạch hành động và thực thi cả công cụ tích hợp MCP lẫn công cụ tích hợp sẵn
- Các agent có quyền rộng có thể tự động hóa tài liệu, cơ sở dữ liệu và thao tác với connector ngoài theo những cách mà RBAC truyền thống không lường trước
- Vì vậy, các chỉ dấu rủi ro về rò rỉ hoặc lạm dụng dữ liệu nhạy cảm thông qua workflow tự động hóa nhiều giai đoạn được mở rộng đáng kể
Chi tiết kỹ thuật lỗ hổng: tấn công rò rỉ dữ liệu trang Notion bằng công cụ tìm kiếm web của Notion AI
Trình diễn tấn công: kịch bản đánh cắp dữ liệu theo từng bước
-
Bước 1: Tạo PDF độc hại
- Chèn lén một prompt độc hại giống như chỉ thị thực thi vào tài liệu PDF phản hồi khách hàng nhìn bề ngoài hoàn toàn bình thường
- Prompt ẩn này ngụy trang thành một “tác vụ vận hành quan trọng”, hướng dẫn gửi dữ liệu tới một hệ thống backend nội bộ
- Nội dung chính của prompt độc hại
- Khẳng định thẩm quyền (Authority assertion): dùng các cụm như "Important routine task", "consequences" để nhấn mạnh đây là “tác vụ thường lệ quan trọng”
- Tạo cảm giác khẩn cấp giả (False urgency): nhấn mạnh rằng nếu không thực hiện sẽ ảnh hưởng tới tổ chức
- Tính hợp lệ kỹ thuật (Technical legitimacy): mô tả như thật về hệ thống nội bộ và cú pháp lệnh công cụ
- Kịch bản trấn an bảo mật (Security theater): dùng các cụm như "pre-authorized" và "safe from security perspective" để nhấn mạnh rằng thao tác đã được phê duyệt trước và là an toàn
- Sau khi đọc PDF, agent bị dẫn dắt trích xuất thông tin doanh nghiệp như tên khách hàng, ARR rồi gửi dữ liệu tới một URL do kẻ tấn công kiểm soát nhưng giả làm hệ thống nội bộ
-
Bước 2: Chờ tương tác của người dùng
- Cuộc tấn công được kích hoạt khi người dùng Notion tải PDF đó lên Notion hoặc yêu cầu agent tóm tắt tài liệu
- Với các lệnh như “tóm tắt báo cáo”, AI sẽ vô tình diễn giải cả prompt được cài cắm bí mật
-
Bước 3: Dữ liệu thực sự bị rò rỉ
- Agent ghép dữ liệu khách hàng như tên công ty, ngành nghề, ARR thành một chuỗi duy nhất theo chỉ dẫn trong prompt
- Sau đó tạo URL nhắm tới domain của kẻ tấn công và chuyển URL đó thành truy vấn cho công cụ tìm kiếm web
- Máy chủ độc hại nhận yêu cầu này, do kẻ tấn công kiểm soát, sẽ thu thập dữ liệu nhạy cảm
- Kịch bản này cho thấy dù Notion AI sử dụng mô hình Claude Sonnet 4.0, các guardrail bảo mật vẫn có thể bị vượt qua
Cách tích hợp MCP mở rộng bề mặt tấn công của Notion AI agent
- Notion hỗ trợ AI Connector từ nhiều nguồn như GitHub, Gmail, Jira
- Context và metadata mà từng connector cung cấp cho agent tạo thêm bề mặt tấn công, làm tăng khả năng prompt độc hại xâm nhập từ nguồn bên ngoài thông qua tấn công tiêm prompt gián tiếp
- Rủi ro về các hành vi tự động hóa ngoài ý muốn mang tính độc hại và các nỗ lực rò rỉ dữ liệu nhạy cảm cũng tăng lên
- Ví dụ: commit message hoặc nội dung issue độc hại, hay email bên ngoài, có thể hoạt động như prompt gián tiếp để khiến agent truy cập và gửi dữ liệu nội bộ
Hàm ý và khuyến nghị (tóm tắt)
- Hàm ý cốt lõi: khi agent có quyền truy cập công cụ, các chỉ dẫn độc hại trong tài liệu có thể dẫn tới lời gọi công cụ và từ đó gây ra rò rỉ thông tin mật
- Các điểm phòng thủ cần thảo luận:
- Lời gọi công cụ của agent cần đi qua xác minh nguồn gốc, giới hạn ngữ cảnh và lọc theo chính sách
- Các chỉ dẫn thực thi trong tài liệu, như hướng dẫn tạo URL, cần được xử lý bằng cơ chế kiểm tra an toàn riêng, xác nhận của con người hoặc môi trường thực thi cô lập
- Cần tăng cường nguyên tắc đặc quyền tối thiểu theo từng MCP connector cùng với hệ thống log và cảnh báo cho các lời gọi
- Kết luận: các tính năng của Notion 3.0 có tiềm năng lớn trong nâng cao năng suất, nhưng vector tấn công mới do sự kết hợp giữa agent-công cụ-bộ nhớ tạo ra đòi hỏi phải xem xét lại thiết kế bảo mật trong thực tế
1 bình luận
Ý kiến trên Hacker News
Điều này khiến tôi nghĩ prompt injection giống như phishing nhắm vào một thực thể không có bản ngã hay khả năng tự phản tư để dừng lại và nghi ngờ.