- Anthropic đã cập nhật Điều khoản sử dụng dành cho người dùng và Chính sách quyền riêng tư
- Người dùng nay có thể tự chọn có cho phép sử dụng dữ liệu của mình để cải thiện mô hình hay không
- Áp dụng cho các gói Claude Free, Pro, Max và không áp dụng cho người dùng dịch vụ thương mại và API hiện có
- Nếu cho phép cung cấp dữ liệu, người dùng có thể đóng góp vào việc tăng cường an toàn mô hình và cải thiện tính năng như lập trình trong các mô hình tương lai
- Việc đồng ý sử dụng dữ liệu, thời hạn lưu trữ và các thay đổi liên quan đều có thể được quản lý bất cứ lúc nào trong phần cài đặt
Nội dung chính của bản cập nhật
- Anthropic đã cập nhật Điều khoản sử dụng dành cho người dùng và Chính sách quyền riêng tư nhằm nâng cao hiệu năng của AI Claude và tăng cường bảo vệ người dùng
- Người dùng có thể chọn có cung cấp dữ liệu của mình để cải thiện mô hình Claude và tăng cường các cơ chế an toàn hay không
- Có thể điều chỉnh việc cung cấp dữ liệu bất cứ lúc nào trong phần cài đặt
Đối tượng áp dụng và ngoại lệ
- Bản cập nhật này chỉ áp dụng cho người dùng các gói Claude Free, Pro, Max và người dùng Claude Code thuộc các gói đó
- Các dịch vụ theo điều khoản thương mại, tức Claude for Work, Claude Gov, Claude for Education và việc sử dụng API (bao gồm qua bên thứ ba như Amazon Bedrock, Google Cloud Vertex AI) sẽ không bị áp dụng
Tác động của việc đồng ý sử dụng dữ liệu
- Nếu đồng ý cung cấp dữ liệu, độ an toàn của mô hình sẽ được cải thiện và độ chính xác của các hệ thống ngăn chặn thiệt hại và lạm dụng cũng sẽ tăng lên
- Điều này cũng có thể đóng góp vào việc nâng cao nhiều năng lực của các mô hình Claude trong tương lai như lập trình, phân tích và suy luận
- Thiết lập này luôn do người dùng trực tiếp kiểm soát, và có thể chọn tùy chọn này khi đăng ký mới hoặc qua cửa sổ bật lên nếu là người dùng hiện tại
Thông báo và thời điểm có hiệu lực
- Người dùng sẽ được thông báo trong ứng dụng về các cập nhật và cơ hội thay đổi thiết lập
- Người dùng hiện tại có thể quyết định đồng ý điều khoản và việc cung cấp dữ liệu đến ngày 28/09/2025
- Khi đồng ý, chính sách mới sẽ có hiệu lực ngay lập tức và chỉ áp dụng cho các cuộc trò chuyện hoặc phiên lập trình mới hay được tiếp tục lại
- Sau ngày 28/09/2025, người dùng sẽ phải tự chọn thiết lập để tiếp tục sử dụng Claude
- Có thể thay đổi tùy chọn tại Privacy Settings
Gia hạn thời gian lưu trữ dữ liệu
- Khi đồng ý cung cấp dữ liệu cho việc huấn luyện mô hình, thời gian lưu trữ dữ liệu sẽ được kéo dài lên 5 năm
- Việc gia hạn lưu trữ này chỉ áp dụng cho các cuộc trò chuyện/phiên lập trình mới hoặc được tiếp tục lại và được dùng cho cải thiện mô hình và tăng cường an toàn
- Nếu xóa cuộc trò chuyện, dữ liệu đó sẽ không được dùng cho việc huấn luyện mô hình trong tương lai
- Nếu không đồng ý cung cấp dữ liệu, chính sách lưu trữ 30 ngày hiện tại sẽ được giữ nguyên
Xử lý dữ liệu phản hồi
- Dữ liệu phản hồi của người dùng cũng sẽ áp dụng chính sách lưu trữ 5 năm
Bảo vệ quyền riêng tư và cách xử lý dữ liệu
- Anthropic bảo vệ quyền riêng tư của người dùng bằng cách lọc/giả danh hóa dữ liệu nhạy cảm bằng các công cụ và quy trình tự động
- Dữ liệu của người dùng không bị bán cho bên thứ ba
Thông tin bổ sung
- Có thể xem chi tiết các thay đổi trong Điều khoản sử dụng dành cho người dùng và Chính sách quyền riêng tư tại mục FAQ
1 bình luận
Ý kiến trên Hacker News
Tò mò liệu người dùng có thể làm ô nhiễm bộ dữ liệu huấn luyện trong tương lai hay không, ví dụ luôn để lại phản hồi không hài lòng dù thực tế đã được giúp đỡ, hoặc cố tình lái cuộc trò chuyện theo hướng phá hoại rồi lại để phản hồi rất tích cực
Không thích việc hiển thị như thể mặc định là opt-in nhưng thực chất lại là opt-out, đồng thời dẫn dắt bằng một lời nhắc trông như chỉ là cập nhật điều khoản đơn thuần; cũng thấy việc lưu dữ liệu 5 năm là quá mức, và nghi ngờ còn có điều khoản đáng ngại nào khác trong bộ điều khoản mới, cuối cùng chuyện này trở thành lý do để hủy đăng ký
Claude đang giúp tôi trong nghiên cứu toán học; điều tôi lo là nếu trong lúc trao đổi tôi đưa cho Claude những ý tưởng nghiên cứu chưa công bố, thì sau đó Claude có thể gợi ý chính những ý tưởng đó cho người khác và người đó tin rằng đó là ý tưởng của họ; điều này khiến tôi thấy rằng không chỉ tài khoản thương mại mà cả cá nhân cũng rất cần quyền riêng tư trong việc phát triển tri thức với AI
Đây là điều có thể đoán trước; các tay chơi lớn đã gần chạm trần với việc huấn luyện trên gần như toàn bộ internet và cả nội dung bị lấy cắp dẫn tới kiện tụng, vài năm gần đây cũng không có đột phá lớn nào về kiến trúc mô hình, nên giờ họ đang lao vào cuộc chiến giành thêm dữ liệu huấn luyện, và rốt cuộc bắt đầu với tới cả dữ liệu người dùng bằng những cách ngày càng đáng ngờ
Nhiều người không ngạc nhiên, nhưng cá nhân tôi thấy khá sốc; chẳng hạn Google không đưa nội dung email Gmail của người dùng vào kết quả tìm kiếm, nên tôi nghĩ đây là một quyết định kinh doanh mang tính tự hủy, hay là tôi đang bỏ sót điều gì đó
Thực ra từ trước đến nay việc AI hoàn toàn không thể học từ tương tác với người dùng, đặc biệt là cứ lặp lại cùng một lỗi, mới là điều gây bực bội, nên tôi ngạc nhiên vì thay đổi này đến tận bây giờ mới được thực hiện
Nếu nhiều người phản đối thì tôi lại nhìn theo hướng tích cực; cho phép LLM học từ các cuộc trò chuyện trước đây là điều rất quan trọng cho sự phát triển mô hình, dù về dài hạn tôi cũng nhận thấy việc tri thức tập thể bị tập trung vào một số ít công ty có thể nguy hiểm, nên rốt cuộc có lẽ giải pháp duy nhất là mô hình “tự lưu ký” nơi từng tổ chức hoặc cá nhân tự vận hành và huấn luyện mô hình của mình; tất nhiên để khả thi thì chi phí phải giảm rất nhiều
Việc đến tận bây giờ mới đổi chính sách còn tệ hơn; tôi vốn đã muốn dữ liệu của mình được dùng để huấn luyện, thậm chí thấy cứ tiếp tục học cũng không sao; nếu ai đó muốn ám ảnh cực đoan về quyền riêng tư dữ liệu thì chỉ cần không dùng dữ liệu của mình là được; tôi thực ra đứng hoàn toàn ở phía ngược lại nhưng các công ty chẳng hề tính đến kiểu khuynh hướng này; ngay cả Google cũng không có tùy chọn kiểu “hãy tích cực dùng toàn bộ dữ liệu của tôi cho huấn luyện”, điều đó làm tôi khó chịu; tôi đã nhập nơi mình sống nhiều lần mà họ vẫn cứ quên, mọi thứ đều được thiết kế dựa trên giả định rằng “không ai muốn chia sẻ dữ liệu của mình”; các cuộc phỏng vấn DeepMind trong lĩnh vực y học cũng đều bắt đầu bằng nỗi sợ dữ liệu bị chia sẻ, thảm họa và sự ám ảnh đó; tôi chưa từng chịu thiệt hại lớn nào vì chuyện đó mà ngược lại còn thấy nó giúp ích cho tiến bộ y học; với NHS tôi cũng luôn cố gắng tích chọn “hãy tích cực sử dụng dữ liệu của tôi”, nhưng mặc định lúc nào cũng là “từ chối tất cả” nên rất phiền; sẽ thật tốt nếu có một ô chọn tổng duy nhất kiểu “hãy dùng toàn bộ dữ liệu của tôi và đừng hỏi lại nữa”
Tôi từng tin Anthropic đang nhắm tới một nhóm người dùng nhỏ nhưng mạnh về kỹ thuật theo góc nhìn dài hạn, và về nguyên tắc tôi định hủy đăng ký; các mô hình nguồn mở tuy vẫn chưa đáp ứng nhu cầu của tôi tốt như Claude, nhất là việc chuẩn bị kiểm thử bảo mật theo các tiêu chuẩn ISO/IEEE, nhưng tôi sẽ tìm giải pháp khác
Thắc mắc vì sao lại không liên kết trực tiếp tới thông báo chính thức mà lại dùng bài tóm tắt do AI viết của perplexity.ai; trong thông báo thực tế liên kết, các điểm quan trọng là: có popup thông báo thay đổi trong ứng dụng và có thể chọn opt-out, có thể opt-out bất cứ lúc nào trong menu cài đặt, bắt đầu có hiệu lực từ ngày 28 tháng 9, chỉ áp dụng khi đồng ý điều khoản mới và làm mới phiên, không áp dụng cho API/external service, Claude Gov, Claude for Education; liên kết gốc sẽ hữu ích hơn