- Nếu sử dụng dịch vụ Claude của Anthropic, từ nay dữ liệu của chính bạn sẽ được dùng cho huấn luyện AI
- Dữ liệu đầu vào của người dùng sẽ được dùng để huấn luyện mô hình nhằm phát triển các hệ thống AI trong tương lai
- Không bao gồm dữ liệu trong quá khứ; chỉ áp dụng với dữ liệu mới được nhập từ nay về sau
- Dữ liệu đã xóa hoặc được đặt ở chế độ riêng tư sẽ không được dùng để huấn luyện
- Người dùng có thể chọn tùy chọn từ chối tham gia huấn luyện (opt-out) trong phần cài đặt
Thay đổi trong chính sách thu thập dữ liệu và huấn luyện AI của Claude
- Người dùng tài khoản Claude do Anthropic vận hành hiện cần lưu ý rằng từ nay mọi dữ liệu họ nhập vào dịch vụ có thể được dùng cho huấn luyện AI
- Chính sách này áp dụng cho dữ liệu mới được nhập trong tương lai, không áp dụng cho dữ liệu đã cung cấp trước đó
- Dữ liệu đã bị người dùng xóa và dữ liệu được đánh dấu riêng tư sẽ không được đưa vào tập dữ liệu huấn luyện AI do được xử lý riêng
- Thông qua hướng dẫn trong dịch vụ, Anthropic cho biết nếu muốn, người dùng có thể từ chối việc sử dụng dữ liệu cho huấn luyện bằng menu cài đặt (opt-out)
- Đây là một chính sách đang cố gắng áp dụng sự cân bằng giữa việc phát triển dịch vụ AI và bảo vệ dữ liệu người dùng
1 bình luận
Ý kiến trên Hacker News
https://futureoflife.org/ai-safety-index-summer-2025/
https://imgur.com/afqMi0Z