1 điểm bởi GN⁺ 2025-08-30 | 1 bình luận | Chia sẻ qua WhatsApp
  • Nếu sử dụng dịch vụ Claude của Anthropic, từ nay dữ liệu của chính bạn sẽ được dùng cho huấn luyện AI
  • Dữ liệu đầu vào của người dùng sẽ được dùng để huấn luyện mô hình nhằm phát triển các hệ thống AI trong tương lai
  • Không bao gồm dữ liệu trong quá khứ; chỉ áp dụng với dữ liệu mới được nhập từ nay về sau
  • Dữ liệu đã xóa hoặc được đặt ở chế độ riêng tư sẽ không được dùng để huấn luyện
  • Người dùng có thể chọn tùy chọn từ chối tham gia huấn luyện (opt-out) trong phần cài đặt

Thay đổi trong chính sách thu thập dữ liệu và huấn luyện AI của Claude

  • Người dùng tài khoản Claude do Anthropic vận hành hiện cần lưu ý rằng từ nay mọi dữ liệu họ nhập vào dịch vụ có thể được dùng cho huấn luyện AI
  • Chính sách này áp dụng cho dữ liệu mới được nhập trong tương lai, không áp dụng cho dữ liệu đã cung cấp trước đó
  • Dữ liệu đã bị người dùng xóadữ liệu được đánh dấu riêng tư sẽ không được đưa vào tập dữ liệu huấn luyện AI do được xử lý riêng
  • Thông qua hướng dẫn trong dịch vụ, Anthropic cho biết nếu muốn, người dùng có thể từ chối việc sử dụng dữ liệu cho huấn luyện bằng menu cài đặt (opt-out)
  • Đây là một chính sách đang cố gắng áp dụng sự cân bằng giữa việc phát triển dịch vụ AI và bảo vệ dữ liệu người dùng

1 bình luận

 
GN⁺ 2025-08-30
Ý kiến trên Hacker News
  • Thành thật mà nói, các công ty này đã đánh cắp hàng terabyte dữ liệu rồi, lại còn không công khai dataset, nên tôi phải mặc định rằng bất cứ thứ gì tôi đưa vào dịch vụ thì họ cũng sẽ thu thập hết để huấn luyện
    • Việc đọc những bài viết được đăng công khai trên Internet giờ lại bị xem là trộm cắp sao? Tôi nghĩ đây là cách diễn giải quyền sở hữu quá hà khắc
    • Không nhất thiết phải giả định theo hướng xấu như vậy, không nên nghĩ ai cũng sẽ hành động với ác ý, và cũng nên cảnh giác khi kiểu suy nghĩ này trở nên phổ biến
    • Tôi nghĩ ý kiến trên là cách diễn giải hợp lý nhất
  • Vốn dĩ tôi đã mặc định rằng mọi dữ liệu đều đang bị dùng để huấn luyện AI rồi, không biết có phải chỉ mình tôi nghĩ vậy không
    • Bài toán khó nhất của khoa học máy tính vào năm 2025 có lẽ sẽ là thuyết phục mọi người rằng “chúng tôi không dùng mọi thông tin cá nhân của các bạn để huấn luyện AI”, thành thật mà nói tôi còn nghĩ có khi Anthropic cũng thấy chẳng ai tin chuyện không ai đụng vào dữ liệu của mình nên quyết định cứ dùng luôn, thậm chí nếu cho người dùng lựa chọn để tự kiểm soát thì có khi niềm tin còn tăng lên
    • Tôi thật sự không hiểu kiểu tư duy này, tại sao cứ phải mặc định như thế ngay từ đầu; chỉ cần dành vài phút khi dùng Claude lần đầu là có thể kiểm tra phần cài đặt quyền riêng tư, tôi lúc nào cũng kiểm tra mỗi khi dùng dịch vụ mới, nếu cứ cay nghiệt kết luận rằng mọi thứ đều bị chia sẻ thì rốt cuộc sẽ chẳng kiểm tra gì cả, trong menu Cài đặt -> Quyền riêng tư là thấy ngay
    • Điều này cũng giống như sự ngây thơ của những người tin rằng xóa tài liệu khỏi server của Google/META/Apple/Microsoft là nó biến mất thật, Google có lẽ vẫn giữ bản sao lưu của toàn bộ thông tin đã lập chỉ mục suốt 20 năm qua, ở mức mà cả Internet Archive cũng phải ghen tị
    • Tôi vốn nghĩ tài khoản miễn phí đương nhiên sẽ bị dùng để huấn luyện AI, còn dữ liệu nào tôi thực sự không muốn lưu lại thì chỉ cần xóa khỏi dịch vụ là được, nhưng chuyện ngay cả tài khoản trả phí cũng bị tính vào và dữ liệu còn bị giữ tới 5 năm thì tôi không hiểu nổi
    • Dĩ nhiên vẫn có những người còn tin vào giá trị nền tảng là những cam kết của xã hội, nhưng sau khi thấy các cam kết ấy cứ bị bẻ cong và phớt lờ mỗi khi trở nên bất tiện, thì việc cái nhìn hoài nghi trở nên phổ biến cũng chẳng lạ, vấn đề là điều đó ảnh hưởng thế nào tới lựa chọn thực tế; rốt cuộc những gì trước đây công khai dần trở thành riêng tư, vì vậy tôi đang thử dùng bản local và tự làm thứ gì đó mà mình kiểm soát tốt hơn
  • Có vẻ rồi sẽ đến lúc người ta phát hiện ra rằng bất kể ai đã opt-out thì dữ liệu của tất cả mọi người vẫn bị dùng để huấn luyện, tôi vẫn muốn tiếp tục dùng Claude nhưng không muốn mọi giải pháp mình tạo ra lại lan ra như tri thức công cộng
    • Có câu hỏi rằng trước đây đã từng có công ty nào phớt lờ yêu cầu opt-out chưa, nghe như vẫn còn điều gì đó khiến người ta lấn cấn
    • Tôi không ngại chuyện công ty/AI trở nên tốt hơn một chút nhờ đầu vào của tôi, chỉ là tôi không muốn điều đó bị gắn trực tiếp với tên hay thông tin của mình, sẽ tốt nếu áp dụng Chatham House Rule (quy tắc Chatham House: nội dung cuộc trò chuyện có thể được chia sẻ nhưng danh tính người phát biểu được giữ ẩn danh)
    • Tôi tò mò vì sao bạn lại không muốn chia sẻ insight của mình, tôi nghĩ chia sẻ trực tiếp còn tốt hơn để dữ liệu rò rỉ ra qua quá trình huấn luyện AI, chỉ là cách bạn diễn đạt nghe mạnh hơn mức đó
  • Có vẻ cuối cùng dữ liệu dùng để huấn luyện đang cạn dần, tôi tự hỏi họ còn có thể dựa vào dữ liệu đến mức nào và rút ra được kiểu “tri thức” gì, tôi gần như không đưa feedback và phần lớn thời gian (5 trong 6 lần) nhận kết quả sai, vậy mà tôi vẫn không hiểu họ sẽ đánh giá giá trị của những kết quả đó thế nào
    • Họ có thể dùng cách như Google: nếu người dùng bấm vào một liên kết nhất định rồi không tìm kiếm thêm nữa thì coi như kết quả đó hữu ích, sự im lặng của tôi cũng có thể bị xem là tín hiệu yếu cho thấy tôi hài lòng (tất nhiên còn tùy vào kiểu sử dụng của từng người)
    • Rốt cuộc tôi cũng không biết bất kỳ thứ gì dùng cho huấn luyện có thật sự có giá trị không, kể cả khi tôi nhận câu trả lời sai mà không bày tỏ bất mãn thì công ty có lẽ cũng chẳng để tâm lắm
  • Tôi nhớ ra chuyện này diễn ra ngay sau khi AI Safety Index được công bố, trong báo cáo đó Anthropic còn được khen là không dùng dữ liệu người dùng để huấn luyện, nên tôi cũng đã định tin tưởng và dùng nhiều hơn
    https://futureoflife.org/ai-safety-index-summer-2025/
  • AI hiện đại dựa trên dữ liệu, tin vào lời hứa rằng các cuộc trò chuyện của chúng ta sẽ không bị dùng để huấn luyện thì chẳng khác nào đưa món ăn khoái khẩu nhất cho một kẻ háu ăn rồi bắt họ hứa là tuyệt đối không được ăn, dù sao thì miễn là cuộc trò chuyện không bị rò rỉ hoàn toàn ra bên ngoài là tôi chấp nhận được, tôi vốn đã dùng với điều kiện như vậy rồi
    • Không nên biến những chuyện như thế này thành điều bình thường, nếu muốn bảo vệ nghĩa vụ hợp đồng cũng như quyền riêng tư và nhân quyền của chúng ta thì nhất định phải thực thi
  • Vừa đăng nhập trên ứng dụng iOS là popup cài đặt opt-out hiện ra ngay, hơi phiền thật nhưng cách xử lý thì cũng ổn
    • Với một LLM như Claude, tôi lại muốn nó thông minh hơn nhờ các cuộc trò chuyện hay feedback của mình, việc không có trí nhớ dài hạn theo từng người dùng hay lịch sử hội thoại tích hợp sẵn thực sự rất khó chịu, tôi đã đề nghị Anthropic thêm tính năng opt-in suốt 6 tháng nay, tất nhiên tôi cũng hiểu các vấn đề quyền riêng tư, nhưng trong chuyên môn của tôi (nghiên cứu nhận thức, di truyền học, triết học thần kinh) thì Claude cần phải thông minh hơn, và tôi muốn chia sẻ những gì mình biết để có được một đối tác suy nghĩ thật sự tốt
  • Khó mà tin nổi, đây là vấn đề đạo đức về quyền riêng tư ngang với những quyết định tai tiếng của Meta, một màn rollout thật sự tệ, modal (cửa sổ hướng dẫn cài đặt) này hiện nguyên trong cửa sổ hội thoại đang có, tôi chưa từng cho phép dùng dữ liệu, ý tưởng, mức lương hay tiền sử gia đình của mình, nhưng tôi lo rồi bên PR sẽ nói kiểu “anh/chị đã opt-in trong modal đó rồi mà?”
    https://imgur.com/afqMi0Z
  • Không biết họ đã dùng loại dữ liệu gì để huấn luyện, nhưng tôi đã hủy Claude lần thứ hai, bug UI trên giao diện web, hiện tượng nhấp nháy liên tục cũng rất khó chịu, mà câu trả lời AI gần đây còn trở nên quá tiêu cực và ngạo mạn, trước đây hoặc ở các LLM khác tôi chưa từng thấy như vậy, có lẽ vì trước đó bị chỉ trích là nịnh nọt nên họ điều chỉnh rồi thất bại, giờ nó còn suy đoán hành vi của tôi và chỉ trích vượt khỏi ngữ cảnh kỹ thuật, dùng Gemini thì lúc nào cũng giả định tôi đang tức giận với câu trả lời, nhưng ít ra không thô lỗ, nên giờ tôi quay lại chatgpt và vẫn đang tiếp tục test so sánh
    • Với power user thì cần có các núm chỉnh như API để tinh chỉnh được (nịnh nọt/an toàn/tắt chế độ bảo vệ trẻ em, v.v.), nếu có cả công tắc mở khóa như lò vi sóng thì càng tốt
  • Có một bài tương tự bài này ở đây
    • Ít nhất bài này có kèm nguyên văn thông báo mà Anthropic thực sự đã gửi, nên cũng có ý nghĩa, còn bản tóm tắt do Perplexity cung cấp có thể sẽ dễ đọc hơn với người không chuyên