1 điểm bởi GN⁺ 2025-08-30 | 1 bình luận | Chia sẻ qua WhatsApp
  • Anthropic đã cập nhật Điều khoản sử dụng dành cho người dùngChính sách quyền riêng tư
  • Người dùng nay có thể tự chọn có cho phép sử dụng dữ liệu của mình để cải thiện mô hình hay không
  • Áp dụng cho các gói Claude Free, Pro, Max và không áp dụng cho người dùng dịch vụ thương mại và API hiện có
  • Nếu cho phép cung cấp dữ liệu, người dùng có thể đóng góp vào việc tăng cường an toàn mô hìnhcải thiện tính năng như lập trình trong các mô hình tương lai
  • Việc đồng ý sử dụng dữ liệu, thời hạn lưu trữ và các thay đổi liên quan đều có thể được quản lý bất cứ lúc nào trong phần cài đặt

Nội dung chính của bản cập nhật

  • Anthropic đã cập nhật Điều khoản sử dụng dành cho người dùngChính sách quyền riêng tư nhằm nâng cao hiệu năng của AI Claude và tăng cường bảo vệ người dùng
  • Người dùng có thể chọn có cung cấp dữ liệu của mình để cải thiện mô hình Claude và tăng cường các cơ chế an toàn hay không
  • Có thể điều chỉnh việc cung cấp dữ liệu bất cứ lúc nào trong phần cài đặt

Đối tượng áp dụng và ngoại lệ

  • Bản cập nhật này chỉ áp dụng cho người dùng các gói Claude Free, Pro, Max và người dùng Claude Code thuộc các gói đó
  • Các dịch vụ theo điều khoản thương mại, tức Claude for Work, Claude Gov, Claude for Education và việc sử dụng API (bao gồm qua bên thứ ba như Amazon Bedrock, Google Cloud Vertex AI) sẽ không bị áp dụng

Tác động của việc đồng ý sử dụng dữ liệu

  • Nếu đồng ý cung cấp dữ liệu, độ an toàn của mô hình sẽ được cải thiện và độ chính xác của các hệ thống ngăn chặn thiệt hại và lạm dụng cũng sẽ tăng lên
  • Điều này cũng có thể đóng góp vào việc nâng cao nhiều năng lực của các mô hình Claude trong tương lai như lập trình, phân tích và suy luận
  • Thiết lập này luôn do người dùng trực tiếp kiểm soát, và có thể chọn tùy chọn này khi đăng ký mới hoặc qua cửa sổ bật lên nếu là người dùng hiện tại

Thông báo và thời điểm có hiệu lực

  • Người dùng sẽ được thông báo trong ứng dụng về các cập nhật và cơ hội thay đổi thiết lập
  • Người dùng hiện tại có thể quyết định đồng ý điều khoản và việc cung cấp dữ liệu đến ngày 28/09/2025
  • Khi đồng ý, chính sách mới sẽ có hiệu lực ngay lập tức và chỉ áp dụng cho các cuộc trò chuyện hoặc phiên lập trình mới hay được tiếp tục lại
  • Sau ngày 28/09/2025, người dùng sẽ phải tự chọn thiết lập để tiếp tục sử dụng Claude
  • Có thể thay đổi tùy chọn tại Privacy Settings

Gia hạn thời gian lưu trữ dữ liệu

  • Khi đồng ý cung cấp dữ liệu cho việc huấn luyện mô hình, thời gian lưu trữ dữ liệu sẽ được kéo dài lên 5 năm
  • Việc gia hạn lưu trữ này chỉ áp dụng cho các cuộc trò chuyện/phiên lập trình mới hoặc được tiếp tục lại và được dùng cho cải thiện mô hình và tăng cường an toàn
  • Nếu xóa cuộc trò chuyện, dữ liệu đó sẽ không được dùng cho việc huấn luyện mô hình trong tương lai
  • Nếu không đồng ý cung cấp dữ liệu, chính sách lưu trữ 30 ngày hiện tại sẽ được giữ nguyên

Xử lý dữ liệu phản hồi

  • Dữ liệu phản hồi của người dùng cũng sẽ áp dụng chính sách lưu trữ 5 năm

Bảo vệ quyền riêng tư và cách xử lý dữ liệu

  • Anthropic bảo vệ quyền riêng tư của người dùng bằng cách lọc/giả danh hóa dữ liệu nhạy cảm bằng các công cụ và quy trình tự động
  • Dữ liệu của người dùng không bị bán cho bên thứ ba

Thông tin bổ sung

  • Có thể xem chi tiết các thay đổi trong Điều khoản sử dụng dành cho người dùng và Chính sách quyền riêng tư tại mục FAQ

1 bình luận

 
GN⁺ 2025-08-30
Ý kiến trên Hacker News
  • Tò mò liệu người dùng có thể làm ô nhiễm bộ dữ liệu huấn luyện trong tương lai hay không, ví dụ luôn để lại phản hồi không hài lòng dù thực tế đã được giúp đỡ, hoặc cố tình lái cuộc trò chuyện theo hướng phá hoại rồi lại để phản hồi rất tích cực

  • Không thích việc hiển thị như thể mặc định là opt-in nhưng thực chất lại là opt-out, đồng thời dẫn dắt bằng một lời nhắc trông như chỉ là cập nhật điều khoản đơn thuần; cũng thấy việc lưu dữ liệu 5 năm là quá mức, và nghi ngờ còn có điều khoản đáng ngại nào khác trong bộ điều khoản mới, cuối cùng chuyện này trở thành lý do để hủy đăng ký

    • Nhận ra rằng trong mọi thiết lập khác của Anthropic, công tắc khi bật sẽ có màu xanh dương còn khi tắt thì màu đen, nhưng riêng trong hộp thông báo thay đổi lần này thì thanh trượt ở cả hai trạng thái đều màu xám, có thể tự vào phần cài đặt để thấy sự khác biệt; khá thất vọng và hơi chua chát vì trông như có ai đó đã cố ý làm vậy
    • Muốn bắt bẻ cách dùng cụm “opt-in by default”, vì thực chất phải là “opt-out”, tùy chọn opt-out mới là thiết lập mặc định
    • Nhắc đến phần “lưu giữ 5 năm”, vì một khi đã được đưa vào huấn luyện mô hình thì về cơ bản là tồn tại mãi mãi
    • Điều thực sự đáng lo là việc lưu giữ 5 năm; nếu trong 5 năm tới họ cứ tiếp tục thay đổi điều khoản và đưa lại tùy chọn opt-out, thì chỉ cần một lần bấm nhầm là họ sẽ lấy toàn bộ dữ liệu; sau này họ thậm chí có thể bỏ hẳn opt-out, hoặc đến 4 năm 364 ngày sau lại đổi điều khoản và kéo thành lưu 10 năm; đến lúc đó quyền riêng tư có lẽ đã bị bào mòn đến mức chẳng mấy ai còn nhận ra việc tùy chọn đó thực ra không hề tồn tại
    • Khi mở ứng dụng thì đã thấy popup thông báo thay đổi cùng với tùy chọn opt-out, xét về mặt minh bạch thì có vẻ cũng ổn
  • Claude đang giúp tôi trong nghiên cứu toán học; điều tôi lo là nếu trong lúc trao đổi tôi đưa cho Claude những ý tưởng nghiên cứu chưa công bố, thì sau đó Claude có thể gợi ý chính những ý tưởng đó cho người khác và người đó tin rằng đó là ý tưởng của họ; điều này khiến tôi thấy rằng không chỉ tài khoản thương mại mà cả cá nhân cũng rất cần quyền riêng tư trong việc phát triển tri thức với AI

    • Có người hỏi chẳng phải Claude rốt cuộc vẫn đang giúp công việc của người khác sao; Claude ngoài các cuộc trò chuyện của chính người dùng ra thì không biết gì ngoài dữ liệu huấn luyện, nên đây là cơ chế AI kiểu cổ điển
    • Xem AI như một cỗ máy liên tưởng khổng lồ; trong nghiên cứu toán học, việc phân biệt giữa “ý tưởng chưa ai từng nghĩ ra” và “ý tưởng đã có người nghĩ tới” vốn từ lâu đã rất tốn thời gian; trước đây phải lặp đi lặp lại việc tìm từ khóa qua internet, MathSciNet, ArXiv... còn với AI thì đã đầu tư hơn 6 tháng để học cách viết prompt nhằm nhận được những câu trả lời hiếm gặp; khả năng khái quát hóa của AI lại càng gây nhiễu, ví dụ lúc nó có vẻ mới mẻ nhất thì nghịch lý thay đôi khi chỉ là đang nối các phần mà trước đó ai cũng đã nghĩ tới; nếu viết prompt phù hợp thì AI cũng có thể nối các ý tưởng theo cách như vậy
    • Nếu chọn opt-out trong popup liên quan đến điều khoản mới, các cuộc trò chuyện của tôi sẽ không được dùng để huấn luyện
    • Nếu đó thật sự là công trình rất mới, thì xác suất nó xuất hiện sau này trong các mô hình như vậy là rất thấp; các hệ thống này về bản chất tạo ra đầu ra đã được khái quát hóa dựa trên dữ liệu mà nhiều người cùng chia sẻ, nên một khái niệm phải rất phổ biến trong dữ liệu huấn luyện thì mới được sinh ra ở giai đoạn suy luận; trên thực tế đây là một cấu trúc vừa bảo vệ đổi mới vừa bảo vệ quyền riêng tư, và nếu một khái niệm đã phổ biến tới mức nào đó thì nó cũng đủ điều kiện để trở thành tri thức công khai rồi, trừ vấn đề IP
    • Ranh giới về việc các công ty AI sẽ tận dụng tri thức của con người đến đâu, trong khi thực ra họ không sở hữu nó, đang rất mờ nhạt; thậm chí có thể chưa từng có ranh giới nào được vạch ra
  • Đây là điều có thể đoán trước; các tay chơi lớn đã gần chạm trần với việc huấn luyện trên gần như toàn bộ internet và cả nội dung bị lấy cắp dẫn tới kiện tụng, vài năm gần đây cũng không có đột phá lớn nào về kiến trúc mô hình, nên giờ họ đang lao vào cuộc chiến giành thêm dữ liệu huấn luyện, và rốt cuộc bắt đầu với tới cả dữ liệu người dùng bằng những cách ngày càng đáng ngờ

    • Hàng trăm data broker cũng muốn dữ liệu người dùng, nhưng các công ty AI có sẵn một kênh đã được dựng lên nơi người dùng tự nguyện cung cấp dữ liệu mỗi ngày; họ chỉ cần các thay đổi điều khoản theo kiểu dark pattern và một chút xử lý PR tối thiểu; kiểu tranh cãi này chỉ một tuần là mọi người sẽ quên hết
    • Thú vị là gần đây các mô hình AI bị suy giảm chất lượng khi học trên dữ liệu do chính AI tạo ra; nếu thận trọng hơn trong việc tách nội dung người + AI, hoặc ký hợp đồng với các nhà xuất bản, có lẽ tình hình đã khác; nhưng vì ai cũng vội vã cào hết mọi dữ liệu có thể nên cuối cùng tất cả đều bị thiệt
    • Vấn đề không phải là có phải “ăn cắp” hay không, mà là họ đã tự thừa nhận hành vi sao chép bất hợp pháp trước tòa
    • Với các công ty AI, dữ liệu là mỏ vàng còn mạnh hơn rất nhiều so với ngành quảng cáo, là yếu tố sống còn; điều thật sự đáng lo là những hành vi phi đạo đức sẽ xuất hiện ở giao điểm giữa AI và quảng cáo; có thể Google hay Facebook đã liên kết chéo các nền tảng dữ liệu của họ với nhau rồi; vừa tò mò vừa lo ngại xem sẽ có những use case gì khi chuyện đó được công khai cho phép
    • Chính những trường hợp như vậy cho thấy cần có quy định mạnh hơn và các biện pháp an toàn chặt chẽ hơn
  • Nhiều người không ngạc nhiên, nhưng cá nhân tôi thấy khá sốc; chẳng hạn Google không đưa nội dung email Gmail của người dùng vào kết quả tìm kiếm, nên tôi nghĩ đây là một quyết định kinh doanh mang tính tự hủy, hay là tôi đang bỏ sót điều gì đó

    • Gmail cũng từng phân tích email trong nhiều năm để phục vụ quảng cáo cho tới năm 2017 liên kết
    • Nhờ bài viết này liên kết mới biết thay đổi chính sách đó không áp dụng cho tài khoản Claude dành cho công việc và giáo dục, các bảo vệ quyền riêng tư hiện có vẫn được giữ nguyên; về cơ bản tài khoản miễn phí hoặc phi thương mại là nhóm không mang lại nhiều tiền cho Anthropic nên họ ít quan tâm hơn; quyết định lần này có lẽ cũng nhằm giảm bớt dòng người dùng “miễn phí” như vậy, và tôi đoán sắp tới sẽ có thông báo kiểu “chúng tôi đã lắng nghe ý kiến của các bạn và ra mắt sản phẩm chú trọng quyền riêng tư, chỉ 30 USD/tháng”
    • Loại dữ liệu này rất hữu ích cho reinforcement learning, công ty khác nào cũng làm vậy, hơn nữa nếu cần thì vẫn có thể opt-out
    • Cái khung diễn giải rằng mọi người phải ngạc nhiên mới là điều kỳ lạ, đây vốn là chuyện ai cũng dự đoán được
    • Google khai thác email rất sâu cho nhiều mục đích như marketing hay chuyển giao cho chính phủ, nhưng việc đưa nội dung email vào kết quả tìm kiếm và việc Claude dùng dữ liệu để huấn luyện là hai chuyện khác nhau; Google cũng không bị trừng phạt nghiêm khắc vì điều đó
  • Thực ra từ trước đến nay việc AI hoàn toàn không thể học từ tương tác với người dùng, đặc biệt là cứ lặp lại cùng một lỗi, mới là điều gây bực bội, nên tôi ngạc nhiên vì thay đổi này đến tận bây giờ mới được thực hiện

    • Không có chuyện học theo thời gian thực, dữ liệu của tôi cũng không được phản ánh ngay lập tức; dữ liệu huấn luyện vẫn được dùng cho quá trình đào tạo mô hình vốn kéo dài nhiều tháng, và dữ liệu từ một hai người hầu như không ảnh hưởng lớn đến luồng sử dụng của đa số; thay vì phản ánh cách làm việc rất riêng của tôi, chỉ những gì chung cho nhiều người dùng mới tạo ra hiệu quả học tập
    • Từ bản thân tương tác cũng không học được quá nhiều, các chỉ số đánh giá cũng tập trung vào tiêu chuẩn toàn cục chứ không phải từng người dùng cá nhân, nên dịch vụ chỉ ngày càng trở nên tầm thường hơn
    • Đây là chiến lược lấy thêm dữ liệu trong khi vẫn thu cùng một mức phí thuê bao, khả năng giảm giá hay hoàn tiền là rất thấp
  • Nếu nhiều người phản đối thì tôi lại nhìn theo hướng tích cực; cho phép LLM học từ các cuộc trò chuyện trước đây là điều rất quan trọng cho sự phát triển mô hình, dù về dài hạn tôi cũng nhận thấy việc tri thức tập thể bị tập trung vào một số ít công ty có thể nguy hiểm, nên rốt cuộc có lẽ giải pháp duy nhất là mô hình “tự lưu ký” nơi từng tổ chức hoặc cá nhân tự vận hành và huấn luyện mô hình của mình; tất nhiên để khả thi thì chi phí phải giảm rất nhiều

    • Tôi nghĩ cách này sẽ ổn nếu có tính tương hỗ; nhưng việc tôi trả 20 USD mỗi tháng mà còn phải cung cấp miễn phí dữ liệu huấn luyện cho Anthropic thì không hợp lý
    • Tôi thấy đang thiếu mất điểm rằng đây không phải “mọi người cùng nhau cải thiện LLM”, mà rốt cuộc là đang cung cấp dữ liệu huấn luyện cho một LLM duy nhất là Claude
    • Nếu đem mã nguồn doanh nghiệp, kịch bản, thông tin sức khỏe hoặc tài chính và các dữ liệu nhạy cảm khác đi huấn luyện thì rủi ro sẽ rất lớn
    • Tôi nghĩ việc LLM không tiến bộ quá nhiều cũng không sao
    • Ngược lại, ngay cả khi LLM tốt hơn nữa thì cũng chưa chắc mang lại lợi ích thực chất đủ lớn cho phần lớn người dùng; nhìn tổng thể thậm chí còn có thể gây thiệt nhiều hơn lợi
  • Việc đến tận bây giờ mới đổi chính sách còn tệ hơn; tôi vốn đã muốn dữ liệu của mình được dùng để huấn luyện, thậm chí thấy cứ tiếp tục học cũng không sao; nếu ai đó muốn ám ảnh cực đoan về quyền riêng tư dữ liệu thì chỉ cần không dùng dữ liệu của mình là được; tôi thực ra đứng hoàn toàn ở phía ngược lại nhưng các công ty chẳng hề tính đến kiểu khuynh hướng này; ngay cả Google cũng không có tùy chọn kiểu “hãy tích cực dùng toàn bộ dữ liệu của tôi cho huấn luyện”, điều đó làm tôi khó chịu; tôi đã nhập nơi mình sống nhiều lần mà họ vẫn cứ quên, mọi thứ đều được thiết kế dựa trên giả định rằng “không ai muốn chia sẻ dữ liệu của mình”; các cuộc phỏng vấn DeepMind trong lĩnh vực y học cũng đều bắt đầu bằng nỗi sợ dữ liệu bị chia sẻ, thảm họa và sự ám ảnh đó; tôi chưa từng chịu thiệt hại lớn nào vì chuyện đó mà ngược lại còn thấy nó giúp ích cho tiến bộ y học; với NHS tôi cũng luôn cố gắng tích chọn “hãy tích cực sử dụng dữ liệu của tôi”, nhưng mặc định lúc nào cũng là “từ chối tất cả” nên rất phiền; sẽ thật tốt nếu có một ô chọn tổng duy nhất kiểu “hãy dùng toàn bộ dữ liệu của tôi và đừng hỏi lại nữa”

    • Để có thể đồng cảm hơn với lập trường này thì phải tin rằng các công ty vẫn đang phục vụ người dùng, nhưng thực tế thông tin của tôi lại thường được dùng theo cách đi ngược lợi ích của chính tôi, chẳng hạn nhắm quảng cáo cho các sản phẩm lừa đảo; các công ty AI cũng phần lớn chịu ảnh hưởng của VC nên tập trung vào lợi nhuận hơn là làm sản phẩm vì người dùng, và hiện giờ chỉ đang ở thời kỳ “MoviePass” khi người dùng được ưu ái để giành thị phần, còn sau này chất lượng dịch vụ sẽ xấu đi và khả năng lạm dụng chỉ tăng lên MoviePass Wikipedia
    • Thật khó hiểu khi ai đó lại nghiêm túc giữ quan điểm như vậy mà không có tư duy phản biện
    • Chỉ cần sống ở một quốc gia có hệ thống bảo hiểm tư nhân là sẽ hiểu ngay dữ liệu y tế là tài sản riêng tư quan trọng đến mức nào
    • Tự hỏi không biết đây có phải đang troll hay là đang sống trong một thế giới lý tưởng nơi doanh nghiệp luôn đặt người dùng lên hàng đầu
    • Trong cuộc sống của tôi rõ ràng có những giá trị quan trọng hơn việc “LLM hoạt động tốt hơn một chút”
  • Tôi từng tin Anthropic đang nhắm tới một nhóm người dùng nhỏ nhưng mạnh về kỹ thuật theo góc nhìn dài hạn, và về nguyên tắc tôi định hủy đăng ký; các mô hình nguồn mở tuy vẫn chưa đáp ứng nhu cầu của tôi tốt như Claude, nhất là việc chuẩn bị kiểm thử bảo mật theo các tiêu chuẩn ISO/IEEE, nhưng tôi sẽ tìm giải pháp khác

    • Rốt cuộc điều người dùng có thể làm chỉ là hủy dịch vụ; rất khó trông chờ vào luật pháp hay quy định, mà kể cả có được ban hành thì cũng có thể chỉ bị hóa giải bằng cách trả chi phí; một khi đã cung cấp dữ liệu cho dịch vụ web hay ứng dụng thì nên dùng với tâm thế rằng dữ liệu đó không còn là tài sản độc quyền của mình nữa
  • Thắc mắc vì sao lại không liên kết trực tiếp tới thông báo chính thức mà lại dùng bài tóm tắt do AI viết của perplexity.ai; trong thông báo thực tế liên kết, các điểm quan trọng là: có popup thông báo thay đổi trong ứng dụng và có thể chọn opt-out, có thể opt-out bất cứ lúc nào trong menu cài đặt, bắt đầu có hiệu lực từ ngày 28 tháng 9, chỉ áp dụng khi đồng ý điều khoản mới và làm mới phiên, không áp dụng cho API/external service, Claude Gov, Claude for Education; liên kết gốc sẽ hữu ích hơn

    • Nếu có thể opt-out thì tôi không quá bận tâm, nhưng vẫn thắc mắc liệu các ứng dụng bên thứ ba tích hợp Claude API như JetBrains AI hay Zed có quyết định việc opt-in thay người dùng hay không; với các trường hợp dựa trên API thì kiểu tùy chọn huấn luyện này tuyệt đối không nên mặc định opt-in, và tôi nghĩ toàn ngành nên theo nguyên tắc đó
    • Popup ứng dụng mà tôi nhận được chỉ có nút và hình ảnh chứ không có chữ nào; tôi còn kiểm tra cả DOM vì tưởng có thể do dark mode, nhưng cũng không tìm thấy văn bản; tôi chỉ nghĩ đó là thông báo tính năng mới nên bỏ qua; nếu không tình cờ thấy chính sách vừa đổi trên Reddit thì đã chẳng biết nội dung gì, và có lẽ ngoài tôi ra còn nhiều người dùng khác cũng đã bỏ lỡ chuyện này
    • Thừa nhận bình luận trước của mình không còn đúng ngữ cảnh và đã sửa lại; ban đầu đó là liên kết tới phần tổng hợp nhiều bài của perplexity.ai, nhưng đúng lúc đó moderator đã thay bằng thông báo gốc; nhiều bình luận là kết quả của việc chỉ lướt qua phần tóm tắt do AI tạo rồi vội vàng kết luận, nên việc đổi sang bản gốc thực ra là điều may mắn
    • Tôi nghĩ liên kết tới nguồn gốc sẽ tốt hơn nhiều so với liên kết tới các bản tổng hợp bài viết khác nhau