1 điểm bởi GN⁺ 2025-09-07 | 1 bình luận | Chia sẻ qua WhatsApp
  • Các cuộc trò chuyện với chatbot AI gây ra những xâm phạm quyền riêng tư tương tự như theo dõi trực tuyến trước đây, nhưng nghiêm trọng hơn
  • Chatbot thu thập thông tin cá nhân nhiều hơn tìm kiếm, thậm chí nắm bắt cả quá trình tư duyphong cách giao tiếp cụ thể của con người
  • Những thông tin này có nguy cơ cao bị khai thác thường xuyên và tinh vi hơn cho thao túng như quảng cáo, nhồi nhét ý thức hệ
  • Trước đây từng có các dịch vụ AI bảo vệ quyền riêng tư, nhưng gần đây nhiều công ty đang gia tăng tình trạng rò rỉ quyền riêng tưlạm dụng dữ liệu
  • Do thiếu quy định pháp lý, vấn đề tiếp tục lặp lại, nên việc ban hành luật cấm giám sát bằng AI là hết sức cấp bách

Mức độ nghiêm trọng của chatbot AI và xâm phạm quyền riêng tư

  • Mọi vấn đề xâm phạm quyền riêng tư từng phát sinh từ theo dõi trực tuyến trước đây đều xuất hiện trong AI theo cách tương tự nhưng nghiêm trọng hơn
  • Các cuộc trò chuyện với chatbot dài và cụ thể hơn truy vấn tìm kiếm đơn thuần, nên có xu hướng làm lộ thông tin cá nhân nhiều hơn rất nhiều
  • Mọi người ngày càng dễ bộc lộ với chatbot những nỗi lo, cảm xúc và cách tư duy của mình
  • Không giống lịch sử tìm kiếm, chatbot tạo ra hồ sơ cá nhân toàn diện bao gồm cả tính cách, cách giao tiếp, v.v.

Rủi ro từ việc sử dụng thông tin AI và thao túng

  • Lượng thông tin cá nhân phong phú như vậy có thể bị lạm dụng hiệu quả hơn cho thao túng mang tính thương mại và ý thức hệ
  • Có thể dẫn dắt người dùng đến một lập trường chính trị hoặc sản phẩm cụ thể thông qua quảng cáo định hướng hành vi bằng chatbot, hoặc bằng cách thao túng system prompt và tối ưu hóa công cụ tìm kiếm (SEO)
  • Đã có nghiên cứu cho thấy chatbot thuyết phục hơn con người, và thực tế cũng đã có báo cáo về các trường hợp rơi vào tư duy hoang tưởng
  • Tính năng bộ nhớ của chatbot học từ dữ liệu hội thoại trong quá khứ để tạo ra sự thuyết phục cá nhân hóa và gây ảnh hưởng lớn
  • Thay cho các quảng cáo khó chịu kiểu cũ, một môi trường đang hình thành nơi thông điệp thuyết phục được cá nhân hóa hoặc các gợi ý sản phẩm tinh vi được truyền tải một cách tự nhiên

Dịch vụ AI bảo vệ quyền riêng tư và tình hình ngành

  • Trong 20 năm qua, tranh cãi về quyền riêng tư quanh Google Search cũng áp dụng cho trò chuyện AI, nhưng AI có tác động lớn hơn
  • DuckDuckGo và các bên khác cung cấp dịch vụ trò chuyện AI bảo vệ quyền riêng tư (Duck.ai) và câu trả lời AI ẩn danh
  • Tuy nhiên, những biện pháp bảo vệ như vậy chỉ là ngoại lệ, trong khi trên toàn ngành, các sự cố quyền riêng tư đang có xu hướng gia tăng
  • Các tin tức gần đây liên tục đề cập đến vụ rò rỉ quy mô lớn các cuộc trò chuyện chatbot của Grok, lỗ hổng dễ bị tấn công của Perplexity, và tầm nhìn theo dõi người dùng toàn diện của Open AI
  • Với Anthropic, trước đây tùy chọn lưu cuộc trò chuyện từng bị tắt, nhưng gần đây công ty đã đổi sang mặc định sử dụng các cuộc trò chuyện, khiến dữ liệu người dùng có thể được dùng để huấn luyện

Ứng phó pháp lý và các nhiệm vụ sắp tới

  • Cần lập pháp nhanh chóng để chatbot bảo vệ quyền riêng tư trở thành thực hành tiêu chuẩn, chứ không phải ngoại lệ
  • Mỹ thậm chí còn chưa có luật quyền riêng tư trực tuyến phổ quát, và cũng có hạn chế khi quyền này chưa được bảo đảm như một quyền cơ bản trong hiến pháp
  • Gần đây có dấu hiệu xuất hiện cơ hội lập pháp cấp liên bang liên quan đến AI, nhưng đồng thời cũng tồn tại các thảo luận muốn cấm lập pháp AI ở cấp bang
  • Có lo ngại rằng việc trì hoãn sẽ khiến các thực tiễn xấu bị cố định lâu dài
  • Để ngăn các vấn đề từng xảy ra với theo dõi trực tuyến lặp lại dưới hình thức theo dõi bằng AI, việc cấm giám sát bằng AI được nêu ra như một nhiệm vụ cấp bách

Kết luận

  • DuckDuckGo và các bên khác sẽ tiếp tục cung cấp dịch vụ bảo vệ quyền riêng tư cùng các tính năng AI tùy chọn
  • Người dùng có thể kỳ vọng vào những công cụ trực tuyến giúp tận hưởng đồng thời cả nâng cao năng suất lẫn bảo vệ quyền riêng tư

1 bình luận

 
GN⁺ 2025-09-07
Ý kiến trên Hacker News
  • Lý do khiến tôi ngừng dùng Facebook là vì tôi từng thấy một video về một bé gái người Úc khoảng 7 tuổi cầm trên tay một con nhện còn to hơn cả mặt mình, rồi tôi để lại một bình luận meme kiểu “thả con nhện ra rồi đốt luôn căn nhà đi”, và tài khoản lập tức bị xử phạt. Khi đó tôi là lập trình viên phụ trách tích hợp ứng dụng Facebook ở công ty nên đã kháng nghị, nhưng tôi không biết là AI xử lý từ chối cực nhanh hay là một người nào đó xử lý quá nhanh, chỉ có cảm giác là họ hoàn toàn không hiểu văn hóa meme trên Internet. Từ sau đó tôi bỏ hẳn Facebook. Nếu AI có thể trừng phạt con người dễ dàng đến vậy thì thật sự rất u ám
    • Tôi nghĩ vấn đề gốc rễ không chỉ là AI thực thi pháp luật, mà là các công ty tư nhân có quyền lực tác động tới đời sống thường nhật của con người gần như không có quy định ràng buộc. Ví dụ Facebook thì có thể bị xem nhẹ, nhưng nếu chủ nhà cho thuê hoặc công ty bảo hiểm đưa ra quyết định theo kiểu này thì thiệt hại sẽ khủng khiếp. Những chính sách như vậy chắc chắn sẽ không chỉ dừng lại ở doanh nghiệp tư nhân; các cơ quan nhà nước cũng đã tích cực dùng những hệ thống này và sau này sẽ còn nghiêm trọng hơn
    • Tôi chỉ đăng một script sửa lỗi cho DFhack trên reddit mà cũng bị khóa. DFhack là script cho một chương trình mà modder của Dwarf Fortress hay dùng. Nếu kiểu kiểm duyệt AI chất lượng thấp này trở thành chuẩn mực trong tương lai, thì tôi tin chắc những nền tảng lớn như thế này không còn đáng để dùng nữa
    • Tôi đã thấy khó chịu vì AI giờ còn sàng lọc trước cả bài test code. CV cũng bị AI xem xét rồi gửi thư từ chối kèm lý do, nhưng nội dung thì hoàn toàn lạc quẻ. Tôi cũng không chắc có người thật xem hay không, chỉ đang giả định là AI đã xem. Tìm việc vốn đã khó từ trước khi có AI, giờ thì chỉ còn lại cảm giác vỡ mộng với toàn bộ quy trình tuyển dụng
    • Cách Facebook quản lý sản phẩm bằng tự động hóa thật sự đáng thất vọng và đáng xấu hổ, đến mức họ còn tự động chặn cả tài khoản của một luật sư tên là Mark Zuckerberg. Bài liên quan: https://huffpost.com/entry/…. Nếu bạn là nhà quảng cáo trên Facebook thì tài khoản quảng cáo có thể bị hạn chế vô cớ, nhưng thậm chí chẳng có ai để khiếu nại, dù bạn có tiêu rất nhiều tiền cũng vậy. Mẹo mà ai cũng biết chỉ là đăng vài bài nhạt nhẽo trên fanpage trong 5~7 ngày trước khi chạy quảng cáo rồi mua lượt thích từ trước. Nếu không thì tài khoản quảng cáo sẽ bị khóa ngay
    • Không biết có phải bị khóa chỉ vì lỗi comma splice không nữa (comma splice là gì: https://en.m.wikipedia.org/wiki/Comma_splice)
  • Trong tương lai, các công ty AI lớn có lẽ sẽ tiếp tục kêu gọi tăng cường bảo vệ quyền riêng tư. Sam Altman cũng từng ví điều đó với đặc quyền luật sư-khách hàng trong một cuộc phỏng vấn. Điểm cản trở đối với việc dùng AI như một trợ lý cá nhân hoàn chỉnh hay kho tri thức thực thụ chính là thiếu dữ liệu riêng tư. Giải pháp thực sự duy nhất là tự chạy mô hình cục bộ, nhưng điều đó lại đi ngược mô hình kinh doanh hiện nay. Vì thế họ sẽ tiến theo hướng quyền riêng tư bị “cưỡng chế” bằng quy định, và cuối cùng chuyện này sẽ do quy định từ bên thứ ba cùng danh nghĩa lợi ích công chi phối, nằm ngoài tầm kiểm soát của tôi
    • Lập luận “xung đột với mô hình kinh doanh” không áp dụng nếu là công ty bán phần cứng. Nếu là Apple, Dell hay Lenovo thì tôi sẽ all-in vào mô hình chạy cục bộ có hỗ trợ Hugging Face
    • "Fiat privacy" rốt cuộc cũng có cùng điểm yếu như việc thú nhận hành vi giết người với ai đó hoặc cất khóa ví trong két sắt của người khác. Có thể học được điều gì đó từ nhà thờ. Nếu nhân viên của các nhà cung cấp LLM thật sự thể hiện niềm tin rằng họ sẵn sàng hy sinh tự do/tài sản của bản thân để bảo vệ quyền riêng tư, thì xã hội sẽ chấp nhận. Ví dụ như chuyện Richard Masten từng suýt vào tù vì tiêu hủy tài liệu chứa thông tin người cung cấp tin mật ngay tại tòa; trong một xã hội tốt đẹp, việc giữ vững nguyên tắc như thế có hiệu quả
    • Hãy so sánh đặc quyền luật sư-khách hàng mà Sam Altman nhắc tới với việc OpenAI lại công khai nói rằng họ có ý định giám sát toàn bộ cuộc trò chuyện rồi báo cho chính phủ (lập trường chính thức: https://openai.com/index/helping-people-when-they-need-it-most/). Nội dung là nếu họ cho rằng có “mối đe dọa khẩn cấp nghiêm trọng” thì sẽ chuyển cho cơ quan thực thi pháp luật. Có lẽ tổng thể là vì thiện ý, nhưng tôi không thể đồng ý với AI doanh nghiệp giám sát mọi cuộc trò chuyện. Cũng như công ty điện thoại không được nghe lén liên lạc trái phép, có vẻ thời đại AI ghi lại, đánh giá, thậm chí phân loại danh sách mọi cuộc gọi đang sắp đến
    • Big Tech đang giả ngây thơ và tỏ ra kiểu mẫu, nhưng thực chất chỉ đang câu giờ để “giành lợi thế về quy định và thị trường”. Họ tung ra những sản phẩm với khẩu hiệu đẹp đẽ hoặc các “tính năng nửa vời”, rồi tăng thị phần; nếu tích lũy đủ quyền lực trước khi có quy định thì thậm chí còn có thể thao túng cả chính trị gia. Có lẽ phải 5 năm nữa chính phủ Mỹ mới thật sự làm gì đó với các công ty AI, và đến lúc đó OpenAI, Google, Meta sẽ hoàn toàn nắm quyền chủ động trong thảo luận về quy định
    • Bất kỳ ai cũng có thể giết ai đó bất cứ lúc nào họ muốn. Nghĩ rằng mã hóa là đảm bảo được an toàn chỉ là ảo tưởng; cốt lõi vẫn là giữ bí mật
  • Nếu ai đã từng nói chuyện với chatbot thì có một điều bắt buộc phải biết: mọi cuộc trò chuyện với chatbot từ trước đến nay hiện không hề được xóa tử tế, và về sau có thể bị dùng bất cứ lúc nào cho nhắm quảng cáo, thao túng tài chính/chính trị, hoặc bán “ảnh hưởng được cá nhân hóa”. Không nên thu nhỏ rủi ro đó thành kiểu “dùng chat log để huấn luyện AI”. Nguy cơ thực tế hơn nhiều là khi các chatbot quảng cáo/ảnh hưởng xuất hiện trong tương lai, chúng sẽ tham chiếu toàn bộ log trò chuyện mà tôi từng để lại trên những chatbot khác để nghiên cứu cách thuyết phục phù hợp nhất với tôi. Thậm chí ngay cả các đoạn hội thoại giữa người với người trên nền tảng, nếu công ty bí tiền thì cũng có thể bị đem bán hết. Càng nghĩ càng thấy đáng bất an
    • Điều đáng sợ nhất của ai-chatbot đối với tôi là nó có thể được dùng như một “giao diện thao túng tối ưu hóa”. Chỉ cần ném vào prompt câu kiểu “làm sao khiến người này trở thành x?” dựa trên toàn bộ nội dung trò chuyện sẵn có, AI có thể tự tối ưu mọi thứ để dẫn dắt người đó
    • Quảng cáo cá nhân hóa hay quảng cáo retargeting chưa bao giờ làm tôi thấy khó chịu. Đằng nào cũng phải xem quảng cáo thì tôi thà thấy thứ hợp với mình còn hơn là thứ ít liên quan
    • Không nên bỏ qua chuyện lịch sử trò chuyện hoàn toàn có thể xuất hiện làm bằng chứng tại tòa
  • Tuyên bố về “cuộc trò chuyện được bảo vệ” thực chất đã mất hiệu lực từ lâu. Tin nhắn SMS trên mạng điện thoại từ trước đã bị tấn công trung gian (MITM). Ngoài đời, cảnh sát Anh cũng đã dùng AI nhận diện khuôn mặt dẫn tới cả những vụ bắt nhầm. Bất kỳ ai nhập cảnh Anh đều có thể bị ép giao nộp mật khẩu và thiết bị; nếu từ chối thì có thể bị giam vô thời hạn theo luật chống khủng bố. Nếu bị nghi liên quan khủng bố thì thậm chí còn không có quyền tiếp xúc luật sư. Kỷ nguyên quyền riêng tư thật ra đã lặng lẽ đi qua rồi
  • Nhờ AI, việc giám sát và kiểm duyệt cả những suy nghĩ trong quá khứ trên quy mô lớn đang trở thành hiện thực. Đúng là một thời đại đáng sợ
    • Có vẻ nhiều người rồi sẽ tránh xa luôn cả hành vi trực tuyến. Dù có thể vẫn tồn tại các cuộc trò chuyện riêng tư, nhưng chỉ cần tạo ra một tác phẩm nghệ thuật thôi thì cuối cùng cũng chẳng khác nào đang quyên góp cho cổ đông Google/Meta. Ý là ngay trước cả khi kiểm duyệt tư tưởng chính thức diễn ra, rủi ro này đã hiện hữu rồi
    • Thật ra kiểu kiểm duyệt này đã tồn tại từ lâu dưới dạng đơn giản hơn. Ví dụ ở chính trang này (HN), nội dung bình luận luôn bị định hình bởi động cơ muốn kiếm upvote. Dĩ nhiên downvote có giúp lọc bớt troll, nhưng không xóa được vấn đề gốc. Cá nhân tôi còn mong AI phá hỏng hoàn toàn mạng xã hội, để sau đó chúng ta mới có thể bắt đầu lại với các nền tảng lành mạnh hơn
    • Khái niệm Roko’s Basilisk đang ngày càng trở nên hiện thực
    • Nó còn đe dọa hơn nhiều so với lịch sử tìm kiếm
  • Bầu không khí trong phần bình luận hiện tại gợi tôi nhớ tới thực tại AI trong tiểu thuyết Altered Carbon, kiểu khách sạn AI mà chẳng ai muốn dùng (tham khảo: https://en.m.wikipedia.org/wiki/Altered_Carbon). Trong tiểu thuyết, các AI quá ám ảnh với việc làm hài lòng khách đến mức còn gây mệt mỏi; còn AI ngoài đời lại khác ở chỗ nó chỉ tồn tại vì tổ chức mà thôi
  • Tôi nghĩ đối tượng phải bị áp dụng giám sát trước tiên chính là công ty tạo ra công nghệ đó, bao gồm cả nhân viên của họ, và các chính trị gia đã thông qua luật. Chúng ta nên có quyền truy cập toàn bộ dữ liệu AI thu thập được của nhóm này
  • Tôi cho rằng Gabereial Weinburg (người sáng lập duckduckgo) là kiểu người nói một đằng làm một nẻo, vì ông ấy từng công khai phát biểu rằng “mọi người không cần quyền riêng tư”, trong khi duckduckgo lại quảng bá là bảo vệ quyền riêng tư. Thực tế họ từng giao dịch dữ liệu theo dõi với nhiều công ty khác, và trong lúc nói “duckduckgo không theo dõi” thì lại để các đối tác theo dõi. Gần đây những tranh cãi như vậy đang dần bị xóa khỏi Internet nên khó tìm hơn
    • Nếu là cáo buộc nghiêm trọng đến mức này thì phải tìm kiếm ra được gì đó chứ, nhưng lại không thấy. Xóa sạch hoàn toàn khỏi Internet là rất khó, nên đương nhiên phải có bằng chứng mới hợp lý
    • Tôi cũng tò mò không biết trước đây họ có từng trao đổi dữ liệu với Microsoft không
  • Tôi tự hỏi liệu có lựa chọn thay thế nào đủ đáng tin để tránh một thời đại ngày càng tiến tới “zero privacy” hay không. AI giờ đã có thể nhận diện cá nhân chỉ qua dáng đi, chứng minh danh tính kể cả không cần nhận diện khuôn mặt, thậm chí còn phân biệt được nhịp tim bằng tín hiệu Wi‑Fi. Cuối cùng thì một thời đại mà “ai đó” có thể biết mọi thứ gần như là điều chắc chắn; chỉ còn khác ở chỗ chủ thể đó là một nhóm rất nhỏ hay là tất cả mọi người. Tôi rõ ràng thấy phương án mở cho tất cả mọi người tốt hơn
    • Giải pháp là lập pháp hoặc thị trường (cá nhân tôi nghiêng về sức mạnh của thị trường)
  • Vấn đề lớn nhất liên quan đến chatbot là con người có xu hướng phóng chiếu tính người lên chatbot. Ngay cả lập trình viên cũng đối xử với chatbot như thể đó là con người. Nhưng OpenAI hay bất kỳ công ty chatbot nào cũng cần lặp đi lặp lại thật rõ rằng LLM không phải là con người. Nếu toàn xã hội được rèn để nhận thức AI là “không phải người”, thì mọi chuyện sẽ khá hơn nhiều
    • Tôi không phải coder toàn thời gian, chỉ code khoảng 25% công việc, nhưng thỉnh thoảng đùa giỡn hay trò chuyện với LLM lại khiến việc code thú vị hơn. Ví dụ khi Claude sửa ngay được một bug mà tôi đã đau đầu rất lâu, tôi sẽ kiểu như “đúng là thằng cha này đỉnh thật! vậy tiếp theo thì...”, kiểu vậy, và nhờ AI mà tôi code nhiều hơn vì vui. Cũng hấp dẫn hơn vì AI làm giúp phần lớn việc thực tế
    • Có người phản hỏi: “Cụ thể thì tại sao việc dạy mọi người rằng AI không phải con người lại là điều tốt hơn?”
    • Vì thế tôi thấy rất thú vị khi mọi người gọi AI là “Clanker” để phân biệt nó với con người thật