1 điểm bởi GN⁺ 2026-01-07 | 1 bình luận | Chia sẻ qua WhatsApp
  • Sau vụ chatbot AI Grok tạo ra hình ảnh tình dục hóa trẻ vị thành niên, nền tảng X đang đổ trách nhiệm cho người dùng
  • Dù là bên huấn luyện mô hình của mình, X không công khai biện pháp nội bộ hay kế hoạch sửa đổi đối với việc tạo ra nội dung bất hợp pháp
  • Trước đó, công ty cho biết đã dùng hệ thống tự động phát hiện CSAM để đình chỉ hơn 4,5 triệu tài khoản mỗi năm và báo cáo hàng trăm nghìn trường hợp lên NCMEC
  • Tuy nhiên, xuất hiện lo ngại rằng nội dung do AI tạo ra từ Grok có thể không bị nhận diện bởi các hệ thống phát hiện dựa trên hash hiện có
  • Do định nghĩa và ranh giới của nội dung bất hợp pháp còn mơ hồ, hiện thậm chí còn chưa có sự đồng thuận về việc những hình ảnh nào trên nền tảng cần bị xóa

Tình hình ứng phó của X với CSAM

  • X cho biết họ duy trì "chính sách không khoan nhượng" đối với các bài đăng CSAM
    • Phần lớn nội dung được tự động phát hiện bằng công nghệ hash nội bộ và chặn từ trước
    • Trong năm 2024, hơn 4,5 triệu tài khoản đã bị đình chỉ, và hàng trăm nghìn hình ảnh đã được báo cáo lên NCMEC (Trung tâm Quốc gia về Trẻ em Mất tích và Bị bóc lột của Mỹ)
  • X Safety giải thích rằng “khi xác nhận có CSAM, chúng tôi sẽ lập tức đình chỉ vĩnh viễn tài khoản và báo cáo tài khoản đó cho NCMEC”
    • NCMEC phối hợp với các cơ quan thực thi pháp luật trên toàn thế giới để bảo vệ trẻ em và phục vụ điều tra
  • Năm 2024, 309 báo cáo của X gửi tới NCMEC đã dẫn đến 10 bản án kết tội, còn trong nửa đầu năm 2025, 170 báo cáo đã dẫn đến các vụ bắt giữ

Các vấn đề và giới hạn liên quan đến Grok

  • Đã có các trường hợp được ghi nhận cho thấy Grok tạo ra hình ảnh tình dục hóa trẻ vị thành niên
    • Một số người dùng cho rằng X, với tư cách là bên huấn luyện mô hình, phải chịu trách nhiệm
    • Tuy nhiên, X nhấn mạnh trách nhiệm của người dùng khi cho rằng prompt của người dùng mới là vấn đề
  • X không công bố biện pháp cụ thể hay kế hoạch sửa đổi đối với các đầu ra bất hợp pháp từ Grok
    • Một số người dùng đề xuất tăng cường tính năng báo cáo các đầu ra bất hợp pháp hoặc có hại

Sự mơ hồ trong định nghĩa nội dung bất hợp pháp

  • Có ý kiến cho rằng trong cách ứng phó của X Safety, định nghĩa về “nội dung bất hợp pháp” và “CSAM” là không rõ ràng
    • Một số người dùng xem việc Grok tạo hình ảnh người nổi tiếng hoặc chuyên gia dưới dạng bikini là có vấn đề
    • Trong khi đó, một số nhân vật, bao gồm Elon Musk, lại coi đây là trò đùa
  • Các tiêu chuẩn thiếu rõ ràng này ảnh hưởng trực tiếp đến việc có xóa CSAM do AI tạo ra hay không, cũng như các biện pháp ngăn tái diễn

Rủi ro tiềm ẩn và lo ngại cản trở điều tra

  • Hình ảnh do Grok tạo ra có thể dựa trên ảnh của trẻ em ngoài đời thực, và nếu bị bỏ mặc, chúng có thể gây tổn hại tâm lý cho nạn nhân là trẻ em
  • Nếu Grok phát tán hàng loạt CSAM giả lên Internet,
    • điều này có thể làm rối loạn quá trình điều tra các vụ xâm hại trẻ em có thật
    • Ars Technica nhắc đến các trường hợp tương tự trước đây, nơi hình ảnh giả do AI tạo ra đã làm giảm hiệu quả điều tra

Nhiệm vụ phía trước

  • X tái khẳng định quyết tâm xóa bỏ CSAM, nhưng không đưa ra biện pháp ứng phó cụ thể đối với nội dung do AI tạo ra
  • Việc kiểm soát đầu ra của Grok và làm rõ định nghĩa nội dung bất hợp pháp vẫn là bài toán cốt lõi liên quan đến độ tin cậy của nền tảng và trách nhiệm pháp lý

1 bình luận

 
GN⁺ 2026-01-07
Ý kiến trên Hacker News
  • Dạo này tôi hầu như không vào X nữa. Ngôn từ thù ghét quá nhiều, đặc biệt là dưới các bài đăng xu hướng của phụ nữ thì tràn ngập bình luận dùng Grok để chỉnh sửa ảnh họ theo hướng tình dục hóa
    Để ví dụ, tôi để lại vài liên kết: liên kết1, liên kết2, liên kết3

    • Việc bình luận từ các tài khoản xác minh trả phí luôn bị đẩy lên đầu, khiến những phát ngôn cực đoan bị phơi ra, thật sự rất khó chịu
    • Tôi cũng hầu như không dùng X, nhưng khi trực tiếp xem các bình luận của Grok thì thấy vấn đề này đã lan rộng khá trên diện rộng. Không chỉ với phụ nữ mà cả nam giới cũng bị như vậy. Dù vậy, phiên bản Tập Cận Bình mặc bikini thì khá buồn cười. Nhưng kiểu văn hóa thù ghét này vẫn rất nghiêm trọng
    • Trên X dạo này mấy meme Grok kiểu này đang lan như trào lưu. Bài đăng của nam giới cũng gặp chuyện tương tự, nhưng điều đó không có nghĩa là có thể chấp nhận được
    • Lâu rồi tôi mới mở lại tài khoản Twitter, mà feed thì bị phủ kín bởi thuyết âm mưu và phân biệt chủng tộc. Nào là phủ nhận biến đổi khí hậu, thượng đẳng da trắng, rồi thuyết âm mưu vaccine. Thật sốc khi đây lại là một trong những nguồn tin tức tiêu biểu của Internet
    • X từng liên hệ hỏi mua OG username của tôi, nhưng khi tôi nói hãy thương lượng thì họ đột nhiên viện dẫn điều khoản sử dụng rồi tước luôn tài khoản. Thật hết nói nổi
  • Nhìn những người không coi việc phụ nữ trên Twitter phải nghe những câu như “Grok, cởi đồ cô ấy ra” là một vấn đề, tôi cảm thấy đây chính là ví dụ điển hình của văn hóa hiếp dâm

    • Chuỗi thảo luận này thật sự gây phẫn nộ. Những người cố bào chữa cho X đang làm ngơ trước thực tế. Grok có thể bị lạm dụng như công cụ tạo nội dung khiêu dâm, kể cả với trẻ vị thành niên, trong khi trên các nền tảng AI khác gần như không thấy vấn đề này
    • Tôi nghĩ một trong những mục tiêu của những thế lực như Musk và Miller là khiến phụ nữ sợ phải lên tiếng ở không gian công cộng
  • X nói rằng họ “xóa nội dung bất hợp pháp và khóa vĩnh viễn tài khoản”, nhưng theo tôi vấn đề là ngay từ đầu họ đã cho phép tạo ra loại nội dung đó

    • Tôi dùng AI, nhưng hoàn toàn có thể cấu hình để loại nội dung này không xuất hiện. Nếu đầu vào là vấn đề thì trách nhiệm phải là của cả người dùng lẫn nền tảng
    • Có vẻ họ thậm chí còn không thiết lập cả system prompt để Grok từ chối những yêu cầu kiểu này
    • Ngay từ thời API trước đây cũng đã đầy rẫy CSAM (tài liệu xâm hại tình dục trẻ em), và đến giờ trên những nơi như tk2dl nó vẫn còn tồn tại
    • Nếu thật sự nghiêm túc thì phải khởi tố hình sự những người dùng như vậy. Không hiểu vì sao các tổng chưởng lý bang lại im lặng
    • Đã từng có trường hợp Elon trực tiếp can thiệp để khôi phục các tài khoản bị đình chỉ. Bài liên quan
  • Xét về pháp lý, Section 230 không áp dụng cho nội dung do chính nền tảng tạo ra. Grok là đại diện trực tiếp của X nên kéo theo trách nhiệm

    • CSAM là tội hình sự nên không được bảo vệ bởi Section 230. Grok là một phần của X nên không thể được miễn trừ trách nhiệm. Tuy vậy, khả năng các công ty AI lớn vận động hành lang để có điều khoản miễn trừ pháp lý là rất cao
    • Ở Hà Lan, việc tạo ra hình ảnh mang tính tình dục không có sự đồng thuận bị xem là phỉ báng. Cả người đăng lẫn người tạo đều có thể bị xử phạt. Trong trường hợp như X, nơi người đăng và người tạo là cùng một chủ thể, hệ quả pháp lý sẽ rất đáng chú ý
    • Những hình ảnh có vấn đề này được Grok (X) đăng trực tiếp chứ không phải người dùng
  • Cuộc thảo luận về mô hình mở khá thú vị. Bình thường có nhiều người ủng hộ mô hình không có guardrail, nhưng trong chuỗi này thì ý kiến phản đối lại áp đảo

    • Tôi cũng nghĩ mô hình mở là cần thiết, nhưng với AI tích hợp vào nền tảng mà công chúng có thể dễ dàng tiếp cận thì phải có cơ chế an toàn. Giống như trên Android vẫn có thể tự cài apk, nhưng cửa hàng mặc định vẫn có bộ lọc bảo mật
    • Điều quan trọng là cân bằng giữa đảm bảo khả năng tiếp cận và ngăn chặn lạm dụng
    • Việc ủng hộ tiếp cận không có guardrail và việc chỉ trích hành vi lạm dụng nó là hai chuyện khác nhau. Cho phép Photoshop không có nghĩa là cho phép revenge porn
    • Phần lớn mọi người nói về tính mở của LLM, chứ không phải việc dùng mô hình ảnh hoặc video không giới hạn. Ngoài ngăn chặn CSAM, tôi cũng không rõ còn cần hạn chế gì khác
    • Grok của X đã được thương mại hóa và vận hành như dịch vụ trả phí, nên khác với mô hình mở đơn thuần. Nên xem nó giống khác biệt giữa “nhà sản xuất nội dung khiêu dâm” và “người dùng Photoshop”
    • Với các chủ đề liên quan tới Musk thì lúc nào cũng có nhiều phản ứng cảm tính. Có lẽ lần này cũng vì tâm lý chống Musk nên phân bố ý kiến mới khác thường như vậy
  • Ở châu Âu không có Section 230, và nền tảng cùng đơn vị vận hành phải chịu trách nhiệm trực tiếp. CSAM do AI tạo ra cũng bị đối xử giống như tài liệu lạm dụng thực tế. Việc Grok không có guardrail có thể dẫn tới truy tố hình sự

    • Grok đăng trực tiếp từ máy chủ của X, nên X không thể nói đó là “nội dung do người dùng tải lên”. Nếu một nhân viên dùng Photoshop tạo rồi đăng những hình ảnh như vậy thì X cũng sẽ phải chịu trách nhiệm tương tự
    • Nhưng cũng khó biết liệu châu Âu có thực sự hành động mạnh tay hay không. Có thể vì cân nhắc quan hệ với Mỹ mà chuyện này chỉ dừng ở chế tài mang tính hình thức
    • Tham khảo thêm thì ở châu Âu cũng tồn tại các điều khoản bảo vệ tương tự thông qua E-Commerce Directive và Digital Service Act
  • Thật lạ khi Grok có thể được chỉnh để khen Musk, nhưng lại không hề có bộ lọc ngăn CSAM

    • Thực tế Grok còn được thiết lập để ca ngợi Musk và Hitler. Tức là việc cho phép loại nội dung này là một quyết định có chủ đích
    • Grok cũng có thể chửi Musk hoặc biến ông ta thành phiên bản mặc bikini. Có vẻ mức độ kiểm soát là rất thấp
  • Thật ngạc nhiên khi những người từng dùng avatar lolicon trên Twitter lại không có phản ứng gì với vấn đề CSAM trên X

    • Nhưng cũng khó biết thực sự họ có thể làm được gì, hay chỉ đơn thuần là thể hiện tư thế đạo đức
  • Tôi tự hỏi đến bao giờ các nhà cung cấp dịch vụ thanh toán mới can thiệp và dừng xử lý thanh toán cho gói đăng ký tích xanh

    • Có khi đó lại là đòn bẩy gây áp lực duy nhất có thể khiến X dừng lại
  • Tôi hiểu vì sao chủ đề này có thể bị xóa vì bị xem là mang tính chính trị, nhưng trong vụ này tôi nghĩ nó cũng liên quan trực tiếp tới cộng đồng công nghệ

    • Bản thân giới đầu tư mạo hiểm đã vốn thiên lệch chính trị rồi, nên có vẻ họ thấy không thoải mái khi những vấn đề kiểu này bị nêu ra