- Sau vụ chatbot AI Grok tạo ra hình ảnh tình dục hóa trẻ vị thành niên, nền tảng X đang đổ trách nhiệm cho người dùng
- Dù là bên huấn luyện mô hình của mình, X không công khai biện pháp nội bộ hay kế hoạch sửa đổi đối với việc tạo ra nội dung bất hợp pháp
- Trước đó, công ty cho biết đã dùng hệ thống tự động phát hiện CSAM để đình chỉ hơn 4,5 triệu tài khoản mỗi năm và báo cáo hàng trăm nghìn trường hợp lên NCMEC
- Tuy nhiên, xuất hiện lo ngại rằng nội dung do AI tạo ra từ Grok có thể không bị nhận diện bởi các hệ thống phát hiện dựa trên hash hiện có
- Do định nghĩa và ranh giới của nội dung bất hợp pháp còn mơ hồ, hiện thậm chí còn chưa có sự đồng thuận về việc những hình ảnh nào trên nền tảng cần bị xóa
Tình hình ứng phó của X với CSAM
- X cho biết họ duy trì "chính sách không khoan nhượng" đối với các bài đăng CSAM
- Phần lớn nội dung được tự động phát hiện bằng công nghệ hash nội bộ và chặn từ trước
- Trong năm 2024, hơn 4,5 triệu tài khoản đã bị đình chỉ, và hàng trăm nghìn hình ảnh đã được báo cáo lên NCMEC (Trung tâm Quốc gia về Trẻ em Mất tích và Bị bóc lột của Mỹ)
- X Safety giải thích rằng “khi xác nhận có CSAM, chúng tôi sẽ lập tức đình chỉ vĩnh viễn tài khoản và báo cáo tài khoản đó cho NCMEC”
- NCMEC phối hợp với các cơ quan thực thi pháp luật trên toàn thế giới để bảo vệ trẻ em và phục vụ điều tra
- Năm 2024, 309 báo cáo của X gửi tới NCMEC đã dẫn đến 10 bản án kết tội, còn trong nửa đầu năm 2025, 170 báo cáo đã dẫn đến các vụ bắt giữ
Các vấn đề và giới hạn liên quan đến Grok
- Đã có các trường hợp được ghi nhận cho thấy Grok tạo ra hình ảnh tình dục hóa trẻ vị thành niên
- Một số người dùng cho rằng X, với tư cách là bên huấn luyện mô hình, phải chịu trách nhiệm
- Tuy nhiên, X nhấn mạnh trách nhiệm của người dùng khi cho rằng prompt của người dùng mới là vấn đề
- X không công bố biện pháp cụ thể hay kế hoạch sửa đổi đối với các đầu ra bất hợp pháp từ Grok
- Một số người dùng đề xuất tăng cường tính năng báo cáo các đầu ra bất hợp pháp hoặc có hại
Sự mơ hồ trong định nghĩa nội dung bất hợp pháp
- Có ý kiến cho rằng trong cách ứng phó của X Safety, định nghĩa về “nội dung bất hợp pháp” và “CSAM” là không rõ ràng
- Một số người dùng xem việc Grok tạo hình ảnh người nổi tiếng hoặc chuyên gia dưới dạng bikini là có vấn đề
- Trong khi đó, một số nhân vật, bao gồm Elon Musk, lại coi đây là trò đùa
- Các tiêu chuẩn thiếu rõ ràng này ảnh hưởng trực tiếp đến việc có xóa CSAM do AI tạo ra hay không, cũng như các biện pháp ngăn tái diễn
Rủi ro tiềm ẩn và lo ngại cản trở điều tra
- Hình ảnh do Grok tạo ra có thể dựa trên ảnh của trẻ em ngoài đời thực, và nếu bị bỏ mặc, chúng có thể gây tổn hại tâm lý cho nạn nhân là trẻ em
- Nếu Grok phát tán hàng loạt CSAM giả lên Internet,
- điều này có thể làm rối loạn quá trình điều tra các vụ xâm hại trẻ em có thật
- Ars Technica nhắc đến các trường hợp tương tự trước đây, nơi hình ảnh giả do AI tạo ra đã làm giảm hiệu quả điều tra
Nhiệm vụ phía trước
- X tái khẳng định quyết tâm xóa bỏ CSAM, nhưng không đưa ra biện pháp ứng phó cụ thể đối với nội dung do AI tạo ra
- Việc kiểm soát đầu ra của Grok và làm rõ định nghĩa nội dung bất hợp pháp vẫn là bài toán cốt lõi liên quan đến độ tin cậy của nền tảng và trách nhiệm pháp lý
1 bình luận
Ý kiến trên Hacker News
Dạo này tôi hầu như không vào X nữa. Ngôn từ thù ghét quá nhiều, đặc biệt là dưới các bài đăng xu hướng của phụ nữ thì tràn ngập bình luận dùng Grok để chỉnh sửa ảnh họ theo hướng tình dục hóa
Để ví dụ, tôi để lại vài liên kết: liên kết1, liên kết2, liên kết3
Nhìn những người không coi việc phụ nữ trên Twitter phải nghe những câu như “Grok, cởi đồ cô ấy ra” là một vấn đề, tôi cảm thấy đây chính là ví dụ điển hình của văn hóa hiếp dâm
X nói rằng họ “xóa nội dung bất hợp pháp và khóa vĩnh viễn tài khoản”, nhưng theo tôi vấn đề là ngay từ đầu họ đã cho phép tạo ra loại nội dung đó
Xét về pháp lý, Section 230 không áp dụng cho nội dung do chính nền tảng tạo ra. Grok là đại diện trực tiếp của X nên kéo theo trách nhiệm
Cuộc thảo luận về mô hình mở khá thú vị. Bình thường có nhiều người ủng hộ mô hình không có guardrail, nhưng trong chuỗi này thì ý kiến phản đối lại áp đảo
Ở châu Âu không có Section 230, và nền tảng cùng đơn vị vận hành phải chịu trách nhiệm trực tiếp. CSAM do AI tạo ra cũng bị đối xử giống như tài liệu lạm dụng thực tế. Việc Grok không có guardrail có thể dẫn tới truy tố hình sự
Thật lạ khi Grok có thể được chỉnh để khen Musk, nhưng lại không hề có bộ lọc ngăn CSAM
Thật ngạc nhiên khi những người từng dùng avatar lolicon trên Twitter lại không có phản ứng gì với vấn đề CSAM trên X
Tôi tự hỏi đến bao giờ các nhà cung cấp dịch vụ thanh toán mới can thiệp và dừng xử lý thanh toán cho gói đăng ký tích xanh
Tôi hiểu vì sao chủ đề này có thể bị xóa vì bị xem là mang tính chính trị, nhưng trong vụ này tôi nghĩ nó cũng liên quan trực tiếp tới cộng đồng công nghệ