- Các nhân chứng nội bộ tố cáo rằng Meta và TikTok dù biết từ nghiên cứu nội bộ rằng thuật toán càng kích động phẫn nộ thì tỷ lệ tương tác càng cao, vẫn để nhiều nội dung độc hại xuất hiện hơn trên bảng tin người dùng
- Một kỹ sư Meta cho biết đã nhận chỉ đạo tăng mức hiển thị “nội dung vùng ranh giới” vì giá cổ phiếu sụt giảm, trong khi một nhân viên TikTok công bố bảng điều khiển nội bộ cho thấy các vụ việc liên quan đến chính trị gia được xử lý ưu tiên hơn thiệt hại đối với trẻ em
- Reels của Meta được phát hành để cạnh tranh với TikTok mà không có đủ biện pháp an toàn, và nghiên cứu nội bộ xác nhận tỷ lệ bình luận quấy rối, phát ngôn thù hận và bạo lực cao hơn bảng tin Instagram chính
- Một nhân viên trong đội an toàn nội bộ của TikTok làm chứng rằng an toàn trẻ em bị đẩy xuống ưu tiên thấp hơn để duy trì quan hệ chính trị, đồng thời cảnh báo: “Phụ huynh hãy xóa ứng dụng”
- Cả hai công ty đều phủ nhận việc cố ý khuếch đại nội dung độc hại, nhưng tài liệu và lời khai nội bộ cho thấy vấn đề mang tính cấu trúc khi các thuật toán đặt tương tác và doanh thu lên trên an toàn người dùng
Tổng quan về các tiết lộ của người tố giác nội bộ
- Hơn 12 người tố giác nội bộ và những người liên quan làm chứng rằng các công ty đã chạy đua giành tương tác người dùng trong khi phớt lờ các vấn đề an toàn như nội dung bạo lực, bóc lột tình dục và liên quan đến khủng bố
- Một kỹ sư Meta cho biết đã nhận chỉ đạo từ ban lãnh đạo phải tăng hiển thị “nội dung vùng ranh giới” như ghét phụ nữ và thuyết âm mưu
- Một nhân viên TikTok đã cung cấp cho BBC ví dụ về các báo cáo liên quan đến chính trị gia được xử lý trước các vụ trẻ em bị hại
- Bên trong TikTok, việc duy trì quan hệ với các chính trị gia được nhắc đến như lý do để tránh rủi ro bị quản lý siết chặt hoặc bị cấm
Nghiên cứu nội bộ của Meta và vấn đề của Reels
- Nhà nghiên cứu Meta Matt Motyl cho biết vào thời điểm Reels ra mắt (2020), các biện pháp an toàn còn thiếu
- Theo nghiên cứu nội bộ, bình luận trên Reels có tỷ lệ quấy rối, phát ngôn thù hận và cổ vũ bạo lực cao hơn bảng tin Instagram chính lần lượt 75%, 19% và 7%
- Công ty đã phân bổ 700 nhân sự cho tăng trưởng Reels, trong khi các đội phụ trách bảo vệ trẻ em và tính toàn vẹn bầu cử bị từ chối tăng nhân sự
- Tài liệu nội bộ chỉ ra rằng thuật toán ưu tiên tối đa hóa doanh thu hơn là phúc lợi người dùng
- Có đoạn mô tả rằng “Facebook có thể khiến người dùng bị tiêu thụ như ‘đồ ăn nhanh’, nhưng khó duy trì lâu dài”
Lời khai từ đội an toàn nội bộ của TikTok
- BBC đã liên lạc trong nhiều tháng trong năm 2025 với ‘Nick’, một nhân viên của đội Tin cậy & An toàn TikTok
- Người này cho biết việc đưa AI vào và cắt giảm nhân sự đã làm suy yếu khả năng ứng phó với nội dung độc hại
- Anh làm chứng rằng đã xác nhận sự gia tăng của các tài liệu liên quan đến khủng bố, bạo lực tình dục, lạm dụng và buôn người
- Từ bảng điều khiển nội bộ, anh đưa ra trường hợp một bài đăng châm biếm chính trị gia được xem xét trước một vụ tống tiền tình dục nhắm vào thanh thiếu niên
- Cũng xác nhận việc các trường hợp như nạn nhân 16 tuổi ở Iraq bị phân loại ở mức khẩn cấp thấp
- Nick nói rằng “công ty coi trọng quan hệ chính trị hơn an toàn trẻ em”, đồng thời khuyên phụ huynh ‘hãy xóa TikTok’
- TikTok phản bác rằng đây là sự xuyên tạc, khẳng định “nội dung chính trị không được ưu tiên hơn an toàn trẻ em”
- Công ty giải thích rằng các tài khoản thanh thiếu niên được áp dụng hơn 50 thiết lập an toàn mặc định
Cạnh tranh thuật toán và phản ứng của Meta
- Trong giai đoạn Covid-19 năm 2020 khi TikTok tăng trưởng bùng nổ, Meta đã gấp rút tung ra Reels để đối phó
- Motyl nói rằng “tốc độ được ưu tiên hơn bảo vệ người dùng”
- Anh cho biết đội Reels ngần ngại đưa vào các tính năng an toàn vì nội dung độc hại tạo ra mức tương tác cao hơn
- Brandon Silverman (nhà sáng lập Crowdtangle) làm chứng rằng khi đó Mark Zuckerberg cực kỳ nhạy cảm với cạnh tranh
- Reels được mở rộng với 700 người tham gia, còn đội an toàn thì gặp khó khăn trong việc bổ sung nhân lực
- Cựu kỹ sư Meta ‘Tim’ cho biết các hạn chế đối với “nội dung vùng ranh giới” đã được nới lỏng do cạnh tranh với TikTok
- Anh nói rằng “trong bối cảnh giá cổ phiếu giảm và áp lực doanh thu, quyết định nới lỏng được đưa ra để đảm bảo lợi nhuận ngắn hạn”
Cách thuật toán vận hành và tác động xã hội
- Tài liệu nội bộ nêu rõ nội dung kích thích phẫn nộ và đạo đức tạo ra tương tác cao, và thuật toán ưu tiên điều đó
- Cấu trúc vận hành là: “Người dùng càng cảm thấy phẫn nộ thì họ càng tiêu thụ nhiều nội dung hơn”
- Các chuyên gia chống khủng bố của cảnh sát Anh báo cáo rằng gần đây họ chứng kiến hiện tượng “bình thường hóa” các bài đăng bài Do Thái, phân biệt chủng tộc và bạo lực cực hữu
- Một người dùng tuổi teen làm chứng rằng đã bị thuật toán “cực đoan hóa” từ năm 14 tuổi, khiến cảm giác phẫn nộ và thù ghét ngày càng mạnh lên
Lập trường chính thức của các công ty
- Meta: “Cáo buộc rằng chúng tôi khuếch đại nội dung độc hại vì lợi ích tài chính là không đúng sự thật”
- Công ty nhấn mạnh đã đầu tư quy mô lớn cho an toàn và bảo mật trong 10 năm qua, đồng thời đưa vào các tính năng bảo vệ thanh thiếu niên
- TikTok: Cho rằng “các cáo buộc đã bị bóp méo”, đồng thời nói rằng họ vẫn đang tiếp tục đầu tư công nghệ để ngăn nội dung độc hại bị hiển thị
- Công ty nói thêm rằng “họ hỗ trợ hàng triệu người khám phá những mối quan tâm mới và hình thành cộng đồng”
1 bình luận
Ý kiến trên Hacker News
Trong 5 năm qua, vấn đề này dường như đã trở thành điều ai cũng biết
Nhưng câu hỏi thật sự là: “Vậy chúng ta պետք է làm gì?”
Tôi cố không lãng phí thời gian vào sự phẫn nộ trên mạng, nhưng đây là một căn bệnh xã hội quá lớn để cá nhân có thể tự gánh nổi
Nếu Meta hay TikTok mang lại lợi ích ròng âm cho xã hội thì họ không có quyền tự nhiên để tồn tại
Gốc rễ vấn đề là việc ‘kích thích tương tác’ kiếm ra quá nhiều tiền. Chừng nào động cơ tài chính đó chưa biến mất thì vấn đề cũng sẽ không biến mất
Tôi có cảm giác mình nhận được nhiều thông tin hơn so với khi chỉ nghe NPR, nhưng tôi tránh nội dung được dàn dựng sẵn (biên tập, nhạc, thuyết minh, v.v.)
Tôi thực sự chỉ muốn tiếp nhận phản ứng cảm xúc đến từ những gì đã thật sự xảy ra hoặc từ phát ngôn của ai đó
‘Nội dung với tư cách là tin tức’ cần phải có tính xác thực
Nhìn vào lý do Gen Z uống ít rượu hơn so với millennials, có lẽ trong đó có manh mối cho lời giải
Tôi cho rằng cụm từ “nội dung độc hại” rốt cuộc chỉ có nghĩa là thứ mà chính phủ hoặc một quốc gia nào đó không thích
Nghe cuối cùng chỉ như một yêu cầu kiểm duyệt dưới hình thức khác
Nếu có nhóm nào phản đối kiểu bạo lực này, chẳng phải đó lại là điều tốt sao?
Dù báo cáo thì cũng chỉ nhận lại câu trả lời là “không vi phạm quy định”
Thật bức bối khi các nền tảng này vẫn còn vận hành theo kiểu như vậy
Thiệt hại xã hội đã được biết đến hơn 10 năm rồi mà vẫn chẳng có gì xảy ra
Facebook và TikTok về cơ bản là ma túy số. Lại còn do những người thiếu năng lực đồng cảm xã hội thiết kế ra
Kết quả này không có gì đáng ngạc nhiên. Chắc đa số mọi người cũng nghĩ vậy
Dù vậy, việc bằng chứng được đưa ra rõ ràng vẫn là điều tốt
Liệu hiện tượng này có phải là điều không thể tránh khỏi?
Vì nó tạo ra click, lượt xem và tương tác người dùng, nên nếu một nền tảng làm vậy thì các nơi khác cũng khó mà không làm theo
Ví dụ, nếu nhân viên McDonald's xúc phạm khách hàng thì ‘tương tác’ có thể tăng, nhưng thị phần sẽ giảm
Họ hành động như vậy là điều hiển nhiên
Chừng nào còn hợp pháp và có lãi, họ sẽ tiếp tục làm thế
Đây là câu chuyện đã lặp đi lặp lại ít nhất từ năm 2012
Cuốn The Chaos Machine của Max Fisher tổng kết điều này rất rõ
Cả Facebook lẫn YouTube mỗi khi bị chỉ trích đều nói rằng “đã có biện pháp”, nhưng trên thực tế chỉ lặp lại việc né tránh, trì hoãn, thu nhỏ vấn đề và phủ nhận
Tôi tự hỏi có tổ chức nào đang giám sát và thậm chí khởi kiện các thuật toán độc hại hay không
Reset.tech đang làm việc tốt trong lĩnh vực này, nhưng tôi muốn biết còn nơi nào khác không, và ai đang tài trợ cho họ
Nếu kiếm 20 tỷ USD mà tiền phạt chỉ là 200 triệu USD, thì họ sẽ chẳng hề quan tâm đến sức khỏe tinh thần của người dùng
Chừng nào công chúng vẫn còn phản ứng với nội dung giật gân, các nền tảng sẽ chẳng có lý do gì để không khai thác nó
Phần lớn bài đăng rốt cuộc chỉ là mồi câu click mà thôi