2 điểm bởi GN⁺ 2026-02-17 | 2 bình luận | Chia sẻ qua WhatsApp
  • Các trích dẫn gây tranh cãi được xác nhận là do AI tạo ra dù người được gán nguồn chưa từng nói những lời đó, nhưng lại bị ghi nguồn sai
  • Tòa soạn xem đây là một thất bại nghiêm trọng trong tiêu chuẩn biên tập, đồng thời nêu rõ mọi trích dẫn trực tiếp phải phản ánh đúng phát ngôn thực tế
  • Kết quả rà soát nội bộ cho thấy không phát hiện thêm trường hợp tương tự nào, và vụ việc này hiện được xác định là một trường hợp đơn lẻ
  • Ars Technica tái khẳng định chính sách không cho phép nội dung do AI tạo ra ngoại trừ mục đích minh họa có ghi chú rõ ràng, đồng thời xin lỗi độc giả và người bị trích dẫn sai

Thu hồi bài viết và tổng quan vụ việc

  • Ars Technica cho biết vào chiều thứ Sáu họ đã đăng một bài viết có chứa trích dẫn bịa đặt do công cụ AI tạo ra và đã thu hồi bài viết đó
    • Các trích dẫn mang hình thức được gán sai nguồn, dù đó là những phát ngôn mà người thật chưa từng nói nhưng do AI tạo ra
    • Tòa soạn gọi đây là “vi phạm nghiêm trọng tiêu chuẩn
  • Ban biên tập nêu rõ: “Trích dẫn trực tiếp bắt buộc phải phản ánh những gì nguồn tin thực sự đã nói.”

Rà soát nội bộ và chính sách

  • Ars Technica từ lâu đã đề cập đến rủi ro của việc phụ thuộc quá mức vào các công cụ AI, và mối lo ngại đó cũng được phản ánh trong chính sách nội bộ
  • Họ giải thích rằng việc đăng các trích dẫn trong vụ việc lần này đã diễn ra theo cách thức không phù hợp với chính sách đó
  • Sau khi rà soát các sản phẩm gần đây, họ cho biết không phát hiện thêm vấn đề nào, và hiện tại vụ việc có vẻ là một sự cố đơn lẻ

Quy định liên quan đến nội dung do AI tạo ra

  • Ars Technica về nguyên tắc cấm đăng tải tài liệu do AI tạo ra
    • Tuy nhiên, chỉ cho phép ngoại lệ nếu được ghi chú rõ ràng và phục vụ mục đích minh họa
    • Trong vụ việc lần này, quy định đó đã không được tuân thủ

Xin lỗi và biện pháp tiếp theo

  • Tòa soạn xin lỗi độc giả về thất bại này, đồng thời trực tiếp xin lỗi Scott Shambaugh, người bị ảnh hưởng bởi trích dẫn bịa đặt
  • Ban biên tập cho biết sẽ siết chặt các tiêu chuẩn biên tập và cam kết ngăn chặn tái diễn

Kết luận

  • Thông qua vụ việc này, Ars Technica một lần nữa khẳng định tầm quan trọng của việc kiểm chứng và bảo đảm tính minh bạch đối với nội dung do AI tạo ra
  • Họ đang tăng cường quy trình nội bộ nhằm khôi phục độ tin cậy biên tập và duy trì các chuẩn mực đạo đức trong đưa tin

2 bình luận

 
GN⁺ 2026-02-17
Ý kiến trên Hacker News
  • Với tư cách là một cựu nhà báo công nghệ, khi thử nghiệm đưa tin bằng các công cụ chưa được kiểm chứng thì nhất định phải làm trong môi trường được kiểm soát và rà soát kết quả thật kỹ
    Biên tập viên cấp cao bắt buộc phải tham gia, và nên bắt đầu từ những bài ít gây tranh cãi hơn
    Ngoài ra, nếu phóng viên bị ốm nên không thể viết bài nhưng vẫn cố làm vì văn hóa công ty hoặc chính sách nghỉ bệnh, thì Ars cần tự nhìn lại nội bộ

    • Ban đầu tôi nghĩ bài viết không hề hàm ý điều đó, nhưng sau khi xem mạng xã hội của tác giả thì tôi hiểu ra. Tôi đồng ý
    • Ở vài tòa soạn đang sa sút mà tôi biết, biên tập viên là những người bị sa thải đầu tiên. Sau đó chất lượng lao dốc nhanh chóng và vòng xoáy xấu càng tăng tốc. Giờ nhiều nơi thậm chí không còn cả biên tập viên cấp cao
    • Tôi nhớ ngày trước các phóng viên junior thường phụ trách fact-check những thứ như trích dẫn, ngày tháng, tên riêng, v.v.
    • Khi đang sốt cao mà vẫn làm việc từ nhà thì kiểu sai sót này hoàn toàn có thể xảy ra. Vấn đề đúng hơn là tổ chức đã nhận nguyên稿 của một người đang ốm
    • Về căn bản, tôi nghĩ vấn đề là văn hóa mong báo chí phải miễn phí. Mọi người ghét phí thuê bao hay quảng cáo, rồi còn lách qua bằng link archive, điều đó tạo áp lực quá mức lên các nhà báo. Văn hóa của Ars cũng có vấn đề, nhưng còn có bối cảnh xã hội lớn hơn phía sau
  • Qua lời xin lỗi mà Benj Edwards đăng trên Bluesky, ông đã thừa nhận trách nhiệm
    Dù có giải thích một số tình tiết, ông nói đây hoàn toàn là trách nhiệm của bản thân. Còn việc đây có phải trường hợp cá biệt hay không thì vẫn phải chờ xem

    • Cốt lõi vấn đề là ông ấy đã nằm trên giường làm việc trong lúc bị sốt. Điều đó khiến người ta tò mò về văn hóa làm việc ở Ars Technica
    • Lời xin lỗi tạo cảm giác mở đầu bằng việc kêu gọi sự đồng cảm để giảm nhẹ sai lầm. Khó coi đó là một lời xin lỗi thật sự chân thành
    • Tôi vốn có cái nhìn phê phán với Ars, nhưng tôi không cho rằng việc phóng viên thử nghiệm công cụ AI là điều xấu. Chỉ là đáng lẽ họ phải thận trọng hơn rất nhiều.
      Như cũng đã nói trong bình luận liên quan, ngay cả với một tòa soạn hoài nghi AI thì việc trực tiếp trải nghiệm giới hạn của công cụ vẫn là cần thiết
    • Có lẽ những độc giả tò mò sẽ đào lại các bài cũ để xem đã từng có trường hợp tương tự hay chưa
    • Sự việc này không chỉ là vấn đề của một phóng viên cụ thể, mà là một phần của tranh luận xã hội về những lỗi lặp đi lặp lại do việc dùng công cụ AI gây ra
  • Đây là tập hợp các thread HN liên quan gần đây

  • Tôi thấy khá lạ khi một số người đăng ký của Ars khen ngợi quá mức việc họ phát hiện lỗi và rút bài một cách trung thực.
    Thực ra đây chỉ là đạo đức báo chí cơ bản, và lần này sự việc bị lộ ra là vì chính người liên quan đã trực tiếp chỉ ra trong phần bình luận

    • Dù vậy, việc họ sửa sai và hứa ngăn tái diễn vẫn là điều tích cực. Nhiều tổ chức còn không làm nổi từng đó
    • Tôi nghĩ việc nói rõ “chuyện này sẽ không xảy ra nữa” vẫn tốt hơn nhiều nơi khác. Có chỗ thậm chí còn để AI tạo ra toàn bộ bài báo
  • Việc Ars và phóng viên thừa nhận trách nhiệm là tốt, nhưng cách diễn đạt trong thông báo rút bài vẫn chưa ổn
    Thay vì nói “không đáp ứng tiêu chuẩn”, họ nên nói thẳng là đã đăng các trích dẫn giả do AI tạo ra.
    Có như vậy những người đã đọc bài trước đó mới có thể sửa lại thông tin sai trong đầu mình

  • Tôi đã kiểm tra xem phần nào bị bịa ra. Các trích dẫn GitHub ở đầu bài là thật, nhưng toàn bộ trích dẫn ở phần cuối đều là giả
    Bề ngoài chúng có vẻ được lấy từ blog của Shambaugh, nhưng thực tế là những câu không hề tồn tại
    Có thể xem bản gốc qua link archive

  • Thật kỳ lạ khi không có link tới bài đã bị rút
    Thảo luận liên quan đang diễn ra trên diễn đàn Ars
    Bản gốc bài viết có thể xem trên Web Archive

    • Tôi có cảm giác việc không gắn link là một kiểu tẩy trắng có chủ đích (whitewash)
    • Nhưng gắn lại link tới bài đã rút cũng có thể làm mất ý nghĩa của việc rút bài
    • Tác giả bài báo được ghi là Benj Edwards và Kyle Orland
  • Tôi tò mò họ sẽ áp dụng những biện pháp ngăn tái diễn nào trong tương lai.
    Cũng khó hiểu vì sao họ không công khai việc đã dùng LLM, và liệu các bài khác có trường hợp tương tự hay không
    Lần này bị phát hiện là vì trích dẫn là giả, chứ nếu không thì có khi đã chẳng ai biết

    • Rốt cuộc phản ứng này có vẻ chỉ ở mức “đó là sai sót, sau này chúng tôi sẽ cẩn thận hơn”
    • Lập trường chính thức là “bài báo không được AI viết, chỉ giao phần tóm tắt trích dẫn cho AI thôi”. Nhưng quyết định đó cực kỳ thiếu thận trọng
  • Ars từ lâu đã cảnh báo về rủi ro của việc phụ thuộc vào AI, nên vụ này càng gây sốc hơn
    Việc bịa trích dẫn đã vi phạm chính sách nội bộ, và sẽ không dễ để khôi phục niềm tin
    May mà người bị trích dẫn đã chặn quyền truy cập của LLM, nên ảo giác (hallucination) của AI mới bị lộ ra