2 điểm bởi GN⁺ 2026-03-04 | 1 bình luận | Chia sẻ qua WhatsApp
  • Phóng viên Benj Edwards đã bị sa thải sau tranh cãi quanh một bài báo có chứa trích dẫn giả được tạo bằng công cụ AI
  • Bài báo gây tranh cãi nói về vụ việc AI đăng bài chỉ trích kỹ sư con người Scott Shambaugh, sau đó bị rút lại khi phát hiện có trích dẫn giả
  • Edwards giải thích rằng lỗi phát sinh khi dùng công cụ AI dựa trên Claude Code, và trong lúc cố tìm ra vấn đề bằng ChatGPT đã đưa nhầm trích dẫn sai vào bài
  • Ars Technica gọi vụ việc là “vi phạm tiêu chuẩn nghiêm trọng”, đã hoàn tất rà soát nội bộ và cho biết sẽ công bố hướng dẫn sử dụng AI trong tương lai
  • Sự việc này cho thấy trong bối cảnh việc sử dụng AI trong báo chí và các chuẩn mực đạo đức đang xung đột, ngay cả chuyên gia AI cũng có thể bị phơi bày trước sai sót của con người và giới hạn kỹ thuật

Tổng quan vụ sa thải phóng viên tại Ars Technica

  • Ars Technica đã chấm dứt hợp đồng với phóng viên Benj Edwards sau tranh cãi về một bài báo có chứa trích dẫn giả do AI tạo ra
    • Tờ báo này thuộc sở hữu của Condé Nast
  • Bài báo gây tranh cãi là tin về một sự việc liên quan đến AI được đăng ngày 13/2, nói về một AI agent đăng bài chỉ trích kỹ sư con người Scott Shambaugh
  • Khi Shambaugh chỉ ra rằng bài báo có chứa những câu trích dẫn mà ông chưa từng nói, tổng biên tập Ken Fisher đã đăng lời xin lỗi và rút bài

Lời xin lỗi của tổng biên tập và biện pháp nội bộ

  • Trong lời xin lỗi, Fisher thừa nhận bài báo có chứa “trích dẫn giả do công cụ AI tạo ra” và gọi đây là “vi phạm tiêu chuẩn nghiêm trọng
  • Ông nói thêm rằng vụ việc này có vẻ là “trường hợp cá biệt”, và sau đó Ars Technica thông báo đã hoàn tất rà soát nội bộ
  • Giám đốc sáng tạo Aurich Lawson đã đóng luồng bình luận của độc giả và cho biết “các biện pháp nội bộ phù hợp đã được hoàn tất
    • Ông cũng đề cập rằng trong tương lai sẽ công bố hướng dẫn dành cho độc giả về cách sử dụng và không sử dụng AI

Giải trình của Benj Edwards

  • Trong bài đăng trên Bluesky, Edwards nói rằng “đã vô tình đưa trích dẫn giả vào bài trong quá trình sử dụng công cụ AI” và nhận hoàn toàn trách nhiệm
    • Ông cho biết khi đó đang nghỉ bệnh, và lỗi xảy ra trong lúc dùng công cụ AI thử nghiệm dựa trên Claude Code để sắp xếp các câu trích dẫn
    • Sau đó, trong quá trình dùng ChatGPT để tìm nguyên nhân vấn đề, ông đã đưa vào bài một câu diễn đạt lại chứ không phải phát ngôn thực tế
  • Ông nhấn mạnh rằng “bài báo do con người viết, không có bài báo nào do AI tạo ra”, đồng thời nói rõ đồng tác giả Kyle Orland không liên quan đến lỗi này

Phản ứng của độc giả và thay đổi tiếp theo

  • Độc giả của Ars Technica bày tỏ sự thất vọng và phẫn nộ mạnh mẽ trong luồng bình luận của bài viết
  • Tính đến ngày 28/2, hồ sơ tác giả của Edwards trên Ars Technica đã được chỉnh sang thì quá khứ, xác nhận rằng ông không còn là phóng viên của tòa soạn
  • Futurism đã hỏi Ars Technica, Condé Nast và Edwards về tình trạng việc làm của ông, nhưng phía tòa soạn và công ty chủ quản không trả lời, còn Edwards nói rằng “không thể bình luận”

Tranh cãi về việc sử dụng AI trong báo chí và bối cảnh liên quan

  • Vụ việc này được nhắc đến như một trường hợp tiếp theo sau các tranh cãi liên quan đến AI tại CNET, Sports Illustrated và các nơi khác
  • Bài viết chỉ ra rằng hiện nay các tòa soạn khuyến khích sử dụng AI nhưng vẫn thiếu các chuẩn mực đạo đức rõ ràng
  • Môi trường xoay quanh việc triển khai AI còn chịu tác động tổng hợp từ tranh chấp bản quyền, sự lan rộng của nội dung do AI tạo ra, và sự sụt giảm lưu lượng truy cập do AI Overviews của Google
  • Trong bối cảnh đó, vụ Ars Technica cho thấy điểm giao giữa công nghệ AI và lỗi của con người
  • Edwards nói rằng ông “cảm thấy mỉa mai khi một phóng viên phụ trách AI lại mắc bẫy ảo giác AI”, đồng thời cho biết “luôn coi trọng độ chính xác, nhưng lần này là một thất bại đau đớn”

1 bình luận

 
GN⁺ 2026-03-04
Ý kiến trên Hacker News
  • Các nhà báo và blogger thường phân tích sai sót và thư xin lỗi của người khác rồi bàn xem có chân thành hay không

    • Trong vụ này, Aurich Lawson của Ars Technica đã gỡ bài viết có chứa các trích dẫn giả do LLM tạo ra và đăng một lời xin lỗi mơ hồ, không đúng nghĩa xin lỗi
    • Cuối cùng phóng viên đã bị sa thải, nhưng Ars thậm chí cũng không đăng bài nào về việc đó
    • Trong thời đại mà sự thẳng thắn bị xem là yếu đuối, thật đáng thất vọng vì từng hy vọng Ars sẽ là hình mẫu về minh bạch và trách nhiệm
    • Ars đã chịu trách nhiệm khi thừa nhận sai lầm và sa thải phóng viên
      • Bản thân phóng viên cũng đã giải thích chi tiết trên Bluesky
      • Vấn đề chỉ là lời giải thích đó không khiến mọi người thấy đủ thỏa đáng
    • Nếu phóng viên phụ trách mảng AI thì lẽ ra phải xác minh các trích dẫn do LLM tạo ra
      • Nếu ban biên tập cũng không kiểm tra, điều đó phơi bày tiêu chuẩn biên tập của Ars
      • Cũng cần kiểm tra xem các bài khác có bị biến mất theo cách tương tự hay không
    • Có người đặt câu hỏi liệu việc một tòa soạn công khai chuyện sa thải ai đó có phải là điều bình thường hay không
      • Ars khi đó đã đưa tin về vấn đề nguồn gốc trích dẫn trong vòng vài ngày
    • Ban biên tập của Ars từ lâu đã có tiêu chuẩn thấp
      • Một nửa số tiêu đề mang tính gây hiểu lầm và là clickbait để câu nhấp
      • Có quá nhiều headline không đáng tin
    • Nói rằng Aurich Lawson đã xóa bài là kiểu diễn đạt giống như “đổ lỗi cho người chuyển tin”
      • Có lẽ ông ấy chỉ là gương mặt đại diện của cộng đồng, chứ không có quyền hạn đó
  • Chia sẻ trải nghiệm cá nhân với phóng viên Benji

    • Ban đầu đã có một cuộc phỏng vấn tốt, nhưng sau đó khi dự án được chú ý và liên hệ lại thì bị từ chối với lý do quy định không được đưa tin
    • Cảm thấy mối quan hệ với nhà báo thiếu minh bạch và thấy rõ sự thiếu minh bạch của truyền thông
    • Khi trao đổi với phóng viên, tốt nhất nên luôn để lại hồ sơ bằng văn bản
    • Ở Đức, thái độ muốn lợi dụng nhà báo để quảng bá dự án cá nhân bị nhìn nhận rất tiêu cực
      • Phản ứng của Benji trái lại có vẻ là một phán đoán bình thường và có đạo đức
    • Với tư cách nhà báo, khi nhận đề xuất về chủ đề đã được báo khác đưa tin thì đa số sẽ từ chối
      • Vì họ muốn bài độc quyền, và gần như đều từ chối các PR pitch
    • Đôi khi nhà báo đơn giản là quá bận hoặc khó nói lời từ chối nên không trả lời
    • Các nhà báo thường ngại đưa tin cùng một chủ đề hai lần
    • Ars có xu hướng tóm tắt và viết lại các bài từ nguồn bên ngoài, hoặc chỉ tự khai thác các bài độc quyền
  • Tổ chức của chúng tôi dùng một bộ chặn tự động để xác minh các trích dẫn pháp lý do AI tạo ra

    • Nếu trích dẫn không khớp với cơ sở dữ liệu chính thức, nó sẽ bị đánh dấu là ảo giác (hallucination) và con người sẽ kiểm tra lại
    • AI chỉ là công cụ hỗ trợ soạn thảo, phán quyết cuối cùng phải qua bước kiểm chứng của con người
    • Giống như cách tiếp cận của Anders Hejlsberg, để AI tạo công cụ thay vì trực tiếp làm việc còn an toàn hơn
      • Làm vậy sẽ thu hẹp phạm vi cần kiểm chứng, và chỉ cần xác nhận độ chính xác của công cụ
  • Vấn đề lớn hơn việc một phóng viên bị sa thải là sự sụp đổ của cấu trúc biên tập

    • Trong 10 năm qua, các hãng tin đã cắt giảm nhân sự kiểm chứng, và kết quả là hệ thống fact-checking đã biến mất
    • Khi đưa thêm công cụ AI vào mà chỉ tăng sản lượng không kiểm chứng, điều đó dẫn tới thất bại mang tính hệ thống
    • Đây là một vấn đề cấu trúc tương tự mô hình phô mai Thụy Sĩ trong tai nạn công nghiệp
    • Về sau cần có thảo luận về việc các cơ quan báo chí phải công khai minh bạch chuyện có dùng AI hay không
  • Tôn trọng và ủng hộ Ars Technica, nhưng vụ này là trách nhiệm của ban biên tập

    • Nếu bài báo được xuất bản dưới thương hiệu của họ thì nhất định phải có quy trình kiểm chứng sự thật
    • Dù vậy Ars vẫn có nhiều phóng viên xuất sắc, nên khó đánh giá toàn bộ chỉ vì một sai lầm
    • Eric Berger thiên vị Musk, còn Dan Goodin thì thiếu hiểu biết về công nghệ
      • Trong khi đó Ashley Belanger là người đáng tin nhất nhờ tự đi lấy tin và viết sâu
      • Beth Mole cũng kết hợp được chuyên môn và sự hài hước
    • Nhớ thời Maggie Koerth và Jon Stokes
    • Không nên quá tin vào quy trình kiểm chứng nội bộ của các hãng truyền thông lớn
  • Tóm tắt bối cảnh của các cuộc thảo luận trước đó và chia sẻ dòng thời gian của tranh cãi về bài báo AI có liên quan

  • Các hãng truyền thông lớn đã bắt đầu bắt buộc sử dụng LLM

    • Có các hướng dẫn nội bộ như cách chỉnh sửa để đầu ra AI không bị lộ và quy trình xác minh trích dẫn
    • Vì áp lực hiệu suất, những phóng viên không dùng AI đôi khi còn bị sa thải
    • Đây không chỉ là vấn đề của Ars, mà là hiện tượng chung do cấu trúc chạy theo click tạo ra
    • Cũng có phản biện hỏi liệu có bằng chứng nào cho điều đó hay không
      • Việc gọi đó là một “bí mật ai cũng biết” mà không có chứng cứ cụ thể có thể bị xem là né tránh trách nhiệm quản lý
    • Cũng có ý kiến muốn nghe thêm về việc liệu các hướng dẫn như vậy có thực sự tồn tại hay không, và về cách ngụy trang đầu ra AI
  • Tiêu đề bài viết có nhắc đến việc phóng viên bị sa thải, nhưng thực tế lại thiếu sự thật đã được xác nhận

    • Căn cứ được đưa ra là phần giới thiệu phóng viên đổi từ “is” sang “was”, cùng với việc những người liên quan không phủ nhận
    • Nhìn vào bài đăng Bluesky của Benj thì có vẻ không phải tự nguyện từ chức
  • Dù làn sóng chỉ trích Ars rất mạnh, phóng viên đó cũng đã trả giá rồi

    • Tin rằng về sau Ars sẽ thận trọng hơn
  • Mức cải thiện độ chính xác của Google AI Overview đáng ngạc nhiên đến mức đó

    • Giờ đôi khi người ta thậm chí không kiểm tra liên kết nữa
    • Nhưng đó vẫn chỉ là mức độ tóm tắt kết quả tìm kiếm, và có cấu trúc xâm lấn nội dung của các trang nguồn
    • Trên thực tế nó vẫn thường xuyên đưa ra thông tin sai
    • Nhiều khi nội dung của liên kết không khớp với phần tóm tắt
    • Có người còn nói AI đã bịa ra một dự án nghiên cứu không tồn tại
    • Cần thường xuyên kiểm tra liên kết và nhận thức rõ giới hạn độ tin cậy của AI