- Wiki Education đã khảo sát một cách có hệ thống tác động của AI tạo sinh (ChatGPT, v.v.) đối với việc chỉnh sửa Wikipedia trong suốt năm 2025
- Sử dụng công cụ phát hiện AI Pangram để phân tích 3.078 bài viết được tạo từ sau năm 2022, kết quả cho thấy 178 bài bị nghi do AI viết, trong đó hơn hai phần ba không vượt qua được bước kiểm chứng
- Theo đó, tổ chức này tăng cường đào tạo cho người tham gia, đồng thời triển khai hướng dẫn sử dụng AI và hệ thống phát hiện theo thời gian thực để chặn việc sao chép-dán trực tiếp văn bản do AI tạo ra
- AI không phù hợp để viết bản nháp bài viết, nhưng có thể được dùng hữu ích ở giai đoạn nghiên cứu như tìm tài liệu, tìm nguồn và xác định khoảng trống nội dung
- Wiki Education nhấn mạnh rằng tự động hóa phát hiện AI và mở rộng đào tạo cho biên tập viên là chìa khóa để duy trì độ tin cậy của Wikipedia
Mối quan hệ giữa AI tạo sinh và Wikipedia
- Wiki Education phụ trách khoảng 19% số biên tập viên mới hoạt động tích cực trên Wikipedia tiếng Anh, và đã phân tích tác động cũng như rủi ro của AI tạo sinh
- Khi các chatbot như ChatGPT, Gemini, Claude trở nên phổ biến trong đời sống hằng ngày, các nỗ lực áp dụng chúng vào việc chỉnh sửa Wikipedia cũng gia tăng
- Tổ chức này đã đánh giá hành vi sử dụng AI của người tham gia và công bố kết quả
- Kết luận đưa ra là nguyên tắc: không được sao chép nguyên đầu ra của AI rồi dán vào Wikipedia
Kết quả phát hiện và kiểm chứng AI
- Trong số các bài viết được tạo sau khi ChatGPT ra mắt vào năm 2022, 178 bài đã bị Pangram phát hiện là do AI viết
- Trước năm 2022 không có dấu vết sử dụng AI, sau đó mức độ này tăng dần
- Chỉ 7% sử dụng nguồn giả, còn lại trích dẫn nguồn có thật nhưng hơn 2/3 không vượt qua được bước kiểm chứng
- Không thể xác minh tính đúng sai vì thông tin tương ứng không tồn tại trong nguồn được trích dẫn
- Wiki Education đã phải đầu tư đáng kể nhân lực để dọn dẹp các bài viết không vượt qua kiểm chứng
- Một số bài bị xử lý thành ‘stub’, một số bị đề xuất xóa (PROD), và một số được đánh giá là không thể cứu vãn
Cải tiến chương trình và hệ thống phát hiện AI
- Với sự hỗ trợ của Pangram, tổ chức đã xây dựng hệ thống phân tích chỉnh sửa của người tham gia theo thời gian thực
- Thông qua nền tảng Dashboard nội bộ, họ vận hành chức năng theo dõi chỉnh sửa và cảnh báo tự động
- Mô-đun đào tạo mới “Using generative AI tools with Wikipedia” đã được đưa vào sử dụng
- Phân định rõ khu vực được phép và bị cấm khi dùng AI
- Nhấn mạnh thông điệp cốt lõi: “Không sao chép-dán văn bản AI”
- Trong 1.406 cảnh báo chỉnh sửa AI ở nửa cuối năm 2025, chỉ 22% thực sự phát sinh trong không gian bài viết
- Phần lớn được phát hiện ngay ở giai đoạn sandbox luyện tập
- Pangram có xuất hiện một số dương tính giả (false positive) với văn bản phi câu như định dạng hoặc danh sách, nhưng vẫn duy trì độ chính xác cao khi phân tích các câu trong phần thân bài
Hành vi sử dụng AI và hiệu quả đào tạo
- Trong học kỳ mùa thu năm 2025, chỉ 5% trong tổng số 6.357 người bị phát hiện dùng AI trong bài viết thực tế, và phần lớn đã bị hoàn tác bằng tay hoặc tự động
- Người tham gia, giảng viên và chuyên gia Wikipedia đã phối hợp để loại bỏ văn bản do AI tạo
- Các giảng viên đánh giá bài làm của sinh viên với trọng tâm là ‘khả năng kiểm chứng (verifiability)’
- Điều này cho thấy các câu do AI tạo ra không phù hợp với Wikipedia vì không thể kiểm chứng về mặt thực tế
- Nhờ can thiệp sớm dựa trên Pangram, tỷ lệ sử dụng AI đã giảm từ mức dự báo 25% xuống còn 5%
Khả năng ứng dụng tích cực của AI
- AI hữu ích ở giai đoạn nghiên cứu như xác định khoảng trống bài viết, tìm kiếm nguồn và gợi ý đường tiếp cận tài liệu
- Trong 102 báo cáo sử dụng từ 7 lớp học, 87% trả lời rằng công cụ này hữu ích
- Công cụ được dùng nhiều nhất là ChatGPT, tiếp theo là Grammarly
- Sinh viên đã dùng AI cho chỉnh sửa câu văn, gợi ý danh mục và đánh giá bản nháp
- Tuy nhiên, không có trường hợp nào dùng AI để viết phần thân bài
- Bài viết nhấn mạnh rằng AI chỉ hữu ích khi kết quả của nó được xem xét một cách phản biện, và phán đoán của con người là điều bắt buộc
Kết luận của Wiki Education và kế hoạch sắp tới
- Ở mức hiện tại, AI tạo sinh tạo ra văn bản không thể kiểm chứng, nên không phù hợp để viết phần thân bài trên Wikipedia
- Thời gian cần để kiểm chứng các câu do AI tạo ra còn nhiều hơn tự viết trực tiếp
- Tuy nhiên, nó vẫn có thể được dùng như công cụ hỗ trợ trong tìm tài liệu và khai phá ý tưởng
- Hệ thống phát hiện Pangram sẽ tiếp tục được duy trì và cải tiến trong năm 2026
- Sau khi xác nhận người tham gia thiếu hiểu biết về AI literacy, tổ chức sẽ bổ sung thêm mô-đun đào tạo về mô hình ngôn ngữ lớn (LLM)
- Tổ chức cũng đang hợp tác với Đại học Princeton và các bên khác để nghiên cứu sự thay đổi trong cách sinh viên chỉnh sửa trước và sau khi AI được đưa vào sử dụng
- Pangram cũng đã được xác nhận là nhận diện chính xác 100% các chỉnh sửa giai đoạn 2015~2022 là do con người viết
Hàm ý đối với toàn bộ Wikipedia
- 10% người trưởng thành trên toàn thế giới dùng ChatGPT, và trong số đó có nhiều người sử dụng công cụ này để viết văn bản
- Có rủi ro rằng các biên tập viên mới sẽ thêm nội dung do AI tạo ra mà không kiểm chứng
- Các công cụ phát hiện tự động như Pangram là yếu tố thiết yếu để duy trì chất lượng Wikipedia
- Hiện tại mới chỉ có thể gắn banner thủ công, nên cần một hệ thống phát hiện tự động hóa
- Đề xuất tăng cường cảnh báo về việc dùng AI và đào tạo biên tập dựa trên nguồn cho các biên tập viên mới
- Phần mềm hỗ trợ biên tập của Wikimedia Foundation cũng nên ưu tiên cách tóm tắt lấy con người làm trung tâm
- Để Wikipedia thích ứng với thay đổi công nghệ mà vẫn giữ được độ tin cậy, việc phát triển chính sách và công cụ phù hợp với kỷ nguyên AI là rất quan trọng
1 bình luận
Ý kiến trên Hacker News
Wikipedia từ trước đến nay vốn đã tràn lan vấn đề không xác minh được nguồn
Khó tìm thấy bằng chứng cho thấy gần đây tần suất đó tăng lên
Có vẻ đa số người viết thường viết những gì họ biết trước, rồi sau đó gắn thêm vài trích dẫn tối thiểu cho có vẻ hợp lý
Mức độ đáng tin cậy dường như thay đổi tùy theo mức độ chuyên môn của trang hay độ ngách của chủ đề
Các MC phát hiện họ bị ghi nhầm là “cựu nhân viên GitHub”, và khách mời đã sửa trích dẫn trên Wikipedia ngay trong lúc ghi âm
Khi chỉ ra những vấn đề này, một số biên tập viên lại khăng khăng rằng “Wikipedia là đáng tin cậy”
Nếu nhận thức đó không thay đổi thì có lẽ rất khó cải thiện
Ví dụ như những trường hợp diễn giải sai hành vi của phân tử nước
Bài viết đã nhấn mạnh tới ba lần rằng “đừng copy-paste đầu ra của AI tạo sinh”
Tôi cũng có trải nghiệm tương tự. Ban đầu nó đáng kinh ngạc vì nghe rất thuyết phục, nhưng rồi nhanh chóng nhận ra có rất nhiều ảo giác và nhiễu
Dù vậy, nó vẫn khá hữu ích cho việc nảy ý tưởng hay brainstorming
Lý do tôi chọn tiêu đề này là để nhấn mạnh trọng tâm của bài viết
Câu “hơn hai phần ba tài liệu bị gắn cờ đã không vượt qua bước xác minh” đặc biệt gây ấn tượng với tôi
Nếu tự kiểm tra trích dẫn thì sẽ thấy rất nhiều nguồn vớ vẩn
AI có thể làm vấn đề tệ hơn, nhưng việc con người chỉnh sửa với ác ý vẫn còn nguyên
Tôi nghĩ cách diễn đạt đó nắm khá đúng trọng tâm
Tôi tò mò không biết trước thời AI thì tỷ lệ lỗi trích dẫn là bao nhiêu để có dữ liệu đối chiếu
Bài này không nói về toàn bộ Wikipedia mà chỉ nói tới các chỉnh sửa thông qua chương trình Wiki Edu
Tức là các bài do sinh viên đại học viết như một bài tập trên lớp
Rốt cuộc vấn đề này có lẽ gần với thói quen dùng AI trong trường đại học hơn là vấn đề của Wikipedia
Ngay cả nghiên cứu sinh tiến sĩ mà còn viết kiểu đó thì thật đáng buồn
Đọc nguồn thì thấy nhiều chỗ hiểu sai ý hoặc tóm tắt sai một cách gượng gạo
LLM là công cụ hoàn hảo cho kiểu “viết cho đủ điểm” như vậy của sinh viên
Vượt ra ngoài vấn đề của Wikipedia, điều đáng lo hơn là hàng triệu người trên khắp thế giới đang tạo văn bản bằng LLM, và một phần trong đó lại được tiêu thụ như sự thật
LLM không có nghĩa vụ với sự thật, chúng chỉ trung thành với sự nhất quán về mặt ngữ pháp
Đôi khi điều đó tình cờ đúng, nhưng lúc nào cũng rất bấp bênh
Chỉ nhìn vào một số bài thôi thì cũng có thể là tỷ lệ nội dung do bot viết đã bị phát hiện thấp hơn thực tế
Tức là có khả năng chỉ những bài không vượt qua xác minh mới bị phát hiện
Có thể xem chi tiết trong bản PDF của bài báo
Từ góc nhìn của các nhà cung cấp LLM, đây giống như bi kịch của ô nhiễm tài nguyên dùng chung
Wikipedia chiếm một phần lớn trong dữ liệu huấn luyện, nên thật khó hiểu vì sao họ lại tự làm ô nhiễm nó
Sẽ rất thú vị nếu Wikipedia ban hành chính sách cấm dùng AI
Trên GitHub cũng đang xảy ra điều tương tự
Không chỉ trên Wikipedia mà ở nơi khác cũng rất thường gặp các trích dẫn mà nguồn không khớp với khẳng định
Tính năng thực sự hữu ích có lẽ sẽ là chatbot để hỏi về hướng dẫn biên tập
Hiện tại, ngay cả những biên tập viên giàu kinh nghiệm cũng thường diễn giải quy tắc theo ý mình trên trang thảo luận
Văn hóa “cứ hoàn tác trước rồi tìm lý do sau” là một rào cản lớn với người mới
Những chỗ như vậy có lẽ bot có thể phản bác ngay lập tức
Một vấn đề khác là các wiki dựa trên AI như Grokipedia
Bề ngoài trông bóng bẩy và thân thiện với di động hơn Wikipedia, nhưng lại chứa thông tin bị bóp méo có chủ đích
Có thể một số tập đoàn lớn hay thế lực chính trị đang muốn làm suy yếu nguồn thông tin mang tính dân chủ
Cần cẩn trọng để Wikipedia không trở thành mục tiêu của những cuộc tấn công như vậy
Đúng là spam AI làm giảm chất lượng, nhưng về gốc rễ đây vẫn là vấn đề kiểm soát chất lượng của Wikipedia
Quy trình rà soát thì chậm, và cũng không đảm bảo thông tin mới là đúng
Kể cả spam AI biến mất thì cũng vô nghĩa nếu khâu kiểm soát chất lượng không được cải thiện
Wikipedia cần xây dựng lại hệ thống kiểm soát chất lượng theo hướng giải thích rõ ràng, phù hợp với mức độ của độc giả trung bình