Một nhà nghiên cứu người Thụy Điển đã tạo ra một căn bệnh hoàn toàn hư cấu "Bixonimania" để thử xem các chatbot AI có hướng dẫn về nó như thể là bệnh thật hay không. Kết quả gây sốc. Các hệ thống AI lớn như ChatGPT, Google Gemini, Microsoft Copilot và Perplexity đều mô tả căn bệnh giả này như thể là có thật, thậm chí còn dẫn đến việc một bài báo giả được trích dẫn trong một tạp chí học thuật thực sự.
Toàn bộ diễn biến thí nghiệm
Almira Osmanovic Thunström, nhà nghiên cứu y học tại Đại học Gothenburg, đã thiết kế thí nghiệm này để kiểm chứng liệu các mô hình ngôn ngữ lớn (LLM) có tiếp nhận thông tin sai lệch rồi cung cấp nó như thể là thông tin sức khỏe đáng tin cậy hay không.
Cô chọn cái tên "Bixonimania", và cho biết đây là một cách đặt tên cố tình lố bịch, vì việc gắn thuật ngữ tâm thần học "mania" với một bệnh về mắt là một tổ hợp mà bất kỳ chuyên gia y tế nào cũng sẽ thấy kỳ quặc.
Từ tháng 4 đến tháng 5 năm 2024, cô đã đăng hai preprint giả lên mạng xã hội học thuật SciProfiles dưới tên của một nhà nghiên cứu hư cấu là "Lazljiv Izgubljenovic", với ảnh đại diện do AI tạo ra.
Trong các bài báo này có cài cắm nhiều dấu hiệu cho thấy chúng là giả. Phần lời cảm ơn nhắc đến "phòng thí nghiệm trên tàu USS Enterprise", "Starfleet Academy" và "Đại học Chúa tể những chiếc nhẫn", còn trong nội dung chính thậm chí có cả câu "toàn bộ bài báo này là bịa đặt".
Phản ứng của các AI
Chỉ vài ngày sau khi thông tin giả được đăng tải, các chatbot AI lớn đã bắt đầu mô tả Bixonimania như một căn bệnh có thật. Ngày 13/4/2024, Copilot của Microsoft gọi đây là một "căn bệnh thú vị và hiếm gặp", còn cùng ngày Google Gemini cho rằng đó là "một bệnh do phơi nhiễm quá mức với ánh sáng xanh" và khuyên người dùng đi khám mắt. Perplexity thậm chí còn đưa ra tỷ lệ hiện mắc là 1 trên 90.000 người.
Đến tháng 3/2026, tình hình vẫn không cải thiện nhiều. Microsoft Copilot trả lời rằng "dù chưa phải là một chẩn đoán được công nhận rộng rãi, nó vẫn được báo cáo là một tình trạng lành tính liên quan đến phơi nhiễm ánh sáng xanh", còn Perplexity mô tả đây là "một thuật ngữ mới nổi".
Vấn đề nghiêm trọng hơn: ô nhiễm tạp chí học thuật
Bài báo giả này còn được trích dẫn trong một tạp chí học thuật có thật. Một nhóm nghiên cứu tại Ấn Độ đã trích dẫn Bixonimania như một sự thật trong bài báo đăng trên Cureus, một tạp chí thuộc Springer Nature, gọi nó là "một dạng tăng sắc tố quanh hốc mắt mới liên quan đến ánh sáng xanh". Bài báo này đã bị rút lại vào ngày 30/3/2026 sau khi Nature gửi câu hỏi.
Alex Ruani, nhà nghiên cứu về thông tin sức khỏe sai lệch tại UCL, đánh giá thí nghiệm này là "một ví dụ giáo khoa về cách tin giả và thông tin sai lệch vận hành", đồng thời cảnh báo rằng "chúng ta phải bảo vệ niềm tin của mình như vàng", bởi không chỉ AI mà cả các nhà nghiên cứu con người trích dẫn nghiên cứu giả cũng đã bị lừa.
Vì sao chuyện này xảy ra?
Theo nghiên cứu của Mahmud Omar, chuyên gia AI và y học tại Trường Y Harvard, LLM có xu hướng tạo sinh và thêu dệt thêm nhiều thông tin sai lệch hơn khi xử lý các văn bản có định dạng chuyên nghiệp như hồ sơ xuất viện bệnh viện hay bài báo lâm sàng, so với các bài đăng mạng xã hội. Ông nói: "Văn bản càng trông giống như do bác sĩ viết, tỷ lệ ảo giác càng cao".
Giải thích từ các công ty
- OpenAI: "Các mô hình hiện đang vận hành ChatGPT đã cải thiện đáng kể độ chính xác của thông tin y khoa, và các kết quả nghiên cứu dựa trên mô hình trước đây khác với trải nghiệm hiện tại của người dùng"
- Google: "Đây là kết quả phản ánh giới hạn của các mô hình ban đầu, và với thông tin y tế nhạy cảm chúng tôi khuyến nghị người dùng tham khảo chuyên gia"
- Perplexity: "Độ chính xác là thế mạnh cốt lõi của chúng tôi, nhưng chúng tôi không tuyên bố chính xác 100%"
- Microsoft: Không có phản hồi chính thức
Hàm ý
Thí nghiệm lần này cho thấy rất rõ rằng trong bối cảnh chatbot AI đang nhanh chóng trở thành công cụ cung cấp thông tin y khoa, chỉ một mẩu thông tin được thiết kế sai cũng có thể lan truyền nhanh đến mức nào thông qua AI. Thay vì chấp nhận vô điều kiện các thông tin y tế do AI đưa ra, thói quen tự kiểm tra các nguồn đáng tin cậy đang trở nên quan trọng hơn bao giờ hết.
Bài gốc: Nature, 2026.04.07
4 bình luận
Nhớ lại vụ Srečko Kovačević của Park Moon-seong.
Có vẻ như phải có một quá trình để đánh giá xem nguồn có mang tính thẩm quyền hay đáng tin cậy hay không, nhưng dù vậy xem ra nó vẫn dễ bị tổn thương.
Tôi thắc mắc tại sao lại không có anthropic ''
AI thì còn tạm chấp nhận được, nhưng nhóm nghiên cứu Ấn Độ còn không đọc à