- Một nhân viên tại cơ sở y tế đã tự xây dựng hệ thống quản lý bệnh nhân bằng AI coding agent, khiến dữ liệu bệnh nhân bị lộ công khai trên Internet mà không mã hóa
- Bản ghi âm hội thoại khám chữa bệnh được gửi tới hai dịch vụ AI để tự động tóm tắt, và toàn bộ dữ liệu đều bị mở quyền đọc·ghi
- Dữ liệu được lưu trên máy chủ tại Mỹ, vận hành mà không có thỏa thuận xử lý dữ liệu (DPA), đồng thời bệnh nhân cũng không được thông báo trước
- Hành vi này có thể vi phạm luật bảo vệ dữ liệu nDSG của Thụy Sĩ và nghĩa vụ giữ bí mật nghề nghiệp
- Tác giả cảnh báo rằng nếu AI coding chỉ dừng ở mức vibe thì sẽ dẫn tới một tương lai kém an toàn
Thảm họa bảo mật của ứng dụng quản lý bệnh nhân do AI tạo ra
- Trường hợp một nhân viên tại cơ sở y tế tự xây dựng hệ thống quản lý bệnh nhân bằng AI coding agent
- Nhập toàn bộ dữ liệu bệnh nhân hiện có và triển khai công khai trên Internet
- Thêm tính năng ghi âm hội thoại trong lúc khám bệnh, gửi tới hai dịch vụ AI để triển khai chức năng tự động tóm tắt
- Kết quả là toàn bộ dữ liệu bệnh nhân bị phơi bày trên Internet mà không mã hóa
- Tác giả đã giành được quyền đọc·ghi với toàn bộ dữ liệu chỉ trong 30 phút
- Dù đã báo cáo vấn đề, phản hồi nhận lại chỉ là một lời cảm ơn do AI tự động tạo
- Dữ liệu được lưu trên máy chủ ở Mỹ và vận hành mà không có thỏa thuận xử lý dữ liệu (DPA)
- Các tệp ghi âm giọng nói cũng được gửi tới một công ty AI có trụ sở tại Mỹ
- Bệnh nhân không được thông báo trước về việc dữ liệu của họ được xử lý theo cách này
- Hành vi này có thể vi phạm nDSG (luật bảo vệ dữ liệu) của Thụy Sĩ và nghĩa vụ giữ bí mật nghề nghiệp (Berufsgeheimnis)
- Dù không phải chuyên gia pháp lý, tác giả cho rằng nhiều điều khoản đã bị vi phạm
- Đưa ra cảnh báo rằng nếu AI coding chỉ dừng ở mức “vibe”, nó sẽ dẫn tới một tương lai kém an toàn
Bối cảnh kỹ thuật
- Ứng dụng được cấu thành từ một tệp HTML duy nhất
- Toàn bộ JavaScript, CSS và mã cấu trúc đều được viết inline
- Backend sử dụng dịch vụ cơ sở dữ liệu được quản lý nhưng hoàn toàn không có kiểm soát truy cập
- Logic kiểm soát truy cập chỉ tồn tại trong JavaScript phía client
- Chỉ với một dòng lệnh
curl cũng có thể truy cập dữ liệu
- Tất cả tệp ghi âm giọng nói đều được gửi trực tiếp tới API AI bên ngoài để phiên âm và tóm tắt
- Chỉ riêng từng đó cũng đã cho thấy lỗ hổng bảo mật nghiêm trọng
Triển vọng
- Khi sử dụng công cụ AI coding, năng lực hiểu cấu trúc mã và kiến trúc hệ thống là điều bắt buộc
- Cách tiếp cận chỉ dừng ở mức “tận hưởng cảm giác code bằng AI (vibing)” sẽ gây ra kết quả nguy hiểm
- Trong bối cảnh các công cụ phát triển AI lan rộng, nhận thức bảo mật cơ bản và hiểu biết kỹ thuật là điều nhất thiết phải có
11 bình luận
Thì cũng là chuyện đã rồi.. chỉ cần tìm
OPENAI_API_KEYtrên GitHub thôi cũng đã thấy dính đầy ra rồi..Cứ đà này thì có khi sẽ đến thời phải lấy cả chứng chỉ vibe coding..
Ngày càng có nhiều người giả vờ như chuyên gia thông qua AI, và khi họ bắt đầu ba hoa thì thế giới trở nên quá đỗi hỗn loạn.
...
Ở Hàn Quốc cũng vậy, theo Luật Bảo vệ Thông tin và khoản 2 Điều 21 của Luật Y tế, nhân viên các cơ sở y tế được quy định là không được để người khác xem hồ sơ bệnh nhân trong những trường hợp không thuộc diện ngoại lệ.
https://law.go.kr/%EB%B2%95%EB%A0%B9/%EC%9D%98%EB%A3%8C%EB%B2%95/…
Nhờ môi trường bảo mật thông tin lạc hậu của Hàn Quốc nên mọi người đều tôn sùng việc tách biệt mạng, thành ra may mắn là ở các bệnh viện lớn dường như những sự cố kiểu này không hay xảy ra.
Vì môi trường truy cập hồ sơ bệnh nhân là mạng nội bộ nên người dùng không rành bảo mật khó có thể gắn trực tiếp các dịch vụ AI thương mại vào.
Không biết ở các phòng khám tuyến đầu, nơi máy tính dùng cho khám chữa bệnh được nối thẳng với mạng Internet, thì đang xảy ra những chuyện gì nữa haha
PHI luôn phải cẩn thận... lại càng phải cẩn thận hơn...
Tôi cũng đã chỉ cho bạn mình dùng Claude Code, rồi khoảng hai tuần sau cậu ấy bảo là mình đã làm ra thứ gì đó rồi!! và đúng là tình huống y hệt cũng đã xảy ra.
Nghe nói công nghệ phát hiện lỗ hổng bảo mật cũng đã có bước tiến đột phá.
Việc phát hiện ra lỗ hổng đó cũng đồng nghĩa nhu cầu về cách thức bảo vệ trở nên cần thiết hơn.
Có vẻ như các biện pháp bảo mật cũng sẽ được tiếp tục cải thiện.
Trước hết, những người không phải chuyên gia có lẽ còn không biết là có những thứ như vậy tồn tại, cũng không biết vì sao chúng lại cần thiết.
Càng như vậy càng thấy cần phải cảnh giác rằng mình nên học khoa học máy tính.
Tôi nghĩ đây thực sự là một cách diễn đạt rất trúng trọng tâm.
Ý kiến trên Hacker News
Tôi từng gặp chuyện tương tự ở Tây Ban Nha. Không phải trong lĩnh vực y tế mà là một công ty bảo hiểm nhỏ, và khó tin nhưng họ cũng làm CRM bằng vibe-coding
Khi tôi báo vấn đề qua email, họ dọa sẽ kiện tôi. Thật hết nói nổi, nhưng cuối cùng tôi đã gửi tố cáo lên AEPD (Cơ quan Bảo vệ Dữ liệu Tây Ban Nha). Cơ quan này nổi tiếng là khá mạnh tay
Thứ Sáu tuần trước tôi còn gửi cả burofax yêu cầu xóa dữ liệu cá nhân của mình
Tôi dùng README.txt để báo cho họ biết vấn đề nhưng chẳng có gì thay đổi. Tôi còn nghĩ đến chuyện tự đến nơi sửa giúp rồi biết đâu biến nó thành công việc đầu tiên của mình, nhưng ngược lại họ nổi giận. Họ nói họ đã thuê một bên ngoài đắt tiền và cáo buộc tôi xâm nhập. Thế là tôi rời đi ngay
Ngay trên diễn đàn doanh nghiệp nhỏ nơi tôi tham gia cũng có một người khoe rằng tự làm app bằng AI. Nhưng anh ta hoàn toàn không biết gì về trách nhiệm pháp lý, và khi các lập trình viên trên Reddit bảo “hãy thuê một lập trình viên thực thụ” thì anh ta nổi cáu. Giờ anh ta tin rằng lập trình viên là một loài sắp tuyệt chủng
Trên LinkedIn, những nhân viên sales không hiểu công nghệ đang liên tục rao giảng rằng AI là câu trả lời cho mọi vấn đề
Trong bầu không khí như vậy, tôi có cảm giác sớm muộn gì cũng sẽ xảy ra một tai nạn thật lớn
vibe-coding rất ngầu, nhưng giới hạn của nó lộ ra rất nhanh
Khi vượt quá vài nghìn dòng, cấu trúc bắt đầu sụp đổ, trong khi hệ thống thực tế còn phức tạp hơn nhiều. Cuối cùng vẫn cần nền tảng cơ bản của kỹ nghệ phần mềm
Nó ổn cho prototype hoặc công cụ nội bộ, nhưng đem vào production thực tế thì rất nguy hiểm. Tôi không muốn giao dữ liệu của mình cho những hệ thống như vậy
Tôi dùng Jira Rovo MCP với Claude Code để tạo thiết kế và tài liệu, xem xét thủ công rồi triển khai trong một session mới
LLM càng có nhiều ngữ cảnh thì càng ngớ ngẩn, nên rất nên dùng thiết lập context status bar
Tôi đã thử Gemma 4 trên máy cục bộ, và dù chậm nhưng mạnh gần như các mô hình cloud. Ưu điểm là dữ liệu không bị đưa ra ngoài
Vài tháng trước tôi đã thấy một web app vibe-coded do một bác sĩ phẫu thuật làm ra
Nó có hoạt động, nhưng không có index.html ở thư mục gốc, và trong file backup vẫn còn nguyên thông tin kết nối DB cùng khóa AWS
Chỉ cần thêm một index.html rỗng là giải quyết được, nhưng cả lập trình viên lẫn AI đều không hiểu vì sao
Bản thân app thì khá ấn tượng, nhưng mắc quá nhiều lỗi bảo mật cơ bản. Chỉ cần một DevOps có kinh nghiệm liếc qua một lần là đủ
Cuối cùng AI không biết những gì “không được hỏi”. Lập trình viên dày dạn nhớ những thất bại trong quá khứ, còn vibe-coder thì chỉ có prompt
Câu “toàn bộ logic kiểm soát truy cập đều nằm trong JavaScript phía client” thực sự là điều tệ nhất
Đây đúng là một trường hợp điển hình khi người không chuyên dùng AI bừa bãi.
Khi dùng AI trong công việc thực tế, nhất định phải nhận thức rõ trách nhiệm và rủi ro
Nếu không có kiểm soát workflow tử tế và xác minh kết quả, những vấn đề như vậy sẽ còn tiếp diễn. Hiện tại đúng là miền Viễn Tây hoang dã của LLM
Tôi nghĩ kỹ nghệ phần mềm giờ cũng cần một hệ thống chứng chỉ nghề nghiệp
Cũng như thiết kế cầu hay tòa nhà cần được chứng nhận, các lập trình viên xây hệ thống quan trọng cũng nên có một mức chuẩn nhất định
Cuối cùng, theo thời gian, hiểu biết về AI và quyền riêng tư rồi cũng sẽ được định hình
Bài viết này quá mơ hồ nên có cảm giác như hư cấu
Nếu AI được huấn luyện để ẩn phần triển khai, tức là làm client mỏng và dùng xác thực OAuth, thì liệu có tốt hơn không?
Những sai lầm đơn giản như thế hoàn toàn có thể phòng tránh. Nhưng mục tiêu vẫn là thay thế lập trình viên
Điều tệ hơn là mọi người bắt đầu tin rằng “học những thứ khó là không hiệu quả”
Tôi làm trong lĩnh vực mật mã học, và một số sinh viên nghĩ rằng các kỹ thuật bảo mật rồi sẽ sớm biến mất vì AI. Vì thế tôi cho họ tự triển khai xác thực web đơn giản để cho thấy thực tế
Một công ty kế toán mà tôi biết cũng đang tự làm CRM bằng Lovable. Không hề có nhân sự kỹ thuật nào
Tôi có thể nhìn thấy trước thảm họa sắp xảy ra
Các ngành rủi ro cao khác đều có cơ chế kiểm chứng kép. Phi công có cơ phó, bác sĩ phẫu thuật có checklist, nhà máy điện hạt nhân có kiểm tra độc lập
Nhưng phần mềm lại là ngoại lệ, và vibe-coding còn xóa nốt cả việc xác minh dựa trên hiểu biết vốn ít ỏi còn lại