1 điểm bởi GN⁺ 2026-01-08 | 1 bình luận | Chia sẻ qua WhatsApp
  • "ChatGPT mới được thiết kế cho sức khỏe và wellness"
  • Dịch vụ hỗ trợ kết nối an toàn giữa thông tin sức khỏe cá nhân và AI của ChatGPT để giúp người dùng hiểu và quản lý tình trạng sức khỏe
  • Áp dụng cấu trúc mã hóa và phân tách để bảo vệ thông tin y tế, và các cuộc trò chuyện liên quan đến sức khỏe không được dùng để huấn luyện mô hình
  • Cung cấp tư vấn sức khỏe được cá nhân hóa thông qua tích hợp hồ sơ y tế điện tử (EHR) và các ứng dụng wellness như Apple Health, MyFitnessPal
  • Hợp tác với hơn 260 nhân viên y tế trên toàn thế giới để kiểm chứng chất lượng mô hình bằng HealthBench, hệ thống đánh giá theo tiêu chuẩn lâm sàng
  • Được phát triển như công cụ quản lý sức khỏe lấy quyền riêng tư và độ tin cậy làm trọng tâm, nhằm bổ trợ chứ không thay thế dịch vụ y tế

Tổng quan về ChatGPT Health

  • ChatGPT Health là dịch vụ giúp hiểu tình trạng sức khỏe và quản lý một cách có hệ thống bằng cách kết nối an toàn dữ liệu sức khỏe cá nhân với ChatGPT
    • Bổ sung các biện pháp bảo vệ thông tin y tế dựa trên hệ thống quyền riêng tư, bảo mật và kiểm soát dữ liệu của ChatGPT
    • Các cuộc trò chuyện liên quan đến sức khỏe được quản lý riêng tư thông qua cấu trúc mã hóa và phân tách
  • Người dùng có thể kết nối hồ sơ y tế và các ứng dụng wellness với ChatGPT để diễn giải kết quả xét nghiệm, chuẩn bị cho buổi khám, lập kế hoạch ăn uống và tập luyện
  • Mục tiêu của dịch vụ là bổ trợ cho việc thăm khám của chuyên gia y tế, không thay thế chẩn đoán hay điều trị

Tình hình sử dụng thông tin sức khỏe

  • ChatGPT hiện đã là một trong những dịch vụ được sử dụng nhiều nhất trong lĩnh vực sức khỏe, với hơn 230 triệu người mỗi tuần đặt câu hỏi liên quan đến sức khỏe
  • Đây là nỗ lực nhằm giải quyết việc thông tin sức khỏe bị phân tán trên nhiều nền tảng, khiến người dùng khó nắm được bức tranh tổng thể
  • ChatGPT Health mở rộng xu hướng này để cung cấp các phản hồi phản ánh đúng bối cảnh của người dùng

Tính năng chính và tích hợp

  • Có thể tích hợp với hồ sơ y tế điện tử (EHR), Apple Health, Function, MyFitnessPal và nhiều dịch vụ khác
    • Tại Mỹ, hỗ trợ kết nối dữ liệu y tế đáng tin cậy thông qua mạng lưới b.well
    • Quyền truy cập hồ sơ y tế chỉ được cung cấp cho người dùng từ 18 tuổi trở lên
  • Trước khi được đưa vào ChatGPT Health, ứng dụng phải đáp ứng đánh giá bảo mật và yêu cầu thu thập dữ liệu tối thiểu
    • Người dùng có thể ngắt kết nối ứng dụng bất cứ lúc nào, và quyền truy cập dữ liệu sẽ bị hủy ngay lập tức sau khi ngắt kết nối
  • Các cuộc trò chuyện và tệp trong ChatGPT Health được lưu trong bộ nhớ chuyên dụng tách biệt với chat mặc định
    • Dữ liệu Health không thể được truy cập từ các cuộc trò chuyện bên ngoài
    • Người dùng có thể xem hoặc xóa dữ liệu trong giao diện Health hoặc phần cài đặt

Quyền riêng tư và bảo mật

  • ChatGPT Health hoạt động như một không gian riêng biệt áp dụng cơ chế bảo vệ quyền riêng tư được tăng cường
    • Nội dung trò chuyện không được sử dụng để huấn luyện mô hình
    • Cả khi lưu trữ lẫn truyền tải đều được mã hóa
  • OpenAI cung cấp chế độ trò chuyện tạm thờitùy chọn xóa dữ liệu trong vòng 30 ngày trên toàn bộ ChatGPT
  • Khác với các cuộc trò chuyện thông thường của ChatGPT, các cuộc trò chuyện Health được quản lý bằng hệ thống mã hóa dành riêng cho dữ liệu y tếcấu trúc cách ly

Hợp tác với đội ngũ y tế và hệ thống đánh giá

  • Trong hơn 2 năm, OpenAI đã hợp tác với hơn 260 nhân viên y tế từ 60 quốc gia trên thế giới
    • Thu thập hơn 600.000 lượt phản hồi trong 30 lĩnh vực trọng điểm
    • Đội ngũ y tế xem xét khi nào phản hồi của ChatGPT hữu ích và khi nào có thể gây rủi ro
  • Kết quả hợp tác này được phản ánh vào thiết kế mô hình và cách phản hồi để tăng cường độ rõ ràng, an toàn và khả năng kết nối với quá trình thăm khám
  • Mô hình được kiểm chứng theo tiêu chuẩn lâm sàng thông qua khung đánh giá HealthBench
    • HealthBench phản ánh cách ra quyết định trong điều trị thực tế dựa trên các tiêu chí đánh giá do đội ngũ y tế trực tiếp xây dựng
    • Chất lượng phản hồi được đo lường xoay quanh các yếu tố như an toàn, truyền đạt rõ ràng và tôn trọng bối cảnh cá nhân

Ví dụ sử dụng và cách truy cập

  • Người dùng có thể truy cập bằng cách chọn Health trong thanh bên của ChatGPT
    • Có thể kết nối dữ liệu qua tải tệp lên, tích hợp ứng dụng, công cụ (+) hoặc menu ‘Ứng dụng’ trong phần cài đặt
  • Các cuộc trò chuyện Health vẫn hỗ trợ đầy đủ các tính năng thông thường của ChatGPT như tìm kiếm, chế độ giọng nói, đọc chính tả
    • Ví dụ câu hỏi: “Mức cholesterol của tôi đang thay đổi như thế nào?”, “Hãy tóm tắt kết quả xét nghiệm máu trước buổi khám cho tôi”
  • Có thể thêm hướng dẫn tùy chỉnh dành cho người dùng vào cuộc trò chuyện Health để điều chỉnh cách ChatGPT phản hồi và các vùng nội dung nhạy cảm
    • Hướng dẫn tùy chỉnh chỉ áp dụng cho cuộc trò chuyện Health và có thể sửa hoặc xóa bất cứ lúc nào

Cung cấp dịch vụ và kế hoạch mở rộng

  • Hiện tại, dịch vụ được ưu tiên cung cấp cho một số người dùng ban đầu, có thể sử dụng khi đăng ký vào danh sách chờ
  • Dự kiến mở rộng đầy đủ trên web và iOS trong vài tuần tới
  • Tích hợp hồ sơ y tế điện tử và một số ứng dụng chỉ khả dụng tại Mỹ, tích hợp Apple Health yêu cầu iOS
  • Trong tương lai, OpenAI dự kiến tiếp tục mở rộng tích hợp dữ liệu và insight để giúp người dùng hiểu rõ hơn về tình trạng sức khỏe và các lựa chọn của mình

1 bình luận

 
GN⁺ 2026-01-08
Ý kiến trên Hacker News
  • Chú tôi từng bị mất thăng bằng và nói ngọng. Các bác sĩ chẩn đoán là sa sút trí tuệ rồi cho về, nhưng tình trạng ngày càng nặng hơn. Vì vậy tôi nhập các triệu chứng vào ChatGPT (hoặc Gemini) và hỏi 3 giả thuyết hàng đầu; giả thuyết đầu tiên liên quan đến sa sút trí tuệ, giả thuyết thứ hai là một bệnh khác. Tôi mang kết quả đó đến gặp bác sĩ điều trị chính và đề nghị họ xem xét thêm hai khả năng kia, cuối cùng thì giả thuyết thứ hai mới đúng. Sau phẫu thuật, chú tôi hồi phục hoàn toàn

    • Tôi đã nghe khá nhiều giai thoại kiểu này. Không hẳn là ác ý, nhưng tôi lo những câu chuyện như vậy có thể củng cố các niềm tin phi lý như phong trào chống vắc-xin. Nếu ngành y không phản hồi trước các câu chuyện như thế thì có thể sẽ mất niềm tin. Tôi tự hỏi chẩn đoán sai xảy ra thường xuyên đến mức nào, và LLM thực sự hữu ích đến đâu
    • Khi dùng LLM, hỏi “có những phương án thay thế nào cho vấn đề này” hữu ích hơn nhiều so với hỏi “tôi nên làm gì”. Nếu nhận được top k câu trả lời thì có thể đào sâu hơn
    • Các bác sĩ đa khoa được đào tạo thiên về ghi nhớ hơn là giải quyết vấn đề. Những bác sĩ thực sự giỏi giải quyết vấn đề phần lớn là bác sĩ chuyên khoa
    • Tôi tự hỏi liệu đó có phải là não úng thủy áp lực bình thường (NPH) không. Ca phẫu thuật có thể là shunt VP để dẫn lưu dịch não tủy. Có một mẹo ghi nhớ y khoa cho các triệu chứng són tiểu, mất thăng bằng và suy giảm nhận thức là “Wet, Wobbly, Wacky”
    • Thật mừng vì chú của bạn đã khá hơn. Tôi tò mò không biết bạn có thể chia sẻ hai giả thuyết còn lại và chẩn đoán cuối cùng là gì không
  • Anh họ tôi là bác sĩ tâm thần mở phòng khám riêng, và tôi lo những công cụ y tế AI như thế này có thể đe dọa kế sinh nhai của anh ấy. Bệnh nhân phải đi qua điện thoại, email và thủ tục bảo hiểm, trong khi AI có thể trò chuyện ngay lập tức. Trừ những trường hợp cần kê đơn thuốc, bác sĩ con người khó mà cạnh tranh về sự tiện lợi. Nếu nước Mỹ muốn chăm sóc con người tốt hơn thì cần hệ thống bảo hiểm một bên chi trả để đơn giản hóa hệ thống y tế

  • Tôi từng phát triển phần mềm y tế, và việc áp dụng hệ thống xác suất vào y khoa là một dấu hiệu đáng lo. Trình kiểm tra tương tác thuốc trong bệnh viện nhất định phải mang tính xác định (deterministic). Cùng một đầu vào phải cho cùng một kết quả, vì khi thất bại thì sinh mạng con người bị đe dọa

    • Nhưng bản thân y học về bản chất là phi xác định. Phản ứng với thuốc khác nhau ở từng bệnh nhân. Tính phi xác định của ChatGPT cũng nên được quản lý ở cấp độ cao hơn là tương tác giữa bác sĩ và bệnh nhân. AI nên đưa ra các khả năng, còn bác sĩ phải xác minh
    • Dù vậy, trong bối cảnh chi phí y tế ở Mỹ liên tục tăng vì quy định của chính phủ, nếu xây dựng tốt các hệ thống xác định thì có lẽ có thể giảm chi phí và cải thiện khả năng tiếp cận
  • ChatGPT đã giả định rằng tôi mắc ADHD trong suốt 9 tháng. Thực tế thì không phải vậy. Khi tôi hỏi nó lấy thông tin đó từ đâu, nó không thể đưa ra căn cứ cụ thể. Cuối cùng nó xin lỗi và nói sẽ quên thuộc tính đó, nhưng tôi nghĩ chuyện như thế này đủ để bị kiện tập thể

    • Có lẽ nó chỉ nhắc đến ADHD như một ảo giác (hallucination) trong một cuộc trò chuyện nào đó. ChatGPT không thể nối ký ức giữa các phiên làm việc
    • Có vẻ là do trên Reddit và những nơi tương tự, mọi người thường nhắc đến tự chẩn đoán nên dữ liệu đó đã được học vào
    • Những trường hợp như vậy cho thấy vấn đề quyền riêng tư dữ liệu sức khỏe. Nếu AI suy đoán bệnh của người dùng rồi chuyển cho các nhà môi giới dữ liệu, thì thông tin đó sẽ bị coi như sự thật. Chúng ta thiếu hạ tầng để kiểm soát dữ liệu cá nhân
    • Về mặt pháp lý, cần quy trách nhiệm cho nhà cung cấp dịch vụ. Nếu bác sĩ con người chẩn đoán sai thì bệnh viện chịu trách nhiệm; dịch vụ chẩn đoán AI cũng phải như vậy. Nếu chạy mô hình cục bộ thì người dùng phải tự chịu trách nhiệm
    • Trong trường hợp của tôi, ChatGPT đã nhắc đến một công ty không tồn tại dưới tên tôi. Dù tôi đã từ chối mọi hình thức thu thập dữ liệu cá nhân, chuyện này vẫn xảy ra. Tôi đã xem chính sách quyền riêng tư của OpenAI nhưng vẫn thấy bất an
  • ChatGPT đã tìm ra nguyên nhân bệnh mạn tính của mẹ tôi ngoài 80 tuổi chỉ trong 5 phút. Đây là vấn đề mà nhiều bác sĩ không tìm ra suốt 3 năm. Các bác sĩ đã kiểm chứng khả năng đó và nó đúng 100%. Dĩ nhiên không thể áp dụng cho mọi bệnh, nhưng LLM giúp tư duy tích hợp giữa các chuyên ngành

    • Vấn đề không phải là ChatGPT mà là thiếu thời gian khám bệnh. Ở các nước khác, bác sĩ có đủ thời gian dành cho bệnh nhân, còn ở Mỹ thì hệ thống đã hỏng
    • Tôi tò mò không biết bạn có thể chia sẻ log cuộc trò chuyện đó không
    • Với bệnh nhân cao tuổi, thực tế là những điều trị như vậy lặp đi lặp lại và làm chi phí y tế bùng nổ
  • Có người nói AI như thế này là tốt vì hệ thống y tế Mỹ quá tệ, nhưng ngay cả ở những quốc gia có y tế miễn phí hoạt động tốt, các công cụ này vẫn xuất hiện. Dù có thể được bác sĩ được đào tạo khám miễn phí, vẫn sẽ có người chọn ChatGPT. Xét cho cùng, với 95% dân số thế giới thì điều này có thể còn gây hại nhiều hơn. Lập luận “nếu chúng tôi không làm thì sẽ có người khác làm” của OpenAI chẳng khác gì lời biện minh của kẻ bán fentanyl

  • Tôi đã gặp hàng chục bác sĩ vì đau đầu gối và khuỷu tay, nhưng ChatGPT giúp ích hơn nhiều. Chỉ đơn thuần làm theo lời AI thì nguy hiểm, nhưng dùng kết quả xét nghiệm để định hình câu hỏi tiếp theo hoặc hướng kiểm tra tiếp theo thì rất hữu ích. Cũng giống như giao cho AI review code thì tốt, nhưng để nó viết toàn bộ code lại là chuyện nguy hiểm

  • Tôi không chắc AI có thể viết đơn thuốc hay khám chữa bằng robot cho tôi hay không, nhưng nếu không làm được thì tôi nghĩ việc bác sĩ tham khảo phân tích của AI là đủ rồi

  • Tôi không quá bận tâm về việc người khác truy cập dữ liệu sức khỏe của mình. Ngược lại, tôi kỳ vọng vào đổi mới sức khỏe cá nhân. Apple Health chỉ đơn thuần thu thập dữ liệu, còn 23andMe thì chẳng mấy hữu ích. Hiện giờ tôi đang vận hành một project ChatGPT với toàn bộ tiền sử sức khỏe của mình trong system prompt, và tôi ngạc nhiên vì nó còn phân tích và trực quan hóa dựa trên bài báo khoa học

    • Nếu phân tích đó dẫn tới chẩn đoán sai và gây ra khuyết tật, thì đó là trách nhiệm của người dùng hay của bác sĩ?
    • Tôi tò mò bạn đã cung cấp những thông tin gì. Nếu hỏi bác sĩ cùng câu đó thì liệu bạn có nhận được cùng câu trả lời không? Với những người như tôi bị lo âu sức khỏe, công cụ như thế này thậm chí có thể còn có hại
    • Thực ra có khi các bác sĩ cũng đã âm thầm dùng AI rồi
    • Nhưng liệu có ổn không khi giao cả dữ liệu sinh học như vậy cho Sam Altman? Tôi tò mò bạn đã dùng thiết bị nào
    • Dữ liệu sức khỏe là thông tin nhạy cảm nhất nên bị quản lý rất chặt. Loại dữ liệu này tạo ra bất cân xứng quyền lực, và doanh nghiệp sẽ lợi dụng nó để tối đa hóa lợi nhuận
  • Có nhiều ý kiến tiêu cực, nhưng tôi đã có thể giải quyết vấn đề sức khỏe nhờ ChatGPT

    • Người quen của tôi đã tự chẩn đoán bệnh hiếm bằng ChatGPT rồi làm xét nghiệm đắt tiền, nhưng cuối cùng lại là chẩn đoán sai. Dù vậy họ vẫn tin tưởng nó. Thái độ đánh đồng nhiều năm đào tạo và kinh nghiệm của bác sĩ với tìm kiếm đơn giản là rất nguy hiểm
    • Tôi cũng từng khổ sở vì đau lưng, và ChatGPT đã cho tôi biết vấn đề ở cơ vuông thắt lưng (quadratus lumborum), điều đó giúp ích rất nhiều
    • Trong ngành y có rất nhiều bệnh nhân ám ảnh bệnh tật. LLM nếu dùng đúng cách thì hữu ích, nhưng cũng có thể củng cố thiên kiến xác nhận. Bác sĩ là người sẽ nói ra cả những điều ta không muốn nghe. Rốt cuộc AI chỉ là công cụ, và nên được dùng cùng với bác sĩ. Thời COVID có rất nhiều thông tin linh tinh, nhưng bây giờ đã tốt hơn nhiều. Tôi dùng ChatGPT để sắp xếp thông tin rồi cung cấp cho bác sĩ bức tranh đầy đủ
    • Tôi cũng dùng ChatGPT, nhưng mọi lời khuyên có thể hành động được đều nhất định phải được kiểm chứng bằng nguồn đáng tin cậy. Phải biết phán đoán theo lẽ thường. Dù AI có đưa ra lời khuyên ngớ ngẩn thì cuối cùng con người vẫn là người phán đoán