• Phone: 0235.3851.429
  • Hotline: 19009095
  • Thông tin:

dieuhanhtructuyen

Trí tuệ nhân tạo trong y học chăm sóc đặc biệt

  • PDF.

Bs Lê Văn Tuấn - 

Trí tuệ nhân tạo (AI) có tiềm năng cải thiện chẩn đoán, tiên lượng, quy trình làm việc và chăm sóc cá nhân hóa trong chăm sóc tích cực, nhưng việc triển khai mà không có phương pháp tiếp cận có cấu trúc và nhận thức được rủi ro có thể dẫn đến tác hại. Bất chấp áp lực tại khoa ICU do thiếu hụt nhân sự, tình trạng phức tạp của ca bệnh và chi phí tăng cao, hầu hết các công cụ AI vẫn chưa được kiểm chứng đầy đủ trong môi trường thực tế.

Sự đồng thuận của các chuyên gia đã xác định những rào cản chính đối với việc triển khai AI trong chăm sóc đặc biệt, từ đó đưa ra các khuyến nghị cho bác sĩ lâm sàng, bệnh nhân và các bên liên quan trong xã hội về việc thúc đẩy AI trong chăm sóc sức khỏe. Các thách thức và nguyên tắc chỉ đạo được chia thành bốn lĩnh vực:

AI lấy con người làm trung tâm và có đạo đức: Rủi ro sử dụng sai mục đích AI đòi hỏi sự tham gia của bác sĩ lâm sàng cùng với khuôn khổ pháp lý để hướng dẫn việc triển khai an toàn và hiệu quả.

Phát triển AI lấy con người làm trung tâm: AI sẽ nâng cao khả năng chăm sóc đồng cảm và giao tiếp giữa bệnh nhân và bác sĩ bằng cách giảm bớt gánh nặng hành chính (ví dụ: ghi chép tài liệu), bảo tồn bản chất con người trong y học.

Hợp đồng xã hội về ứng dụng AI: Để ngăn chặn AI làm trầm trọng thêm sự chênh lệch trong chăm sóc sức khỏe, các bên liên quan, bao gồm cả bệnh nhân, nên giúp xác định vai trò, giới hạn và trách nhiệm giải trình của AI. Các bệnh viện nên thiết lập các cơ chế giám sát (ví dụ: ủy ban AI) để đảm bảo việc triển khai AI an toàn, công bằng và minh bạch.

Giám sát của con người và quản trị đạo đức: Các bác sĩ lâm sàng phải dẫn dắt việc tích hợp AI trong khi vẫn duy trì trách nhiệm đạo đức, tính công bằng và tính nghiêm ngặt khoa học, đảm bảo AI phù hợp với việc chăm sóc lấy bệnh nhân làm trung tâm và sự phức tạp trong quá trình ra quyết định của ICU.

ai trong icu

Hầu hết các mô hình AI được phát triển bên ngoài cộng đồng y khoa, tạo ra sự không phù hợp với đạo đức lâm sàng. Để giải quyết vấn đề này, các tác giả đề xuất các hội đồng đa ngành, bao gồm bác sĩ lâm sàng, bệnh nhân, chuyên gia đạo đức và chuyên gia công nghệ, xem xét một cách có hệ thống hành vi AI trong chăm sóc tích cực, đánh giá rủi ro thiên vị và thúc đẩy tính minh bạch. Cách tiếp cận này đặt sự phát triển của AI như một cơ hội để thúc đẩy các nguyên tắc đạo đức trong chăm sóc bệnh nhân.

Để tích hợp AI vào chăm sóc tích cực, điều cần thiết là phải hiểu và thiết kế giao diện người-AI để bổ sung cho lập luận lâm sàng. Nghiên cứu nên tập trung vào cách bác sĩ lâm sàng tương tác với AI, tránh phụ thuộc quá mức hoặc ảnh hưởng không mong muốn đến kết quả đầu ra của AI. Việc nhấn mạnh vào việc tăng cường tương tác người-AI, trong đó AI nâng cao chứ không thay thế hiệu suất của bác sĩ lâm sàng, là một điểm khởi đầu thiết thực. Các công cụ như bảng điều khiển thời gian thực, có thể diễn giải được, có thể tổng hợp dữ liệu phức tạp thành hình ảnh trực quan rõ ràng, cải thiện nhận thức tình huống mà không gây quá tải cho bác sĩ lâm sàng và hỗ trợ việc sử dụng AI hiệu quả trong thực hành lâm sàng.

Tác động của AI đối với chăm sóc sức khỏe đòi hỏi các bác sĩ lâm sàng phải trang bị kiến thức nền tảng về khoa học dữ liệu, các khái niệm, phương pháp và hạn chế của AI, ngay từ chương trình đào tạo y khoa bậc đại học. Việc đưa những chủ đề này vào chương trình giảng dạy cốt lõi sẽ cho phép các bác sĩ lâm sàng đánh giá AI một cách phê phán, xác định các thành kiến và đưa ra quyết định sáng suốt, đồng thời mở ra những con đường sự nghiệp mới trong lĩnh vực AI và phân tích dữ liệu. 

Ngoài đào tạo đại học, việc đào tạo liên tục cho bác sĩ, điều dưỡng và các chuyên gia y tế liên quan là rất cần thiết. AI cũng có thể hỗ trợ đào tạo cá nhân hóa, thích ứng bằng các công cụ như chatbot và hệ thống gia sư thông minh để điều chỉnh chương trình đào tạo trong cả lĩnh vực lâm sàng và chuyên ngành AI, giúp nhân viên y tế chuẩn bị cho việc sử dụng AI một cách có trách nhiệm trong thực hành. 

Sự không chắc chắn vốn có trong quá trình ra quyết định lâm sàng, nhưng AI lại tạo ra những bất định mới, đặc biệt là khi các mô hình hoạt động như những "hộp đen" mờ đục, có thể làm suy yếu niềm tin của bác sĩ lâm sàng. AI có thể giải thích (XAI) giúp các dự đoán dễ hiểu hơn, nhưng chỉ khả năng giải thích thôi là chưa đủ. Để xây dựng niềm tin và đẩy nhanh việc áp dụng, các bác sĩ nên được đào tạo để diễn giải kết quả AI trong điều kiện không chắc chắn, đánh giá tính hợp lý, tính nhất quán với sinh học và sự phù hợp với lý luận lâm sàng, thay vì kỳ vọng khả năng giải thích hoàn toàn.

Cơ sở hạ tầng then chốt cho AI trong chăm sóc tích cực đòi hỏi đầu tư để cải thiện kết quả điều trị, hiệu quả và giảm chi phí cho bệnh nhân. Quyền sở hữu dữ liệu nên thuộc về các cơ sở y tế, công nhận bệnh nhân và nhà cung cấp là các bên liên quan được hưởng lợi từ giá trị dữ liệu của họ. Nếu không có các biện pháp bảo vệ, dữ liệu lâm sàng có nguy cơ trở thành tài sản độc quyền của các công ty tư nhân, và các công ty này có thể bán lại dữ liệu cho các cơ sở y tế thay vì sử dụng nó để cải thiện chất lượng chăm sóc.

Việc chuẩn hóa thu thập dữ liệu là rất quan trọng để tạo ra các mô hình AI có khả năng tái tạo và tổng quát hóa, đồng thời đảm bảo khả năng tương tác giữa các trung tâm. Dữ liệu chăm sóc đặc biệt đến từ nhiều nguồn khác nhau, hồ sơ sức khỏe điện tử (EHR), hình ảnh và ghi chú lâm sàng phi cấu trúc, vốn rất phức tạp do sự khác biệt về định dạng, chất lượng và chính sách địa phương. Các bệnh viện, nhà sản xuất thiết bị và nhà cung cấp hồ sơ sức khỏe điện tử (EHR) phải áp dụng các tiêu chuẩn này để ngăn chặn các rào cản tương tác. Ngoài ra, AI có thể hỗ trợ chuẩn hóa dữ liệu bằng cách tự động dán nhãn, theo dõi nguồn gốc và hài hòa các định dạng, cải thiện độ tin cậy và khả năng mở rộng của các ứng dụng AI.

Nghiên cứu AI trong chăm sóc đặc biệt cần đáp ứng các tiêu chuẩn phương pháp nghiêm ngặt tương tự như các nghiên cứu y khoa khác, với trách nhiệm giải trình cao hơn từ các nhà phê bình và tạp chí để đảm bảo tính minh bạch, nghiêm ngặt và tính phù hợp lâm sàng. AI có thể nâng cao các thử nghiệm lâm sàng ngẫu nhiên (RCT) bằng cách cho phép lựa chọn nhóm bệnh nhân chính xác, cải thiện hiệu quả thử nghiệm và giải quyết tính không đồng nhất của quần thể, vốn thường hạn chế các thử nghiệm chăm sóc đặc biệt.

Nghiên cứu AI về chăm sóc đặc biệt nên áp dụng các tiêu chuẩn này, bao gồm các thử nghiệm đã đăng ký trước, xác nhận triển vọng trên nhiều nhóm dân số ICU khác nhau và các tiêu chuẩn hiệu suất chuẩn hóa, để đảm bảo hiệu quả lâm sàng, khả năng tái tạo và tích hợp an toàn vào thực tế.

Quy định về AI vẫn là một thách thức lớn đối với việc sử dụng lâm sàng trong chăm sóc đặc biệt do tính phức tạp của việc quản trị, giám sát và đánh giá hiệu suất trong nhiều bối cảnh khác nhau. Đạo luật AI của EU phân loại AI y tế là rủi ro cao, áp đặt các yêu cầu nghiêm ngặt về tính minh bạch, giám sát của con người và giám sát sau khi đưa ra thị trường. Mặc dù các quy định này cung cấp nền tảng, AI chăm sóc đặc biệt cần được giám sát chuyên biệt. Quản trị hiệu quả cần kết hợp các nỗ lực của cơ quan quản lý, chuyên môn và thể chế để tạo ra các chính sách khả thi, cân bằng giữa đổi mới và an toàn cho bệnh nhân.

Việc phát triển các mô hình AI quy mô lớn đòi hỏi nguồn lực đáng kể, vì vậy các bác sĩ và cơ quan quản lý nên khuyến khích hợp tác giữa các cơ sở chăm sóc sức khỏe, các công ty công nghệ và chính phủ. Các hiệp hội chuyên môn và cơ quan quản lý như SCCM, ESICM và EMA phải xây dựng các hướng dẫn AI lâm sàng bao gồm xác nhận, hợp tác giữa bác sĩ lâm sàng và trách nhiệm giải trình. Quản trị nên minh bạch, đa ngành và hoạt động ở cấp quốc gia và siêu quốc gia. Quy định nên mang tính thích ứng và dựa trên rủi ro, nhấn mạnh việc giám sát liên tục thay vì các biện pháp kiểm soát cứng nhắc trước khi đưa ra thị trường. Việc báo cáo hiệu suất AI bắt buộc và thành lập các ủy ban an toàn AI tại bệnh viện có thể giúp đảm bảo độ tin cậy và an toàn của AI lâm sàng.

Việc áp dụng AI rất khác nhau giữa các khu vực do sự khác biệt về khả năng tiếp cận công nghệ, đầu tư và ưu tiên, tạo ra "khoảng cách AI" có nguy cơ làm trầm trọng thêm bất bình đẳng xã hội và kinh tế. Ủy ban EU đặt mục tiêu phối hợp các chiến lược để thu hẹp khoảng cách này bằng cách hỗ trợ đào tạo, cơ sở hạ tầng và các hướng dẫn chung. Liên Hợp Quốc cũng khuyến nghị giáo dục, hợp tác và phân bổ nguồn lực AI công bằng. Cộng đồng y tế nên vận động trên phạm vi quốc gia và quốc tế, thông qua các tổ chức và hiệp hội như WHO, để thúc đẩy hợp tác, chính sách dữ liệu chuẩn hóa và các khoản tài trợ có mục tiêu nhằm thúc đẩy khả năng tiếp cận và cơ sở hạ tầng AI công bằng trên toàn thế giới.

Các quy định hiện hành chưa đề cập đầy đủ đến các mô hình AI động trong chăm sóc đặc biệt, vốn liên tục phát triển cùng với dữ liệu mới. Không giống như các phê duyệt tĩnh của FDA, Đạo luật AI của EU yêu cầu đánh giá rủi ro liên tục và giám sát sau khi đưa ra thị trường đối với các hệ thống AI có rủi ro cao. Việc giám sát theo thời gian thực này, bao gồm kiểm toán, xác thực, báo cáo sự cố và phát hiện sai lệch, nên được áp dụng trên toàn cầu để quản lý rủi ro AI trong các khoa ICU. Các công ty phải duy trì giám sát liên tục và báo cáo kịp thời các sự cố nghiêm trọng.

Việc triển khai AI trong các bối cảnh lâm sàng phức tạp như ICU đòi hỏi quy định đầy đủ tập trung vào ba khía cạnh chính: (1) đánh giá nghiêm ngặt về tính an toàn và hiệu quả của AI trước khi sử dụng; (2) đánh giá hậu mãi liên tục bắt buộc, tương tự như các thiết bị y tế khác; và (3) khuôn khổ trách nhiệm rõ ràng để xác định trách nhiệm giải trình và đảm bảo phạm vi bảo hiểm phù hợp nếu xảy ra tổn hại liên quan đến AI. Các cơ quan quản lý nên cập nhật luật pháp cho phù hợp, và bệnh nhân cũng như bác sĩ lâm sàng nên ủng hộ những cải tiến về quy định này để hỗ trợ tích hợp AI an toàn và giảm thiểu rủi ro pháp lý.


Tin mới hơn:
Tin cũ hơn:

You are here Tin tức Y học thường thức Trí tuệ nhân tạo trong y học chăm sóc đặc biệt