Lãnh đạo tư tưởng
Các Mô Hình LLM Chưa Được Kiểm Soát và Nghiệm Vấn Tuân Thủ Y Tế

Trong các ngành công nghiệp, trí tuệ nhân tạo sinh (GenAI) đã đạt được những đột phá nhanh chóng trong một khoảng thời gian tương đối ngắn. Những tiến bộ này được thúc đẩy bởi các mô hình nền tảng, mà Báo Cáo California về Chính Sách Trí Tuệ Nhân Tạo Frontier định nghĩa là, “một lớp công nghệ đa dụng đòi hỏi nhiều tài nguyên để sản xuất, cần một lượng lớn dữ liệu và tính toán để tạo ra các khả năng có thể cung cấp năng lượng cho nhiều ứng dụng trí tuệ nhân tạo cấp thấp.”
Những mô hình ngôn ngữ lớn (LLM) đa dụng này, như Gemini và ChatGPT, đang thể hiện sức mạnh ngày càng tăng để sao chép và vượt qua khả năng nhận thức của con người trong các lĩnh vực như phân tích dữ liệu, viết lách và lý luận. Trong lĩnh vực y tế cụ thể, việc áp dụng GenAI đang tăng lên khi các nhà lâm sàng và các chuyên gia y tế khác nhìn vào công nghệ để giảm gánh nặng hành chính, tăng tốc hoạt động và thậm chí hỗ trợ việc ra quyết định lâm sàng.
Tuy nhiên, trong khi công nghệ mang lại nhiều hứa hẹn, việc áp dụng GenAI trong y tế cũng đặt ra những rủi ro tuân thủ quan trọng nếu không được thực hiện hoặc sử dụng một cách có trách nhiệm. Đặc biệt, việc sử dụng các LLM đa dụng đi kèm với những lo ngại tuân thủ cụ thể mà các tổ chức y tế phải hiểu rõ để ngăn chặn việc vi phạm quyền riêng tư hoặc bảo mật. Những mô hình này có thể dựa trên các nguồn dữ liệu không được xác minh, sử dụng thông tin sức khỏe của bệnh nhân theo những cách không được ủy quyền hoặc lan truyền thông tin sai lệch và/hoặc không chính xác.
Để duy trì quyền riêng tư của dữ liệu bệnh nhân, tuân thủ các quy định đang phát triển và giảm thiểu các rủi ro tốn kém, các nhà lãnh đạo y tế phải có cách tiếp cận quyết đoán để vô hiệu hóa “bom thời gian” tuân thủ của việc sử dụng LLM “chưa được kiểm soát”.
Tình Hình Hiện Tại Của Việc Sử Dụng LLM Đa Dụng Trong Y Tế
Trong toàn bộ lĩnh vực y tế, nhân viên đang ngày càng tận dụng LLM để hỗ trợ các nhiệm vụ hàng ngày, từ công việc hành chính đến giao tiếp với bệnh nhân. LLM đa phương thức cũng mở rộng thêm về các ứng dụng này với khả năng xử lý dễ dàng văn bản, hình ảnh và âm thanh. Ngoài hỗ trợ hành chính, chúng tôi cũng đang chứng kiến sự tăng lên của các nhà cung cấp dịch vụ y tế chuyển sang công nghệ để hỗ trợ không chỉ công việc văn phòng mà còn các nhiệm vụ lâm sàng.
Những mô hình này đã chứng minh những kết quả ấn tượng, với một số nghiên cứu cho thấy hiệu suất của LLM đáp ứng hoặc thậm chí vượt qua khả năng của con người trong các lĩnh vực cụ thể. Ví dụ, mô hình GPT-4 đã vượt qua Kỳ thi cấp phép Y khoa Hoa Kỳ với điểm tổng thể là 86,7%.
Trí tuệ nhân tạo lai là một cách tiếp cận mới nổi trong việc sử dụng GenAI trong y tế, kết hợp học máy (ML) và LLM để xử lý phân tích phức tạp và dịch kết quả thành ngôn ngữ đơn giản. Bằng cách tích hợp cả hai mô hình, cách tiếp cận này nhằm vượt qua những hạn chế của LLM, bao gồm ảo giác, không chính xác và thiên vị, đồng thời tận dụng điểm mạnh của nó. Trí tuệ nhân tạo đại lý cũng đang tăng lên về việc áp dụng do khả năng tự động hóa các nhiệm vụ quan trọng mà không cần đầu vào của con người, chẳng hạn như trả lời tin nhắn của bệnh nhân hoặc sắp xếp cuộc hẹn.
Tuy nhiên, tiềm năng của AI cũng nhấn mạnh nhu cầu cấp thiết về quản trị chủ động hơn. Khi những công cụ này trở nên tích hợp sâu vào hoạt động y tế, mức độ rủi ro đối với việc đảm bảo độ chính xác, an toàn và tuân thủ sẽ tăng lên.
Rủi Ro Tuân Thủ Của LLM Đa Dụng Trong Y Tế
Mặc dù việc áp dụng kỹ thuật số trong y tế đã mở ra nhiều khả năng mới, nhưng nó cũng暴 lộ những điểm yếu quan trọng. Giữa ngày 1 tháng 11 năm 2023 và ngày 31 tháng 10 năm 2024, ví dụ, lĩnh vực y tế đã trải qua 1.710 sự cố bảo mật, trong đó 1.542 sự cố liên quan đến việc tiết lộ dữ liệu được xác nhận.
Thời đại AI làm sâu sắc thêm những vết nứt này, thêm một lớp phức tạp mới vào quyền riêng tư và bảo mật dữ liệu. Cụ thể hơn, việc sử dụng LLM đa dụng trong y tế evokes một số rủi ro tuân thủ quan trọng:
Rủi Ro #1: Phát Triển Opaque-Box Ngăn Chặn Giám Sát Hoặc Xác Minh Liên Tục
Các mô hình đóng thiếu minh bạch về quá trình phát triển của chúng, chẳng hạn như dữ liệu cụ thể mà mô hình được đào tạo trên hoặc cách cập nhật được thực hiện. Sự không minh bạch này ngăn cản các nhà phát triển và nhà nghiên cứu đào sâu vào mô hình để xác định nguồn gốc của các rủi ro an toàn hoặc phân biệt quá trình ra quyết định. Do đó, các LLM đóng có thể cho phép sử dụng các nguồn dữ liệu y tế không được xác minh và cho phép các điểm yếu an toàn không được kiểm tra.
Rủi Ro #2: Rò Rỉ Dữ Liệu Bệnh Nhân
LLM không luôn dựa trên dữ liệu bệnh nhân không được xác định. Các lời nhắc chuyên dụng hoặc tương tác có thể tiết lộ vô tình thông tin sức khỏe có thể xác định, tạo ra các vi phạm HIPAA tiềm năng.
Rủi Ro #3: Lan Truyền Thiên Vị Và Thông Tin Không Chính Xác
Trong một thí nghiệm, các nhà nghiên cứu đã tiêm một tỷ lệ nhỏ các sự kiện không chính xác vào một thể loại của cơ sở kiến thức của mô hình sinh học, trong khi vẫn giữ nguyên hành vi của nó trong tất cả các lĩnh vực khác. Các nhà nghiên cứu đã tìm thấy rằng thông tin sai lệch được lan truyền trên toàn bộ đầu ra của mô hình, làm nổi bật sự dễ bị tổn thương của LLM trước các cuộc tấn công thông tin sai lệch.
Bất kỳ khiếm khuyết nào được tìm thấy trong các mô hình nền tảng đều được kế thừa bởi tất cả các mô hình được áp dụng và các ứng dụng kết quả từ mô hình cha. Sự khác biệt trong đầu ra có thể làm trầm trọng thêm sự bất bình đẳng về sức khỏe, chẳng hạn như tư vấn không chính xác cho các nhóm bị đại diện thấp.
Rủi Ro #4: Không Đồng Bộ Quy Định
Việc sử dụng LLM đa dụng có thể không tuân thủ HIPAA, GDPR hoặc các quy định cụ thể về AI đang phát triển, đặc biệt nếu các nhà cung cấp không thể xác thực dữ liệu đào tạo. Những rủi ro này được khuếch đại bởi việc nhân viên của các tổ chức y tế sử dụng các công cụ AI không được phê duyệt hoặc không được giám sát, hoặc AI bóng tối. Theo IBM, 20% số tổ chức được khảo sát trên tất cả các lĩnh vực đã trải qua một sự vi phạm do các sự kiện bảo mật liên quan đến AI bóng tối.
Cuối cùng, rủi ro của LLM đa dụng trong y tế có những ý nghĩa thực tế, bao gồm hành động pháp lý, thiệt hại về danh tiếng, mất niềm tin của bệnh nhân và chi phí kiện tụng.
Thực Tiễn Tốt Nhất: Hướng Dẫn LLM Và Xem Xét
Để áp dụng GenAI một cách có trách nhiệm, các nhà lãnh đạo y tế phải thiết lập các rào cản rõ ràng để bảo vệ cả bệnh nhân và tổ chức. Các thực tiễn tốt nhất sau đây có thể giúp các tổ chức y tế thiết lập nền tảng cho việc sử dụng AI có trách nhiệm và tuân thủ:
Thực Tiễn Tốt Nhất #1: Chọn Công Nghệ AI Khôn Ngoan
Yêu cầu sự rõ ràng từ các nhà cung cấp về cách công nghệ AI được phát triển và các nguồn dữ liệu được sử dụng trong quá trình phát triển. Ưu tiên các công cụ tận dụng chỉ nội dung y tế được chuyên gia xác minh, có quá trình ra quyết định minh bạch và tránh đào tạo mô hình trên thông tin sức khỏe của bệnh nhân.
Thực Tiễn Tốt Nhất #2: Xây Dựng Bảo Vệ Con Người Trong Quá Trình
Đảm bảo các nhà lâm sàng xem xét bất kỳ đầu ra nào được tạo bởi AI có thể ảnh hưởng đến quyết định chăm sóc. AI có thể là một công cụ mạnh mẽ, nhưng trong một ngành có tác động trực tiếp đến cuộc sống của bệnh nhân, sự giám sát lâm sàng là chìa khóa để đảm bảo sử dụng có trách nhiệm và độ chính xác của bất kỳ thông tin nào được hỗ trợ bởi AI.
Thực Tiễn Tốt Nhất #3: Đào Tạo & Sự Sẵn Sàng Của Lực Lượng Lao Động
Giáo dục các nhà lâm sàng và nhân viên về cả lợi ích và rủi ro của việc sử dụng AI để giảm việc áp dụng AI bóng tối. Nhân viên y tế đang điều hướng một lực lượng lao động phức tạp, bị căng thẳng bởi tình trạng thiếu nhân viên và tỷ lệ kiệt sức cao. Việc đơn giản hóa quá trình giáo dục AI giúp đảm bảo tuân thủ mà không thêm gánh nặng cho công việc của họ.
Thực Tiễn Tốt Nhất #4: Thiết Lập Văn Hóa Quản Lý
Tích hợp đánh giá của bên thứ ba về các giải pháp AI để xác minh an toàn, độ tin cậy và tuân thủ. Đồng thời, thực hiện một khuôn khổ rõ ràng, toàn tổ chức cho giám sát AI mà định nghĩa sự phê duyệt, sử dụng và giám sát để tăng cường niềm tin vào công nghệ và ngăn nhân viên chuyển sang các công cụ không được ủy quyền.
Thực Tiễn Tốt Nhất #5: Đồng Bộ Hóa Với Lãnh Đạo Về Quản Lý AI
Hợp tác với lãnh đạo để ở phía trước của các quy định đang phát triển, cũng như hướng dẫn từ FDA và ONC. Các nỗ lực quy định đang xuất hiện ở cấp tiểu bang. Ví dụ, California đã thiết lập Đạo Luật Minh Bạch Trí Tuệ Nhân Tạo Frontier, nhấn mạnh việc tiết lộ rủi ro, minh bạch và giảm thiểu, đặc biệt là trong các môi trường y tế, và cũng có Đạo Luật Trí Tuệ Nhân Tạo Colorado (CAIA), được thiết kế để ngăn chặn sự phân biệt đối xử của thuật toán.
Thực Tiễn Tốt Nhất #6: Giám Sát Liên Tục & Các Vòng Lặp Phản Hồi
Việc sử dụng AI trong môi trường y tế không bao giờ nên được tiếp cận với tư duy “cài đặt và quên”. Thiết lập một khuôn khổ cho việc giám sát liên tục có thể giúp đảm bảo độ chính xác của các công cụ AI, tăng cường trách nhiệm và duy trì tuân thủ theo thời gian.
Thực Tiễn Tốt Nhất #7: Theo Đuổi Các Đối Tác Để Tối Ưu Hóa Giám Sát Và Nghiên Cứu
Các tổ chức y tế nên tận dụng các quan hệ đối tác với các cơ quan quản lý và khu vực công để tối đa hóa giám sát, đóng góp quan điểm ngành vào các tiêu chuẩn an toàn và kết hợp các nguồn lực chuyên gia.
Xây Dựng Niềm Tin Thông Qua Lãnh Đạo Tuân Thủ
Sự khác biệt của các giải pháp AI trong y tế sẽ ngày càng phụ thuộc vào chất lượng của nội dung chuyên gia, tính toàn vẹn của các quá trình đánh giá và tích hợp có trách nhiệm vào các quy trình lâm sàng. Giai đoạn tiếp theo của việc áp dụng AI sẽ phụ thuộc ít hơn vào mã và nhiều hơn vào lãnh đạo tuân thủ.
Niềm tin là quan trọng không kém so với tuân thủ. Để công nghệ thực sự có hiệu quả, bệnh nhân và nhà cung cấp phải tin rằng AI là an toàn và phù hợp với chăm sóc chất lượng cao và đạo đức. Lãnh đạo tuân thủ là một lợi thế chiến lược, không chỉ là một biện pháp phòng thủ. Các tổ chức tiên phong thiết lập các rào cản sớm, trước khi các sự kiện có hại xảy ra, sẽ khác biệt hóa mình trong tương lai y tế được hỗ trợ bởi AI.












