Connect with us

Pemimpin pemikiran

LLM yang Tidak Terkendali dan Konundrum Kepatuhan Kesehatan

mm

Di seluruh industri, kecerdasan buatan generatif (GenAI) telah mencapai kemajuan pesat dalam waktu yang relatif singkat. Kemajuan ini didorong oleh model dasar, yang Laporan California tentang Kebijakan AI Frontier mendefinisikan sebagai, “sebuah kelas teknologi tujuan umum yang intensif sumber daya untuk diproduksi, memerlukan sejumlah besar data dan komputasi untuk menghasilkan kemampuan yang dapat memuat berbagai aplikasi AI hilir.”

Model bahasa besar umum (LLM) ini, seperti Gemini dan ChatGPT, menunjukkan kekuatan yang semakin besar untuk mereplikasi dan melebihi kemampuan kognitif manusia di bidang seperti analisis data, penulisan, dan penalaran. Dalam kesehatan secara khusus, adopsi GenAI meningkat karena para klinisi dan profesional kesehatan lainnya melihat teknologi ini untuk mengurangi beban administratif, mempercepat operasi, dan bahkan mendukung pengambilan keputusan klinis.

Namun, sementara teknologi ini menawarkan janji besar, adopsi GenAI di kesehatan juga menimbulkan risiko kepatuhan yang signifikan jika tidak diimplementasikan atau digunakan secara bertanggung jawab. Terutama, penggunaan LLM tujuan umum ini menyebabkan kekhawatiran kepatuhan khusus yang harus dipahami secara menyeluruh oleh organisasi kesehatan untuk mencegah pelanggaran privasi atau keamanan. Model ini mungkin bergantung pada sumber data yang tidak diverifikasi, menggunakan informasi kesehatan pasien dengan cara yang tidak sah, atau memperkuat bias dan/atau informasi yang tidak akurat.

Untuk mempertahankan privasi data pasien, tetap mematuhi peraturan yang berkembang, dan meminimalkan risiko yang mahal, para pemimpin kesehatan harus mengambil pendekatan yang tegas untuk menetralkan “bom waktu” kepatuhan yang “tidak terkendali” dari penggunaan LLM.

Keadaan Saat Ini Penggunaan LLM Tujuan Umum di Kesehatan

Di seluruh kesehatan, staf semakin menggunakan LLM untuk mendukung tugas sehari-hari, dari pekerjaan administratif hingga komunikasi pasien. LLM multimodal juga memperluas aplikasi ini dengan kemampuan mereka untuk dengan mudah memproses teks, gambar, dan audio. Selain dukungan administratif, kita juga melihat peningkatan penyedia yang berpaling ke teknologi ini untuk mendukung tidak hanya pekerjaan klerikal, tetapi juga tugas klinis.

Model ini sudah menunjukkan apa yang mungkin dianggap hasil yang mengesankan, dengan beberapa studi menunjukkan bahwa kinerja LLM memenuhi atau bahkan melebihi kemampuan manusia di bidang tertentu. Misalnya, model GPT-4 lulus Ujian Lisensi Medis Amerika Serikat dengan skor keseluruhan 86,7%.

AI hibrida adalah pendekatan lain yang muncul dalam penggunaan GenAI di kesehatan yang menggabungkan pembelajaran mesin (ML) dan LLM untuk menangani analisis kompleks dan menerjemahkan hasil menjadi bahasa sederhana. Dengan mengintegrasikan kedua model, pendekatan ini berusaha untuk mengatasi kelemahan LLM, termasuk halusinasi, ketidakakuratan, dan bias, sambil memanfaatkan kekuatannya. AI agen juga meningkat dalam adopsi karena kemampuannya untuk mengotomatisasi tugas kunci tanpa input manusia, seperti merespons pesan pasien atau menjadwalkan janji temu.

Namun, potensi AI juga menyoroti kebutuhan mendesak untuk tata kelola yang lebih proaktif. Semakin tertanamnya alat ini dalam operasi kesehatan, semakin tinggi taruhannya untuk memastikan akurasi, keamanan, dan kepatuhan.

Risiko Kepatuhan LLM Tujuan Umum di Kesehatan

Sementara adopsi digital di kesehatan telah membuka kemungkinan baru, ini juga telah memaparkan kerentanan kunci. Antara 1 November 2023, dan 31 Oktober 2024, misalnya, sektor kesehatan mengalami 1.710 insiden keamanan, 1.542 di antaranya melibatkan pengungkapan data yang dikonfirmasi.

Era AI memperdalam retakan ini, menambahkan lapisan kompleksitas baru pada privasi dan keamanan data. Lebih khusus, penggunaan LLM tujuan umum di kesehatan menimbulkan beberapa risiko kepatuhan kunci:

Risiko #1: Pengembangan Opaque-box Mencegah Pemantauan atau Verifikasi Terus-Menerus

Model tertutup kekurangan transparansi tentang proses pengembangannya, seperti data spesifik yang digunakan untuk melatih model atau bagaimana pembaruan dilakukan. Kekaburan ini mencegah pengembang dan peneliti untuk menyelidiki model untuk menentukan asal risiko keamanan atau memahami proses pengambilan keputusan. Sebagai hasilnya, LLM tertutup dapat memungkinkan penggunaan sumber data medis yang tidak diverifikasi dan membiarkan kerentanan keamanan tidak tercek.

Risiko #2: Kebocoran Data Pasien

LLM tidak selalu bergantung pada data pasien yang tidak diidentifikasi. Prompt atau interaksi khusus bisa tidak sengaja mengungkapkan informasi kesehatan yang dapat diidentifikasi, menciptakan potensi pelanggaran HIPAA.

Risiko #3: Perpetuasi Bias dan Informasi yang Tidak Akurat

Dalam satu eksperimen, peneliti menyuntikkan persentase kecil fakta yang salah ke dalam salah satu kategori basis pengetahuan model biomedis, sambil mempertahankan perilakunya di semua domain lain. Peneliti menemukan bahwa informasi yang salah disebarkan ke seluruh output model, menyoroti kerentanan LLM terhadap serangan informasi yang salah.

Setiap cacat yang ditemukan dalam model dasar diwarisi oleh semua model yang diadopsi dan aplikasi yang dihasilkan dari induk. Perbedaan dalam output mungkin memperburuk ketidaksetaraan kesehatan, seperti saran yang tidak akurat untuk kelompok yang kurang terwakili.

Risiko #4: Ketidaksesuaian Regulasi

Penggunaan LLM tujuan umum mungkin tidak mematuhi HIPAA, GDPR, atau peraturan AI khusus yang berkembang, terutama jika vendor tidak dapat memvalidasi data pelatihan. Risiko ini diperburuk oleh karyawan organisasi kesehatan yang menggunakan alat AI yang tidak disetujui atau tidak dipantau, atau AI bayangan. Menurut IBM, 20% dari organisasi yang disurvei di semua sektor mengalami pelanggaran keamanan karena insiden keamanan yang melibatkan AI bayangan.

Pada akhirnya, risiko LLM tujuan umum di kesehatan memiliki implikasi dunia nyata, termasuk tindakan hukum, kerusakan reputasi, kehilangan kepercayaan pasien, dan biaya litigasi.

Praktik Terbaik: Pedoman dan Pertimbangan LLM

Untuk mengadopsi GenAI secara bertanggung jawab, para pemimpin kesehatan harus menetapkan batasan yang jelas yang melindungi pasien dan organisasi. Praktik terbaik berikut dapat membantu organisasi kesehatan membangun fondasi untuk penggunaan AI yang bertanggung jawab dan patuh:

Praktik Terbaik #1: Pilih Teknologi AI dengan Bijak

Tuntut kejelasan dari vendor tentang bagaimana teknologi AI dikembangkan dan apa sumber data yang digunakan dalam proses pengembangan. Prioritaskan alat yang menggunakan hanya konten medis yang diverifikasi oleh ahli, memiliki proses pengambilan keputusan yang transparan, dan menghindari pelatihan model pada informasi kesehatan pasien.

Praktik Terbaik #2: Bangun Pengawasan Berbasis Manusia

Pastikan para klinisi meninjau semua output yang dihasilkan AI yang dapat mempengaruhi keputusan perawatan. AI dapat menjadi alat yang kuat, tetapi dalam industri yang memiliki dampak langsung pada kehidupan pasien, pengawasan klinis adalah kunci untuk memastikan penggunaan yang bertanggung jawab dan akurasi informasi yang dibantu AI.

Praktik Terbaik #3: Pelatihan & Kesiapan Tenaga Kerja

Edukasi para klinisi dan staf tentang manfaat dan risiko penggunaan AI untuk mengurangi adopsi AI bayangan. Staf kesehatan menghadapi pekerjaan yang kompleks, terbebani oleh kekurangan staf, dan tingkat kelelahan yang tinggi. Mempermudah proses pendidikan AI membantu memastikan kepatuhan tanpa menambah beban kerja mereka.

Praktik Terbaik #4: Tetapkan Budaya Tata Kelola

Integrasikan evaluasi pihak ketiga dari solusi AI untuk memverifikasi keamanan, keandalan, dan kepatuhan. Bersamaan, implementasikan kerangka kerja yang jelas dan menyeluruh untuk pengawasan AI di seluruh organisasi yang mendefinisikan persetujuan, penggunaan, dan pemantauan untuk lebih meningkatkan kepercayaan pada teknologi dan mencegah staf menggunakan alat yang tidak sah.

Praktik Terbaik #5: Sesuaikan dengan Kepemimpinan pada Pengawasan AI

Kolaborasi dengan kepemimpinan untuk tetap mendahului peraturan yang berkembang, serta pedoman dari FDA dan ONC. Upaya regulasi muncul di tingkat negara bagian. Misalnya, California mengeluarkan Undang-Undang Transparansi AI Frontier, yang menekankan pengungkapan risiko, transparansi, dan mitigasi, terutama di lingkungan kesehatan, dan ada juga Undang-Undang AI Buatan Colorado (CAIA), yang dirancang untuk mencegah diskriminasi algoritmik.

Praktik Terbaik #6: Pemantauan Terus-Menerus & Umpan Balik

Penggunaan AI dalam lingkungan kesehatan tidak boleh dianggap dengan pendekatan “setel dan lupakan”. Membangun kerangka untuk pemantauan terus-menerus dapat membantu memastikan akurasi alat AI, memperkuat akuntabilitas, dan mempertahankan kepatuhan seiring waktu.

Praktik Terbaik #7: Cari Kemitraan untuk Mengoptimalkan Pengawasan dan Penelitian

Organisasi kesehatan harus memanfaatkan kemitraan dengan regulator dan sektor publik untuk memaksimalkan pengawasan, menyumbangkan perspektif industri mereka ke standar keamanan, dan menggabungkan sumber daya ahli.

Membangun Kepercayaan Melalui Kepemimpinan Kepatuhan

Pembeda solusi AI di kesehatan akan semakin bergantung pada kualitas konten ahli, integritas proses evaluasi, dan integrasi yang bertanggung jawab ke dalam alur kerja klinis. Fase berikutnya dari adopsi AI akan bergantung lebih sedikit pada kode dan lebih banyak pada kepemimpinan kepatuhan.

Kepercayaan sama pentingnya dengan kepatuhan itu sendiri. Agar teknologi ini benar-benar efektif, pasien dan penyedia harus percaya bahwa AI aman dan sejalan dengan perawatan yang berkualitas tinggi dan etis. Kepemimpinan kepatuhan adalah keunggulan strategis, bukan hanya tindakan pertahanan. Organisasi yang proaktif yang menetapkan batasan awal, sebelum insiden berbahaya terjadi, akan membedakan diri mereka dalam masa depan kesehatan yang ditenagai AI.

Alex Tyrrell saat ini memimpin rekayasa produk untuk Divisi Kesehatan di Wolters Kluwer dan menjabat sebagai CTO divisi, serta memimpin Pusat Keunggulan AI dan Data, yang mengarahkan inovasi dan adopsi teknologi lanjutan di seluruh perusahaan.