Connect with us

Kesehatan

Memastikan Keamanan yang Kuat untuk AI Otonom di Bidang Kesehatan

mm

Perang yang sedang berkecamuk melawan pelanggaran data memposkan tantangan yang semakin meningkat bagi organisasi kesehatan di seluruh dunia. Menurut statistik saat ini, biaya rata-rata pelanggaran data sekarang mencapai $4.45 juta di seluruh dunia, sebuah angka yang lebih dari dua kali lipat menjadi $9,48 juta untuk penyedia layanan kesehatan yang melayani pasien di Amerika Serikat. Menambah pada masalah yang sudah menakutkan ini adalah fenomena modern proliferasi data antar- dan intra-organisasi. Sebuah kekhawatiran 40% pelanggaran yang diungkapkan melibatkan informasi yang tersebar di beberapa lingkungan, sangat memperluas permukaan serangan dan menawarkan banyak jalur masuk bagi penyerang.

Pertumbuhan otonomi AI generatif membawa era perubahan radikal. Oleh karena itu, bersamaan dengan itu datanglah ancaman keamanan tambahan yang mendesak karena agen pintar canggih ini bergerak keluar dari teori ke penerapan di beberapa domain, seperti sektor kesehatan. Memahami dan mengurangi ancaman baru ini sangat penting untuk meningkatkan AI secara bertanggung jawab dan meningkatkan ketahanan organisasi terhadap serangan siber dari semua jenis, baik karena ancaman perangkat lunak berbahaya, pelanggaran data, atau bahkan serangan rantai pasokan yang terkoordinasi dengan baik.

Ketahanan pada tahap desain dan implementasi

Organisasi harus mengadopsi strategi pertahanan proaktif yang komprehensif dan evolusioner untuk mengatasi risiko keamanan yang meningkat karena AI, terutama di bidang kesehatan, di mana taruhan melibatkan kesejahteraan pasien serta kepatuhan terhadap langkah-langkah regulasi.

Ini memerlukan pendekatan sistematis dan rinci, dimulai dengan pengembangan dan desain sistem AI, dan berlanjut ke penerapan besar-besaran sistem ini.

  • Langkah pertama dan paling kritis yang harus dilakukan organisasi adalah memetakan dan memodelkan ancaman seluruh pipa AI mereka, dari penggunaan data hingga pelatihan model, validasi, penerapan, dan inferensi. Langkah ini memfasilitasi identifikasi presisi semua titik eksposur dan kerentanan potensial dengan granularitas risiko berdasarkan dampak dan kemungkinan.
  • Kedua, penting untuk menciptakan arsitektur yang aman untuk penerapan sistem dan aplikasi yang menggunakan model bahasa besar (LLM), termasuk yang dengan kemampuan Agentic AI. Ini melibatkan pertimbangan hati-hati berbagai langkah, seperti keamanan wadah, desain API yang aman, dan penanganan dataset pelatihan yang sensitif.
  • Ketiga, organisasi perlu memahami dan menerapkan rekomendasi dari berbagai standar/bingkai. Misalnya, patuhi pedoman yang ditetapkan oleh NIST’s Kerangka Manajemen Risiko AI untuk identifikasi dan mitigasi risiko yang komprehensif. Mereka juga bisa mempertimbangkan saran OWASP tentang kerentanan unik yang diperkenalkan oleh aplikasi LLM, seperti injeksi prompt dan penanganan output yang tidak aman.
  • Lebih lanjut, teknik pemodelan ancaman klasik juga perlu berkembang untuk mengelola serangan unik dan rumit yang dihasilkan oleh Gen AI, termasuk serangan peracunan data yang mengancam integritas model dan potensi menghasilkan konten yang sensitif, bias, atau diproduksi secara tidak tepat dalam output AI.
  • Terakhir, bahkan setelah penerapan, organisasi akan perlu tetap waspada dengan melakukan manuver red-teaming teratur dan audit keamanan AI khusus yang secara khusus menargetkan sumber seperti bias, kekuatan, dan kejelasan untuk terus menemukan dan mengurangi kerentanan dalam sistem AI.

Penting untuk dicatat, dasar pembuatan sistem AI yang kuat di bidang kesehatan adalah untuk secara fundamental melindungi seluruh siklus hidup AI, dari penciptaan hingga penerapan, dengan pemahaman yang jelas tentang ancaman baru dan kepatuhan terhadap prinsip keamanan yang mapan.

Langkah-langkah selama siklus hidup operasional

Selain desain dan penerapan yang aman awal, posisi keamanan AI yang kuat memerlukan perhatian yang teliti dan pertahanan aktif di seluruh siklus hidup AI. Ini memerlukan pemantauan konten yang terus-menerus, dengan menggunakan pengawasan AI yang dipandu untuk mendeteksi output yang sensitif atau berbahaya segera, sambil mematuhi kebijakan pelepasan informasi dan izin pengguna. Selama pengembangan model dan di lingkungan produksi, organisasi akan perlu secara aktif memindai malware, kerentanan, dan aktivitas musuh pada saat yang sama. Ini semua, tentu saja, merupakan pelengkap dari langkah-langkah keamanan siber tradisional.

Untuk mendorong kepercayaan pengguna dan meningkatkan interpretasi keputusan AI, sangat penting untuk menggunakan Explainable AI (XAI) alat untuk memahami rasio dasar untuk output dan prediksi AI.

Kontrol dan keamanan yang ditingkatkan juga difasilitasi melalui penemuan data otomatis dan klasifikasi data pintar dengan pengklasifikasi yang berubah secara dinamis, yang memberikan pandangan kritis dan mutakhir tentang lingkungan data yang terus berubah. Inisiatif ini berasal dari keharusan untuk menerapkan kontrol keamanan yang kuat seperti metode kontrol akses berbasis peran yang halus (RBAC), kerangka kerja enkripsi ujung-ke-ujung untuk melindungi informasi dalam transaksi dan istirahat, dan teknik pemaskaran data yang efektif untuk menyembunyikan data sensitif.

Pelatihan kesadaran keamanan yang menyeluruh oleh semua pengguna bisnis yang menangani sistem AI juga sangat penting, karena hal ini membangun “tembok api” manusia yang kritis untuk mendeteksi dan menetralkan serangan teknik sosial dan ancaman AI lainnya.

Mengamankan Masa Depan AI Agentic

Dasar ketahanan yang berkelanjutan dalam menghadapi ancaman keamanan AI yang berkembang terletak pada metode multi-dimensi dan terus-menerus yang diusulkan untuk memantau, memindai, menjelaskan, mengklasifikasikan, dan mengamankan sistem AI dengan ketat. Ini, tentu saja, merupakan tambahan untuk membangun budaya keamanan yang berorientasi pada manusia serta kontrol keamanan siber tradisional yang matang. Ketika agen AI otonom diintegrasikan ke dalam proses organisasi, kebutuhan akan kontrol keamanan yang kuat meningkat. Kenyataan saat ini adalah pelanggaran data di awan publik memang terjadi dan biayanya rata-rata $5,17 juta, sangat menekankan ancaman terhadap keuangan organisasi serta reputasi.

Selain inovasi revolusioner, masa depan AI bergantung pada pengembangan ketahanan dengan dasar keamanan yang tertanam, kerangka operasional terbuka, dan prosedur tata kelola yang ketat. Membangun kepercayaan pada agen pintar ini pada akhirnya akan menentukan seberapa luas dan berkelanjutan mereka akan diterima, membentuk jalur transformasi potensial AI.

Vipin Varma adalah Wakil Presiden Senior dan Kepala Praktik Keamanan Siber di CitiusTech. Dengan lebih dari 35 tahun pengalaman di bidang keamanan siber dan domain ICT yang lebih luas, Vipin membawa keahlian yang mendalam dan kepemimpinan strategis untuk mengarahkan transformasi digital yang aman dan tangguh di seluruh ekosistem kesehatan. Sebelum CitiusTech, Vipin memimpin bisnis keamanan siber untuk klien ilmu hayat, kesehatan, energi, dan utilitas global di Tata Consultancy Services, di mana ia menghabiskan lebih dari 12 tahun untuk membentuk strategi keamanan siber di industri yang diatur. Sebelum memasuki sektor korporat, ia melayani lebih dari 23 tahun di Angkatan Darat India, di mana ia memegang peran kunci termasuk memimpin unit dalam operasi kontra-pemberontakan aktif, memimpin IT dan komunikasi untuk misi perdamaian PBB di Sudan, dan mengelola program teknologi yang kompleks.