Connect with us

рд╕реНрд╡рд╛рд╕реНрдереНрдп рд╕реЗрд╡рд╛ рдореЗрдВ рдХреГрддреНрд░рд┐рдо рдмреБрджреНрдзрд┐рдорддреНрддрд╛ рдХреА рдЬрд┐рдореНрдореЗрджрд╛рд░реА рдХреА рд╕рдорд╕реНрдпрд╛

рд╡рд┐рдЪрд╛рд░ рдиреЗрддрд╛

рд╕реНрд╡рд╛рд╕реНрдереНрдп рд╕реЗрд╡рд╛ рдореЗрдВ рдХреГрддреНрд░рд┐рдо рдмреБрджреНрдзрд┐рдорддреНрддрд╛ рдХреА рдЬрд┐рдореНрдореЗрджрд╛рд░реА рдХреА рд╕рдорд╕реНрдпрд╛

mm

स्वास्थ्य सेवा में, कृत्रिम बुद्धिमत्ता अब नैदानिक निर्णयों से लेकर मानव संसाधन और वित्त तक सब कुछ में निहित है। फिर भी, कई संगठनों में अभी भी जोखिम प्रबंधन प्रतिनिधित्व की कमी है जो यह सुनिश्चित करे कि कृत्रिम बुद्धिमत्ता उपकरण नुकसान पहुंचाने वाले निर्णय न लें। संरचित पर्यवेक्षण की अनुपस्थिति का अर्थ है कि कृत्रिम बुद्धिमत्ता से संबंधित निर्णय स्पष्ट जिम्मेदारी के बिना लिए जाते हैं, जिससे संगठन नैतिक और नियामक उल्लंघनों के जोखिम के लिए खुले हो जाते हैं।

जब कोई व्यक्ति कृत्रिम बुद्धिमत्ता द्वारा लिए गए निर्णयों और कार्यों के लिए जिम्मेदार नहीं होता है, तो अंधे धब्बे तेजी से बढ़ जाते हैं। कृत्रिम बुद्धिमत्ता प्रणाली द्वारा उच्च जोखिम वाले निर्णय लेने के परिणाम कई और व्यापक हैं, विशेष रूप से जब लोगों की जान दांव पर होती है।

आज के कृत्रिम बुद्धिमत्ता शासन के अंतराल पहले के उन बिंदुओं की तरह दिखते हैं जहां प्रौद्योगिकी की वक्र उद्यम की तुलना में तेजी से बढ़ी। हमने इसे क्लाउड कंप्यूटिंग के साथ देखा है: टीमें सास, आईएएएस और “शैडो आईटी” को अपनाती हैं ताकि वे तेजी से आगे बढ़ सकें, जबकि शासन मूल बातों जैसे डेटा वर्गीकरण, पहचान और पहुंच प्रबंधन, विक्रेता पर्यवेक्षण, लॉगिंग/निगरानी, और साझा जिम्मेदारी स्पष्टता पर पिछड़ जाता है – इसलिए जिम्मेदारी आईटी, सुरक्षा, क्रय, और व्यवसाय में बिखर जाती है। हमने इसे आईटी और मोबाइल/बायओडी के तेजी से उपभोक्ता करण में भी देखा है, जहां कर्मचारी नए उपकरणों और ऐप्स को नियंत्रित वातावरण में ले आते हैं जब तक कि संगठनों के पास एन्क्रिप्शन, एंडपॉइंट नियंत्रण, ऐप वेटिंग, और ई-डिस्कवरी के लिए परिपक्व नीतियां नहीं होती हैं। प्रत्येक मामले में, अपनाया जाना तर्कसंगत और अक्सर मूल्य-सृजन था – लेकिन स्पष्ट स्वामित्व, मानक नियंत्रण, और जीवन चक्र पर्यवेक्षण की अनुपस्थिति ने पredictable विफलताओं का कारण बना। कृत्रिम बुद्धिमत्ता के लिए सबक सीधा है: शासन को नवाचार पर एक बाद के विचार के रूप में नहीं माना जा सकता है; इसे अन्य महत्वपूर्ण बुनियादी ढांचे की तरह बनाया जाना चाहिए – जानबूझकर, परिभाषित निर्णय अधिकार, निरंतर निगरानी, और लागू करने योग्य गार्डरेल के साथ।

विकृत जिम्मेदारी की समस्या

कृत्रिम बुद्धिमत्ता की तेजी से तैनाती ने शासन और जिम्मेदारी मानकों के विकास को पीछे छोड़ दिया है, जिससे एक “विकृत जिम्मेदारी” का अंतराल बन गया है जहां कृत्रिम बुद्धिमत्ता विफल होने पर कोई एक इकाई जिम्मेदारी स्वीकार नहीं करती है।

दायित्व पहले से ही स्वास्थ्य सेवा में एक सर्वव्यापी मुद्दा है, और कृत्रिम बुद्धिमत्ता ने केवल नए चुनौतियां पेश की हैं। कृत्रिम बुद्धिमत्ता उपकरणों की कोई मान्यता प्राप्त कानूनी पहचान नहीं है, जिसका अर्थ है कि उन्हें मुकदमा नहीं चलाया जा सकता है या उनके खिलाफ बीमा नहीं किया जा सकता है, न ही वे पीड़ितों को कानूनी मुआवजा दे सकते हैं। कानूनी कार्यवाही में, दोष को एक मानव अभिनेता या निगम पर स्थानांतरित किया जाना चाहिए, एक उपकरण पर नहीं।

लैंसेट, एक प्रमुख चिकित्सा अनुसंधान पत्रिका में शोधकर्ताओं ने हाल ही में तर्क दिया कि “संस्थागत दायित्व संरचनाओं को चिकित्सकों से उन संगठनों पर दायित्व स्थानांतरित करना चाहिए जो [कृत्रिम बुद्धिमत्ता] उपकरण डिजाइन और तैनात करते हैं।” यह स्पष्ट है कि दायित्व के आसपास के ऐसे प्रश्न भविष्य में बने रहेंगे।

यूरोपीय संघ क्षेत्रीय स्तर पर इन मुद्दों को संबोधित करने का प्रयास कर रहा है। ब्लॉक ने दो प्रमुख विधायी साधन पेश किए हैं: कृत्रिम बुद्धिमत्ता अधिनियम, जो जोखिम की डिग्री द्वारा कृत्रिम बुद्धिमत्ता के उपयोग को नियंत्रित करता है और मानव पर्यवेक्षण के संरक्षण पर जोर देता है; और कृत्रिम बुद्धिमत्ता दायित्व निर्देश, जो कृत्रिम बुद्धिमत्ता द्वारा किए गए नुकसान के लिए मुआवजा मांगने के लिए लोगों के लिए नए नियम स्थापित करता है।

लेकिन नियमन अकेले समस्या का समाधान नहीं करेगा। अस्पताल विक्रेताओं, चिकित्सकों, प्रशासकों और आईटी टीमों के जटिल जाल में काम करते हैं, इसलिए जब एक कृत्रिम बुद्धिमत्ता प्रणाली एक हानिकारक या पूर्वाग्रही आउटपुट उत्पन्न करती है, तो जिम्मेदारी हस्तांतरण की जाती है: विक्रेता अनुचित उपयोग की ओर इशारा कर सकता है, चिकित्सक डिजाइन में खामी की बात कह सकते हैं, और नेतृत्व नियामक अस्पष्टता को दोष दे सकता है।

यह सब जिम्मेदारी को विकृत करता है, जिससे अस्पताल बड़े कानूनी संघर्षों के लिए कमजोर हो जाते हैं।

शासन के अंतराल को बंद करने के व्यावहारिक कदम

सुखद समाचार यह है कि व्यापक नियमन के बिना, स्वास्थ्य सेवा संगठन कृत्रिम बुद्धिमत्ता शासन में अंतराल को बंद करने के लिए सक्रिय रूप से काम कर सकते हैं। शुरू करने के लिए, नेता विश्व स्वास्थ्य संगठन की रिपोर्ट, “स्वास्थ्य के लिए कृत्रिम बुद्धिमत्ता के नैतिकता और शासन,” के साथ शुरू कर सकते हैं, जो कृत्रिम बुद्धिमत्ता के वादे को अधिकतम करने और जोखिम को कम करने का प्रयास करती है।

इस रिपोर्ट में रेखांकित कदम स्वायत्तता की रक्षा करने, मानव कल्याण और सार्वजनिक सुरक्षा को बढ़ावा देने, पारदर्शिता और व्याख्या सुनिश्चित करने, और जिम्मेदारी और जवाबदेही को बढ़ावा देने का लक्ष्य रखते हैं। शासन के अंतराल को संबोधित करने के लिए, आइए बाद के दो बिंदुओं पर ध्यान केंद्रित करें।

एक एकीकृत दृष्टिकोण को कृत्रिम बुद्धिमत्ता शासन में लागू करें, यह सुनिश्चित करने के लिए कि यह शीर्ष से निर्देशित है – बोर्ड या विशेषज्ञों द्वारा। वर्तमान में, कई संगठन विभागों को कृत्रिम बुद्धिमत्ता का उपयोग करने देते हैं जहां वे इसे देखते हैं, जिससे नेताओं को यह समझने में असमर्थता होती है कि संगठन इन उपकरणों का उपयोग कहां और क्यों कर रहा है। दृश्यता महत्वपूर्ण है, इसलिए सुनिश्चित करें कि आपके पास यह सूची है कि कौन से उपकरण किस उद्देश्य से और किस उद्देश्य से उपयोग किए जा रहे हैं।

यह भी महत्वपूर्ण है कि कृत्रिम बुद्धिमत्ता जीवन चक्र में स्पष्ट जिम्मेदारी रेखाएं स्थापित की जाएं। इसका अर्थ है कि प्रोक्योरमेंट और सत्यापन से लेकर तैनाती, निगरानी, और घटना प्रतिक्रिया तक हर चीज के लिए एक व्यक्ति या विभाग जिम्मेदार है। अस्पतालों को विक्रेताओं को परिभाषित पारदर्शिता और लेखा परीक्षा मानकों को पूरा करने की आवश्यकता है, और यह सुनिश्चित करने के लिए कि आंतरिक टीमें कृत्रिम बुद्धिमत्ता प्रणालियों की क्षमताओं और सीमाओं को समझने के लिए प्रशिक्षित हैं।

अंत में, शासन को संचालित किया जाना चाहिए, न कि केवल दस्तावेज़ किया जाना चाहिए। नीतियों को कार्य प्रवाह में एम्बेड करें – प्रोक्योरमेंट प्रक्रियाओं में कृत्रिम बुद्धिमत्ता जोखिम मूल्यांकन एकीकृत करें, कृत्रिम बुद्धिमत्ता प्रदर्शन की नियमित ऑडिट करें, और मुख्य कर्मचारियों के लिए चिंताओं की रिपोर्ट करने के लिए तंत्र बनाएं।

व्यवहार में, शासन के अंतराल को बंद करना नए सिद्धांतों को पेश करने के बारे में कम है और अनुशासन को लागू करने के बारे में अधिक है: संगठन में कृत्रिम बुद्धिमत्ता के प्रवेश को मानकीकृत करें, प्रत्येक चरण में इसका स्वामित्व परिभाषित करें, और सुनिश्चित करें कि इसके प्रदर्शन की निरंतर निगरानी की जाती है। उस अनुशासन के बिना, कृत्रिम बुद्धिमत्ता उपकरण सुरक्षित रखने के लिए डिज़ाइन की गई संरचनाओं से आगे निकलते रहेंगे।

छिपा हुआ जोखिम: डेटा गुणवत्ता

यहां तक कि जब जिम्मेदारी संरचनाएं स्थापित होती हैं, तो एक और जोखिम अक्सर कम आंका जाता है: कृत्रिम बुद्धिमत्ता प्रणालियों को खिलाने वाले डेटा की अखंडता और वे समय के साथ कैसे विकसित होते हैं। कोई भी कृत्रिम बुद्धिमत्ता प्रणाली केवल उतनी ही विश्वसनीय है जितना डेटा इसे प्रशिक्षित करता है और निरंतर सीखता है, और अस्पताल डेटा वातावरण प्रसिद्ध रूप से खंडित, असंगत, और अंतराल से ग्रस्त हैं।

इलेक्ट्रॉनिक स्वास्थ्य रिकॉर्ड, इमेजिंग सिस्टम, और प्रशासनिक प्लेटफ़ॉर्म अक्सर सिलोस में काम करते हैं, जो सीधे कृत्रिम बुद्धिमत्ता आउटपुट को प्रभावित कर सकते हैं। एक मॉडल जो अधूरे या पूर्वाग्रही डेटासेट पर प्रशिक्षित होता है, वह दोषपूर्ण सिफारिशें प्रदान कर सकता है जो तब तक अनदेखे रह सकते हैं जब तक कि नुकसान हो चुका होता है। यह नैदानिक सेटिंग्स में विशेष रूप से खतरनाक है, जहां सटीकता में छोटे विचलन महत्वपूर्ण परिणामों में तब्दील हो सकते हैं।

इस मुद्दे को जोड़कर ” मॉडल ड्रिफ्ट” है: कृत्रिम बुद्धिमत्ता मॉडल की प्रवृत्ति जो निर्देशों और संदर्भ से विचलित हो जाती है क्योंकि अधिक डेटा प्रणाली में प्रवेश करता है। जब रोगी आबादी विकसित होती है, नए उपचार प्रोटोकॉल पेश किए जाते हैं, और बाहरी कारक संचालन को प्रभावित करते हैं, तो कृत्रिम बुद्धिमत्ता उपकरणों के आधारभूत धारणाएं बदल सकती हैं। निरंतर निगरानी और पुनः-प्रशिक्षण के बिना, एक कृत्रिम बुद्धिमत्ता प्रणाली जो पहले विश्वसनीय रूप से प्रदर्शन करती थी, वह निर्देशों से विचलित हो सकती है और अपने प्रशिक्षण से विचलित हो सकती है।

मॉडल ड्रिफ्ट को संबोधित करने के लिए, अस्पतालों को कृत्रिम बुद्धिमत्ता प्रणालियों को गतिशील, उच्च जोखिम वाले संपत्ति के रूप में मानना चाहिए, स्थिर उपकरण के रूप में नहीं। इसका अर्थ है निरंतर प्रदर्शन निगरानी को लागू करना, स्वीकार्य सटीकता के लिए स्पष्ट सीमा निर्धारित करना, और पुनः-प्रशिक्षण और सत्यापन के लिए स्वामित्व परिभाषित करना। डेटा शासन को भी मजबूत किया जाना चाहिए, डेटा गुणवत्ता, इंटरऑपरेबिलिटी, और पूर्वाग्रह का पता लगाने के लिए मानक अभ्यास के साथ।

डेटा गुणवत्ता और मॉडल ड्रिफ्ट से जुड़े जोखिमों का सामना किए बिना, यहां तक कि सबसे अच्छे कृत्रिम बुद्धिमत्ता शासन ढांचे भी कम पड़ जाएंगे। स्वास्थ्य सेवा कृत्रिम बुद्धिमत्ता प्रणालियों के लिए, जो केवल डेटा के रूप में अच्छी हैं जो उन्हें आधार बनाती हैं, इस जोखिम की परत को अनदेखा करना जल्दी या बाद में एक प्रणालीगत विफलता की संभावना पैदा करता है।

इसे सही करें इससे पहले कि आप इसे चलाएं

कृत्रिम बुद्धिमत्ता स्वास्थ्य सेवा में दक्षता, सटीकता, और रोगी परिणामों में सुधार करके क्रांति ला सकती है। लेकिन जोखिमों की स्पष्ट मालिकी के बिना, वह потен्षियल जल्दी से एक दायित्व बन सकता है।

अस्पताल कृत्रिम बुद्धिमत्ता शासन को एक अनुपालन अभ्यास के रूप में मानने का जोखिम नहीं उठा सकते हैं। इसे एक मुख्य संचालन प्राथमिकता के रूप में माना जाना चाहिए: स्वामित्व परिभाषित करें, पर्यवेक्षण संरचना बनाएं, और निरंतर मूल्यांकन करें। क्योंकि स्वास्थ्य सेवा में, जब कुछ गलत हो जाता है, तो परिणाम दोषी की तुलना में बहुत खराब हो सकते हैं।

рдПрд░реЛрд▓ рд╡реЗрдИрд╕ 2019 рдореЗрдВ рд╣реЗрд▓реНрде-рдЖрдИрдПрд╕рдПрд╕реА рдореЗрдВ рдЕрдкрдиреЗ рдкрд╣рд▓реЗ рдореБрдЦреНрдп рд╕реБрд░рдХреНрд╖рд╛ рдЕрдзрд┐рдХрд╛рд░реА рдХреЗ рд░реВрдк рдореЗрдВ рд╢рд╛рдорд┐рд▓ рд╣реБрдП рдФрд░ рдСрд░рд▓реИрдВрдбреЛ, рдлреНрд▓реЛрд░рд┐рдбрд╛ рдореЗрдВ рдореБрдЦреНрдпрд╛рд▓рдп рд╡рд╛рд▓реЗ рдПрдХ рдЦрддрд░рд╛ рд╕рдВрдЪрд╛рд▓рди рдХреЗрдВрджреНрд░ рдмрдирд╛рдпрд╛, рдЬреЛ рдЖрдИрдЯреА рдФрд░ рдЗрдВрдлреЛрд╕реЗрдХ рдкреЗрд╢реЗрд╡рд░реЛрдВ рдХреЗ рд▓рд┐рдП рдЕрд░реНрдердкреВрд░реНрдг рдФрд░ рдХрд╛рд░реНрд░рд╡рд╛рдИ рдпреЛрдЧреНрдп рдЦрддрд░рд╛ рдЦреБрдлрд┐рдпрд╛ рдЬрд╛рдирдХрд╛рд░реА рдкреНрд░рджрд╛рди рдХрд░рддрд╛ рд╣реИред рд╕реНрд╡рд╛рд╕реНрдереНрдп рд╕реЗрд╡рд╛ рдХреНрд╖реЗрддреНрд░ рдореЗрдВред

рдПрд░реЛрд▓ рдХреЗ рдкрд╛рд╕ рд╕реВрдЪрдирд╛ рд╕реБрд░рдХреНрд╖рд╛ рдореЗрдВ 25 рд╡рд░реНрд╖ рд╕реЗ рдЕрдзрд┐рдХ рдХрд╛ рдЕрдиреБрднрд╡ рд╣реИ, рдЬрд┐рд╕рдореЗрдВ рдЙрдиреНрд╣реЛрдВрдиреЗ рдЕрдкрдирд╛ рдХрд░рд┐рдпрд░ рд░рд╛рд╖реНрдЯреНрд░реАрдп рд╕реБрд░рдХреНрд╖рд╛ рдПрдЬреЗрдВрд╕реА (рдПрдирдПрд╕рдП) рдХреЗ рд╕рд╛рде рд╡рд░реНрдЧреАрдХреГрдд рдиреЗрдЯрд╡рд░реНрдХ рдХреЗ рдкреНрд░рд╡реЗрд╢ рдкрд░реАрдХреНрд╖рдг рдХрд░рдиреЗ рдХреЗ рд╕рд╛рде рд╢реБрд░реВ рдХрд┐рдпрд╛ рдерд╛ред рдЙрдиреНрд╣реЛрдВрдиреЗ рд╕рд┐рдЯреАрдЧреНрд░реБрдк рдХреЗ рд╡реИрд╢реНрд╡рд┐рдХ рд╕рд╛рдЗрдмрд░ рдЗрдВрдЯреЗрд▓рд┐рдЬреЗрдВрд╕ рд╕реЗрдВрдЯрд░ рдмрдирд╛рдпрд╛ рдФрд░ рдмреИрдВрдХ рдСрдл рдЕрдореЗрд░рд┐рдХрд╛ рдХреА рд╡реИрд╢реНрд╡рд┐рдХ рд╕реВрдЪрдирд╛ рд╕реБрд░рдХреНрд╖рд╛ рдЯреАрдо рдХреЗ рд╕рд╛рде рдПрдХ рд╡рд░рд┐рд╖реНрда рдЙрдкрд╛рдзреНрдпрдХреНрд╖ рдХрд╛рд░реНрдпрдХрд╛рд░реА рдереЗред