Охорона здоров’я
Коли уникнути штучного інтелекту в галузі охорони здоров’я
Коли будь-який новий технологічний прорив робить свій шлях до галузі, існує спокуса назвати цю нову іграшку панамбралом для всіх проблем галузі. Штучний інтелект в галузі охорони здоров’я – це великий приклад. Коли технологія продовжує розвиватися, вона була прийнята для використання в таких випадках, як розробка ліків, координація лікування та відшкодування, щоб назвати кілька. Існує велика кількість легітимних випадків використання штучного інтелекту в галузі охорони здоров’я, де технологія значно краща за будь-яку іншу доступну альтернативу.
Однак, штучний інтелект – як він існує сьогодні – добре виконує лише певні завдання, наприклад, розуміння великих масивів даних та прийняття рішень на основі чітко визначених правил. Інші ситуації, особливо ті, де додатковий контекст є важливим для прийняття правильного рішення, не підходять для штучного інтелекту. Давайте розглянемо кілька прикладів.
Відмова в кламах та лікуванні
Чи то стосується кламу, чи лікування, відмови – це складні рішення, і вони занадто важливі, щоб їх приймав штучний інтелект самостійно. Коли відбувається відмова в кламі або лікуванні, існує очевидна моральна вимога зробити це з найбільшою обережністю, і на основі можливостей штучного інтелекту сьогодні, це вимагає людського втручання.
Поза моральною складовою, плани охорони здоров’я піддають себе ризику, коли вони надто сильно покладаються на штучний інтелект для прийняття рішень щодо відмов. Плани можуть, і піддаються, судовим позовам за використання штучного інтелекту неправильно для відмови в кламах, з судовими позовами, які звинувачують плани в тому, що вони не відповідають мінімальним вимогам для лікарського огляду, оскільки штучний інтелект був використаний замість цього.
Довіра до попередніх рішень
Довіра до штучного інтелекту для прийняття рішень лише на основі того, як він приймав попередні рішення, має очевидний недолік: одна неправильна рішення з минулого буде впливати на інші. Плюс, оскільки правила політики, які інформують штучний інтелект, часто розподілені по системах або неусавно кодифіковані людьми, системи штучного інтелекту можуть закінчитися прийняттям та подальшим поширенням неточного розуміння цих політик. Щоб уникнути цього, організації повинні створити єдиний джерело істини політики, так що штучний інтелект може посилатися та вивчати надійний набір даних.
Будівництво на основі спадкових систем
Як відносно нова технологія, штучний інтелект приносить відчуття можливості, і багато команд даних охорони здоров’я поспішають скористатися цією можливістю швидко за допомогою інструментів штучного інтелекту, вже побудованих у існуючі корпоративні платформи. Проблема полягає в тому, що процеси кламів охорони здоров’я дуже складні, а корпоративні платформи часто не розуміють нюансів. Нанесення штучного інтелекту на ці спадкові платформи як універсальне рішення (яке не враховує всіх різних факторів, що впливають на адміністрування кламів) призводить до плутанини та неточності, а не створює більш ефективні процеси.
Опора на застарілі дані
Однією з найбільших переваг штучного інтелекту є те, що він стає дедалі кращим у виконанні завдань, коли вчиться, але це навчання може відбуватися лише тоді, коли існує постійний зворотній зв’язок, який допомагає штучному інтелекту зрозуміти, що він зробив неправильно, щоб він міг коригувати відповідно. Цей зворотній зв’язок не тільки повинен бути постійним, але й повинен бути заснований на чистих, точних даних. Адже штучний інтелект є тільки такою ж хорошою, як і дані, з яких він вчиться.
Коли штучний інтелект у галузі охорони здоров’я є корисним
Використання штучного інтелекту в секторі, де результати так суттєві, як охорона здоров’я, безумовно вимагає обережності, але це не означає, що немає випадків, коли штучний інтелект має сенс.
По-перше, немає нестачі даних у галузі охорони здоров’я (розгляньте, що одна особа медична картка могла б складатися з тисяч сторінок), і закономірності всередині цих даних можуть розповісти нам багато про діагностику захворювань, адміністрування кламів правильно та інше. Це саме те місце, де штучний інтелект добре виконує, шукаючи закономірності та пропонуючи дії на основі цих закономірностей, які людські оглядачі можуть продовжувати.
Іншим випадком, у якому штучний інтелект добре виконує, є каталогізація та прийняття політик та правил, які регулюють, як оплачуються клами. Генеративний штучний інтелект (GenAI) може бути використаний для перетворення цього вмісту політики з різних форматів у машинозчитуваний код, який може бути застосований послідовно до всіх пацієнтів кламів. GenAI також може бути використаний для підсумовування інформації та відображення її в легкій для читання формі для людського огляду.
Ключевим елементом через усі ці випадки використання є те, що штучний інтелект використовується як співпілот для людей, які наглядають за ним, а не керують шоу самостійно.只要 організації можуть зберігати цю ідею на увазі під час реалізації штучного інтелекту, вони будуть у позиції успіху під час цієї ери, коли охорона здоров’я трансформується штучним інтелектом.












