Охорона здоров’я
Штучний інтелект у сфері охорони здоров’я може принести ризики разом з можливостями

Штучний інтелект має величезний потенціал у сфері охорони здоров’я,能够 покращити діагностику та знайти нові, більш ефективні ліки. Однак, як недавно обговорювалося в статті Scientific American, швидкість, з якою штучний інтелект проникає в сферу охорони здоров’я, також відкриває багато нових викликів і ризиків.
За останні п’ять років Управління з контролю за продуктами та ліками США схвалило понад 40 різних продуктів штучного інтелекту. Однак, як повідомляє Scientific American, жоден з продуктів, схвалених для продажу в США, не пройшов оцінку своєї ефективності в рандомізованих контрольованих клінічних дослідженнях. Багато інструментів штучного інтелекту в медицині навіть не потребують схвалення Управління з контролю за продуктами та ліками.
Іван Тополь, автор книги “Глибока медицина: Як штучний інтелект може зробити охорону здоров’я більш людяною”, заявив Scientific American, що багато продуктів штучного інтелекту, які стверджують, що вони ефективні в завданнях, таких як діагностика захворювань, насправді були ретельно протестовані, а перше велике рандомізоване дослідження інструменту штучного інтелекту для виявлення та діагностики було проведено минулого жовтня. Крім того, дуже мало технологічних стартапів публікують свої дослідження в рецензованих журналах, де їхня робота буде проаналізована вченими.
Коли штучний інтелект належним чином протестований і контрольований, системи штучного інтелекту можуть бути потужними інструментами, які можуть допомогти медичним фахівцям виявити симптоми, які інакше могли б залишитися непоміченими, покращуючи результати лікування.
Наприклад, інструмент штучного інтелекту для виявлення діабетичної хвороби очей був протестований на сотнях пацієнтів і виявився надійним. Компанія, відповідальна за тест, працювала разом з Управлінням з контролю за продуктами та ліками протягом понад восьми років, щоб удосконалити продукт. Тест IDx-DR зараз поступово вводиться в клініки первинної медичної допомоги, де він потенційно може допомогти виявити ранні ознаки діабетичної ретинопатії та направити пацієнтів до спеціалістів з очей, якщо будуть виявлені підозрілі симптоми.
Якщо системи штучного інтелекту не будуть ретельно протестовані, вони можуть створити шкоду замість того, щоб уникнути її.
Стаття Scientific American описує одну з потенційних проблем, пов’язаних з використанням штучного інтелекту для діагностики захворювань, наводячи приклад інструменту штучного інтелекту, призначеного для аналізу рентгенограм грудної клітки та виявлення пацієнтів, які можуть розвивати пневмонію. Хоча система виявилася точною під час тестування в госпіталі Маунт-Сінай в Нью-Йорку, вона не пройшла тестування на зображеннях, зроблених в інших госпіталях. Дослідники виявили, що система штучного інтелекту розрізняла зображення, створені портативними рентгенівськими системами, та ті, що були створені в радіологічному відділенні. Лікарки використовують портативні рентгенівські системи для пацієнтів, які часто занадто хворі, щоб покинути свої ліжка, і ці пацієнти знаходяться під більшим ризиком розвитку пневмонії.
Помилкові сигнали також викликають занепокоєння. DeepMind створила мобільний додаток штучного інтелекту, який здатний передбачати гостру ниркову недостатність у госпіталізованих пацієнтів за 48 годин до цього. Однак система, як повідомляється, також давала два помилкові сигнали на кожен випадок успішного прогнозу ниркової недостатності. Помилкові позитивні результати можуть бути шкідливими, оскільки вони можуть спонукати лікарів витрачати зайвий час і ресурси на проведення додаткових тестів або зміни призначених лікування.
В іншому випадку одна система штучного інтелекту неправильно висновувала, що пацієнти, які мали пневмонію, мали більшу ймовірність виживання, якщо вони мали бронхіальну астму, що могло б спонукати лікарів змінити лікування пацієнтів з астмою.
Системи штучного інтелекту, розроблені для одного госпіталю, часто працюють гірше, коли їх використовують в іншому госпіталі. Є кілька причин цього. По-перше, системи штучного інтелекту часто тренуються на електронних медичних записах, але багато електронних медичних записів часто є неповними або неправильними, оскільки їхня основна мета часто полягає в бухгалтерському обліку, а не в догляді за пацієнтами. Наприклад, одне розслідування, проведене KHN, виявило, що іноді в медичних записах пацієнтів були життєво небезпечні помилки, такі як списки ліків, що містять неправильні ліки. Крім того, захворювання часто є більш складними, а система охорони здоров’я більш складною, ніж це можна було б очікувати від інженерів і вчених штучного інтелекту.
Когда штучний інтелект стає все більш поширеним, буде важливо, щоб розробники штучного інтелекту працювали разом з органами охорони здоров’я, щоб забезпечити, що їхні системи штучного інтелекту будуть ретельно протестовані, а регулюючі органи встановлювали та дотримувалися стандартів для надійності інструментів діагностики штучного інтелекту.












