Зв'язатися з нами

Штучний інтелект в охороні здоров’я може принести ризики разом із можливостями

Охорона здоров'я

Штучний інтелект в охороні здоров’я може принести ризики разом із можливостями

mm

ШІ має величезний потенціал у галузі охорони здоров’я, здатний покращувати діагностику та знаходити нові ефективніші ліки. однак, як частина в Scientific American Як нещодавно обговорювалося, швидкість, з якою ШІ проникає в сферу охорони здоров’я, також відкриває багато нових проблем і ризиків.

Протягом останніх п'яти років Управління з контролю за якістю харчових продуктів і медикаментів США схвалило 40 різних продуктів ШІ. Однак, як повідомляє Scientific American, жоден із продуктів, дозволених для продажу в США, не оцінювався в рандомізованих контрольованих клінічних дослідженнях. Багато медичних інструментів штучного інтелекту навіть не потребують схвалення FDA.

Еван Топол, автор книги «Глибинна медицина: як штучний інтелект може знову перетворити охорону здоров’я на людину», заявив Scientific American, що багато продуктів штучного інтелекту, які стверджують, що вони ефективні в таких завданнях, як діагностика захворювань, насправді були ретельно перевірені таким чином, минулого жовтня було проведено перше велике рандомізоване дослідження виявлення та діагностики ШІ. Крім того, дуже мало технологічних стартапів публікують свої дослідницькі статті в рецензованих журналах, де їхню роботу аналізуватимуть вчені.

При належному тестуванні та контролі системи штучного інтелекту можуть бути потужними інструментами, які можуть допомогти медичним працівникам виявляти непомічені симптоми, покращуючи результати для здоров’я.

Наприклад, інструмент штучного інтелекту для виявлення діабетичних захворювань очей був протестований на сотнях пацієнтів і, схоже, виявився надійним. Компанія, відповідальна за тест, понад вісім років співпрацювала з FDA з метою вдосконалення продукту. Тест IDx-DR вже потрапляє до клінік первинної медичної допомоги, де він потенційно може допомогти виявити ранні ознаки діабетичної ретинопатії, направляючи пацієнтів до офтальмологів у разі виявлення підозрілих симптомів.

Якщо не перевірити ретельно, системи штучного інтелекту, які медичні працівники можуть використовувати для діагностики та лікування, можуть завдати шкоди замість того, щоб її уникнути.

Стаття Scientific American детально описує одну потенційну проблему, пов’язану з використанням штучного інтелекту для діагностики захворювань, вказуючи на приклад штучного інтелекту, призначеного для аналізу рентгенівських знімків грудної клітки та визначення пацієнтів, у яких може розвинутися пневмонія. Хоча система виявилася точною під час випробувань у лікарні Маунт-Сінай у Нью-Йорку, вона виявилася невдалою під час випробувань на зображеннях, зроблених в інших лікарнях. Дослідники виявили, що ШІ розрізняє зображення, створені портативними рентгенівськими системами, від зображень, створених у відділенні радіології. Лікарі використовують портативні рентгенівські системи грудної клітини для пацієнтів, які часто хворіють, щоб вставати з ліжка, і ці пацієнти мають більший ризик розвитку пневмонії.

Помилкові тривоги також викликають занепокоєння. DeepMind створив мобільний додаток штучного інтелекту, який здатний прогнозувати гостру ниркову недостатність у госпіталізованих пацієнтів за 48 годин. Проте система як повідомляється Також зробив дві помилкові тривоги для кожної успішно прогнозованої ниркової недостатності. Хибнопозитивні результати можуть бути шкідливими, оскільки можуть спонукати лікарів витрачати непотрібний час і ресурси на призначення додаткових тестів або зміну призначеного лікування.

Під час іншого інциденту одна система штучного інтелекту неправильно дійшла висновку, що пацієнти з пневмонією мають більше шансів вижити, якщо у них була астма, що могло змусити лікарів змінити лікування пацієнтів з астмою.

Системи штучного інтелекту, розроблені для однієї лікарні, часто не працюють, коли вони використовуються в іншій лікарні. Для цього є кілька причин. По-перше, системи штучного інтелекту часто навчаються на електронних медичних записах, але багато електронних медичних записів часто є неповними або неправильними, оскільки їх основною метою часто є виставлення рахунків, а не догляд за пацієнтами. Наприклад, одне розслідування здійснюється ХН виявили, що іноді в медичних картах пацієнтів траплялися небезпечні для життя помилки, як-от списки ліків, що містять невідповідні ліки. Крім того, хвороби часто є складнішими, а система охорони здоров’я складнішою, ніж часто можуть передбачати інженери та вчені ШІ.

Оскільки штучний інтелект стає все більш плідним, розробникам штучного інтелекту буде важливо співпрацювати з органами охорони здоров’я, щоб гарантувати, що їхні системи штучного інтелекту проходять ретельне тестування, а регуляторним органам – забезпечити встановлення та дотримання стандартів для надійності інструментів діагностики штучного інтелекту.

Блогер і програміст зі спеціальностями в машинне навчання та Глибоке навчання теми. Деніел сподівається допомогти іншим використовувати силу ШІ для суспільного блага.