заглушки Хто відповідальний за невдачу штучного інтелекту охорони здоров’я? - Об'єднуйтесь.AI
Зв'язатися з нами

Здоров'я

Хто відповідальний за невдачу штучного інтелекту охорони здоров’я?

mm

опублікований

 on

Хто несе відповідальність, коли помилки штучного інтелекту в охороні здоров’я спричиняють нещасні випадки, травми чи щось гірше? Залежно від ситуації це може бути розробник ШІ, медичний працівник або навіть пацієнт. Відповідальність стає все більш складною та серйозною проблемою, оскільки ШІ стає все більш поширеним у сфері охорони здоров’я. Хто відповідальний за те, що ШІ пішов не так, і як можна запобігти нещасним випадкам?

Ризик помилок ШІ в охороні здоров’я

Існує багато дивовижних переваг ШІ в охороні здоров’я, від підвищеної точності до швидшого часу відновлення. ШІ допомагає лікарям встановлювати діагнози, проводити операції та надавати своїм пацієнтам найкращий догляд. На жаль, помилки ШІ завжди можливі.

В охороні здоров’я існує широкий спектр сценаріїв, коли штучний інтелект пішов не так. Лікарі та пацієнти можуть використовувати штучний інтелект виключно як інструмент прийняття рішень на основі програмного забезпечення або штучний інтелект може бути мозком фізичних пристроїв, таких як роботи. Обидві категорії мають свої ризики.

Наприклад, що станеться, якщо операційний робот на основі ШІ вийде з ладу під час процедури? Це може спричинити серйозні травми або потенційно навіть вбити пацієнта. Подібним чином, що, якщо алгоритм діагностики ліків рекомендує пацієнту неправильні ліки, і у нього виникає негативний побічний ефект? Навіть якщо ліки не завдають шкоди пацієнту, неправильний діагноз може затримати належне лікування.

В основі таких помилок ШІ лежить природа самих моделей ШІ. Більшість штучного інтелекту сьогодні використовує логіку «чорного ящика», тобто ніхто не може бачити, як алгоритм приймає рішення. Чорному ящику ШІ бракує прозорості, що призводить до таких ризиків, як логічне упередження, дискримінація та неточні результати. На жаль, важко виявити ці фактори ризику, поки вони вже не спричинили проблеми.

ШІ пішов не так: хто винен?

Що станеться, якщо під час медичної процедури на основі штучного інтелекту станеться нещасний випадок? Імовірність того, що штучний інтелект пішов не так, певною мірою завжди буде мати місце. Якщо хтось постраждає чи гірше, чи винен ШІ? Не обов'язково.

Коли винний розробник ШІ

Важливо пам’ятати, що ШІ – це не що інше, як комп’ютерна програма. Це дуже просунута комп’ютерна програма, але це все ще код, як і будь-яке інше програмне забезпечення. Оскільки штучний інтелект не є розумним або незалежним, як людина, він не може нести відповідальність за нещасні випадки. ШІ не може звернутися до суду або бути засудженим до в'язниці.

За помилки штучного інтелекту в охороні здоров’я, швидше за все, відповідає розробник штучного інтелекту або медичний працівник, який стежить за процедурою. Хто з винних у ДТП, залежить від випадку до випадку.

Наприклад, розробник, ймовірно, буде винен, якщо упередженість даних призведе до того, що штучний інтелект прийме несправедливі, неточні або дискримінаційні рішення чи ставиться до нього. Розробник відповідає за те, щоб штучний інтелект працював згідно з обіцянками та надавав усім пацієнтам найкраще лікування. Якщо штучний інтелект працює несправно через недбалість, недогляд або помилки з боку розробника, лікар не несе відповідальності.

Коли винен лікар або лікар

Однак все ще можливо, що лікар або навіть пацієнт можуть нести відповідальність за те, що штучний інтелект пішов не так. Наприклад, розробник може зробити все правильно, дати лікарю докладні інструкції та окреслити всі можливі ризики. Коли приходить час процедури, лікар може бути розсіяним, втомленим, забудькуватим або просто недбалим.

Опитування показують понад 40% лікарів відчувати виснаження на роботі, що може призвести до неуважності, сповільнених рефлексів і поганої пам’яті. Якщо лікар не враховує їхні власні фізичні та психологічні потреби, і їхній стан спричиняє нещасний випадок, це є провиною лікаря.

Залежно від обставин роботодавця лікаря можна зрештою звинуватити в помилках ШІ в охороні здоров’я. Наприклад, що, якщо керівник лікарні погрожує відмовити лікарю в підвищенні, якщо він не погодиться працювати понаднормово? Це змушує їх перевтомлюватися, що призводить до вигорання. Роботодавець лікаря, ймовірно, нестиме відповідальність у такій унікальній ситуації. 

Коли винен пацієнт

Що робити, якщо і розробник штучного інтелекту, і лікар все зроблять правильно? Коли пацієнт самостійно використовує інструмент штучного інтелекту, нещасний випадок може бути його виною. ШІ пішов не так не завжди через технічну помилку. Це також може бути результатом неправильного або неправильного використання.

Наприклад, можливо, лікар детально пояснює своєму пацієнту інструмент штучного інтелекту, але він ігнорує інструкції з техніки безпеки або вводить неправильні дані. Якщо це недбале або неналежне використання призвело до нещасного випадку, у цьому винен пацієнт. У цьому випадку вони несли відповідальність за правильне використання ШІ або надання точних даних, але нехтували цим.

Навіть коли пацієнти знають про свої медичні потреби, вони можуть не виконувати вказівки лікаря з різних причин. Наприклад, 24% американців приймають ліки за рецептом повідомляють про труднощі з оплатою своїх ліків. Пацієнт може пропустити ліки або збрехати штучному інтелекту щодо прийому, тому що він соромиться, що не може заплатити за рецепт.

Якщо неправильне використання пацієнтом було спричинене відсутністю вказівок з боку лікаря або розробника штучного інтелекту, провина може бути в іншому місці. Зрештою, це залежить від того, де сталася коренева аварія чи помилка.

Правила та потенційні рішення

Чи є спосіб запобігти помилкам ШІ в охороні здоров’я? Хоча жодна медична процедура не є повністю безпечною, існують способи мінімізувати ймовірність несприятливих результатів.

Положення про використання штучного інтелекту в охороні здоров’я можуть захистити пацієнтів від інструментів і процедур на основі високого ризику. FDA вже має нормативна база для медичних пристроїв ШІ, що викладає вимоги до тестування та безпеки, а також процес перевірки. У найближчі роки провідні організації з медичного нагляду також можуть втрутитися, щоб регулювати використання даних пацієнтів за допомогою алгоритмів ШІ.

Окрім суворих, обґрунтованих і ретельних правил, розробники повинні вжити заходів для запобігання сценаріям, пов’язаним зі штучним інтелектом. Пояснюваний ШІ — також відомий як штучний інтелект білого ящика — може вирішити проблеми прозорості та упередженості даних. Пояснювані моделі штучного інтелекту – це нові алгоритми, які дозволяють розробникам і користувачам отримувати доступ до логіки моделі.

Коли розробники штучного інтелекту, лікарі та пацієнти можуть бачити, як штучний інтелект приходить до своїх висновків, набагато легше визначити зміщення даних. Лікарі також можуть швидше виявляти фактичні неточності або відсутню інформацію. Використовуючи зрозумілий штучний інтелект замість чорного ящика, розробники та постачальники медичних послуг можуть підвищити надійність і ефективність медичного штучного інтелекту.

Безпечний та ефективний штучний інтелект у сфері охорони здоров’я

Штучний інтелект може робити дивовижні речі в галузі медицини, потенційно навіть рятуючи життя. З штучним інтелектом завжди буде певна невизначеність, але розробники та медичні організації можуть вжити заходів, щоб мінімізувати ці ризики. Коли в охороні здоров’я трапляються помилки штучного інтелекту, юридичні консультанти, швидше за все, визначать відповідальність на основі основної помилки аварії.