Свяжитесь с нами:

Использование ИИ для более здорового мира: обеспечение того, чтобы ИИ улучшал, а не подрывал уход за пациентами

Лидеры мысли

Использование ИИ для более здорового мира: обеспечение того, чтобы ИИ улучшал, а не подрывал уход за пациентами

mm

На протяжении столетий медицина формировалась под влиянием новых технологий. От стетоскопа до аппаратов МРТ инновации преобразили то, как мы диагностируем, лечим и ухаживаем за пациентами. Однако каждый шаг вперед был встречен вопросами: действительно ли эта технология будет служить пациентам? Можно ли ей доверять? И что происходит, когда эффективность ставится выше эмпатии?

Искусственный интеллект (ИИ) — это новейшая разработка в этой продолжающейся эволюции. Он обладает потенциалом для улучшения диагностики, оптимизации рабочих процессов и расширения доступа к медицинской помощи. Но ИИ не застрахован от тех же фундаментальных вопросов, которые сопровождали каждое медицинское достижение до него.

Проблема не в том, изменит ли ИИ здоровье — оно уже изменилось. Вопрос в том, улучшит ли он уход за пациентами или создаст новые риски, которые его подорвут. Ответ зависит от выбора внедрения, который мы делаем сегодня. Поскольку ИИ все больше укореняется в экосистемах здравоохранения, ответственное управление остается обязательным. Обеспечение того, чтобы ИИ улучшал, а не подрывал уход за пациентами, требует тщательного баланса между инновациями, регулированием и этическим надзором.

Решение этических дилемм в медицинских технологиях на основе искусственного интеллекта 

Правительства и регулирующие органы все больше осознают важность опережения быстрых разработок в области ИИ. Обсуждения на Конференция по вручению премии принца Махидола (PMAC) в Бангкоке подчеркнули необходимость ориентированных на результат, адаптируемых правил, которые могут развиваться вместе с новыми технологиями ИИ. Без проактивного управления существует риск того, что ИИ может усугубить существующее неравенство или ввести новые формы предвзятости в предоставлении медицинских услуг. Необходимо решить этические проблемы, связанные с прозрачностью, подотчетностью и справедливостью.

Серьезной проблемой является отсутствие понимания многих моделей ИИ, которые часто работают как «черные ящики», которые генерируют рекомендации без четких объяснений. Если врач не может полностью понять, как система ИИ приходит к диагнозу или плану лечения, следует ли ей доверять? Эта непрозрачность поднимает фундаментальные вопросы об ответственности: если решение, принятое на основе ИИ, приводит к вреду, кто несет ответственность — врач, больница или разработчик технологий? Без четкого управления глубокое доверие к здравоохранению на основе ИИ не может укорениться.

Еще одной насущной проблемой является предвзятость ИИ и проблемы конфиденциальности данных. Системы ИИ опираются на огромные наборы данных, но если эти данные неполны или нерепрезентативны, алгоритмы могут усилить существующие различия, а не уменьшить их. Рядом с этим, в здравоохранении, где данные отражают глубоко личную информацию, защита конфиденциальности имеет решающее значение. Без адекватного надзора ИИ может непреднамеренно углубить неравенство вместо того, чтобы создавать более справедливые и доступные системы.

Одним из перспективных подходов к решению этических дилемм являются регуляторные песочницы, которые позволяют тестировать технологии ИИ в контролируемых средах перед полным развертыванием. Эти фреймворки помогают совершенствовать приложения ИИ, снижать риски и укреплять доверие между заинтересованными сторонами, гарантируя, что благополучие пациентов остается главным приоритетом. Кроме того, регуляторные песочницы предоставляют возможность для непрерывного мониторинга и корректировок в реальном времени, позволяя регуляторам и разработчикам выявлять потенциальные предубеждения, непреднамеренные последствия или уязвимости на ранних этапах процесса. По сути, это способствует динамическому, итеративному подходу, который позволяет внедрять инновации, одновременно повышая подотчетность.

Сохранение роли человеческого интеллекта и эмпатии

Помимо диагностики и лечения, само человеческое присутствие имеет терапевтическую ценность. Успокаивающее слово, момент подлинного понимания или сострадательное прикосновение могут облегчить беспокойство и улучшить благополучие пациента способами, которые технология не может воспроизвести. Здравоохранение — это больше, чем ряд клинических решений — оно строится на доверии, сочувствии и личной связи.

Эффективный уход за пациентами подразумевает разговоры, а не только расчеты. Если системы ИИ сводят пациентов к точкам данных, а не к людям с уникальными потребностями, технология не выполняет свою самую основную задачу. Растет обеспокоенность по поводу принятия решений на основе ИИ, особенно когда речь идет о страховом покрытии. В Калифорнии почти четверть претензий по медицинскому страхованию были отклонены в прошлом году, и эта тенденция наблюдается по всей стране. Новый закон теперь запрещает страховщикам использовать только ИИ для отказа в покрытии, гарантируя, что человеческое суждение будет центральным. Этот спор усилился с иском против UnitedHealthcare, в котором утверждалось, что ее инструмент ИИ nH Predict ошибочно отклонял претензии для пожилых пациентов с 90%-ным уровнем ошибок. Эти случаи подчеркивают необходимость того, чтобы ИИ дополнял, а не заменял человеческий опыт в принятии клинических решений, и важность надежного надзора.

Целью не должно быть замещение врачей искусственным интеллектом, а расширение их прав и возможностей. Искусственный интеллект может повысить эффективность и предоставить ценную информацию, но человеческое суждение гарантирует, что эти инструменты служат пациентам, а не диктовать уход. Медицина редко бывает черно-белой — ограничения реального мира, ценности пациента и этические соображения формируют каждое решение. ИИ может влиять на эти решения, но именно человеческий интеллект и сострадание делают здравоохранение по-настоящему ориентированным на пациента.

Сможет ли искусственный интеллект снова сделать здравоохранение человечным? Хороший вопрос. Хотя ИИ может выполнять административные задачи, анализировать сложные данные и оказывать постоянную поддержку, суть здравоохранения заключается во взаимодействии с людьми — слушании, сопереживании и понимании. Сегодня ИИ не хватает человеческих качеств, необходимых для целостного, ориентированного на пациента ухода, а решения в области здравоохранения характеризуются нюансами. Врачи должны взвешивать медицинские доказательства, ценности пациентов, этические соображения и ограничения реального мира, чтобы принимать наилучшие решения. Что может сделать ИИ, так это избавить их от рутинных задач, предоставив им больше времени для того, чтобы сосредоточиться на том, что они делают лучше всего.

Насколько автономным должен быть ИИ в здравоохранении?

ИИ и человеческий опыт играют жизненно важную роль в секторах здравоохранения, и ключ к эффективному уходу за пациентами заключается в балансе их сильных сторон. В то время как ИИ повышает точность, диагностику, оценку рисков и эффективность работы, человеческий надзор остается абсолютно необходимым. В конце концов, цель состоит не в том, чтобы заменить врачей, а в том, чтобы ИИ служил инструментом, поддерживающим этичное, прозрачное и ориентированное на пациента здравоохранение.

Поэтому необходимо тщательно определить роль ИИ в принятии клинических решений и оценить степень автономии, предоставляемую ИИ в сфере здравоохранения. Должен ли ИИ когда-либо принимать окончательные решения о лечении или его роль должна быть исключительно вспомогательной?Определение этих границ сейчас имеет решающее значение для предотвращения чрезмерной зависимости от ИИ, которая может снизить клиническую оценку и профессиональную ответственность в будущем.

Общественное восприятие также склоняется к такому осторожному подходу. Исследование медицинской этики BMC обнаружили, что пациенты чувствуют себя более комфортно с ИИ содействие а не заменять поставщиков медицинских услуг, особенно в клинических задачах. Хотя многие считают ИИ приемлемым для административных функций и поддержки принятия решений, сохраняются опасения по поводу его влияния на отношения врача и пациента. Мы также должны учитывать, что доверие к ИИ различается в зависимости от демографической группы — молодые, образованные люди, особенно мужчины, склонны быть более терпимыми, в то время как пожилые люди и женщины выражают больше скептицизма. Распространенной проблемой является потеря «человеческого прикосновения» в оказании медицинской помощи.

Обсуждения на Саммит действий по искусственному интеллекту в Париже подчеркнули важность структур управления, которые гарантируют, что ИИ останется инструментом для врачей, а не заменой принятия решений человеком. Поддержание доверия к здравоохранению требует целенаправленного внимания, гарантирующего, что ИИ усиливает, а не подрывает основные человеческие элементы медицины.

Установление правильных мер безопасности с самого начала 

Чтобы сделать ИИ ценным активом в здравоохранении, необходимо с нуля создать правильные меры безопасности. В основе этого подхода лежит объяснимость. Разработчики должны демонстрировать, как функционируют их модели ИИ, — не только для соответствия нормативным стандартам, но и для того, чтобы врачи и пациенты могли доверять рекомендациям, основанным на ИИ, и понимать их. Строгое тестирование и валидация необходимы для обеспечения безопасности, эффективности и справедливости систем ИИ. Это включает в себя стресс-тестирование в реальных условиях для выявления потенциальных предубеждений и предотвращения непреднамеренных последствий до их широкого внедрения.

Технология, разработанная без участия тех, кого она затрагивает, вряд ли будет им хорошо служить. Чтобы относиться к людям как к чему-то большему, чем просто сумма их медицинских записей, она должна способствовать сострадательному, персонализированному и целостному уходу. Чтобы убедиться, что ИИ отражает практические потребности и этические соображения, в его разработке должен быть учтен широкий спектр голосов, включая голоса пациентов, медицинских работников и специалистов по этике. Необходимо обучить врачей критически относиться к рекомендациям ИИ, ради выгоды всех вовлеченных сторон.

Необходимо установить надежные ограждения, чтобы не допустить, чтобы ИИ отдавал приоритет эффективности за счет качества ухода. Кроме того, непрерывные проверки необходимы для обеспечения того, чтобы системы ИИ поддерживали самые высокие стандарты ухода и соответствовали принципам «пациент прежде всего». Балансируя между инновациями и контролем, ИИ может укрепить системы здравоохранения и способствовать глобальной справедливости в области здравоохранения.

Заключение 

Поскольку ИИ продолжает развиваться, сектор здравоохранения должен найти тонкий баланс между технологическими инновациями и человеческими связями. Будущее не должно выбирать между ИИ и человеческим состраданием. Вместо этого они должны дополнять друг друга, создавая систему здравоохранения, которая является одновременно эффективной и глубоко ориентированной на пациента. Принимая как технологические инновации, так и основные ценности эмпатии и человеческих связей, мы можем гарантировать, что ИИ будет служить преобразующей силой добра в мировом здравоохранении.

Однако путь вперед требует сотрудничества между секторами — между политиками, разработчиками, специалистами здравоохранения и пациентами. Прозрачное регулирование, этическое развертывание и постоянное вмешательство человека являются ключом к тому, чтобы ИИ служил инструментом, укрепляющим системы здравоохранения и способствующим глобальной справедливости в области здравоохранения.

Доктор Рикардо Баптиста Лейте — врач и сторонник глобального здравоохранения с опытом работы в области инфекционных заболеваний и более 15 лет опыта в политике здравоохранения. Он является генеральным директором ЗдоровьеAI и основатель парламентской сети UNITE. Бывший португальский депутат, он служил на передовой как пандемии COVID-19, так и войны на Украине. Рикардо имеет степени магистра наук в Университете Джонса Хопкинса и Гарварде, а в настоящее время руководит глобальными программами здравоохранения в Гарвард-Шарите и Университете NOVA.