ํฌ์ค์ผ์ด
AI๋ ๊ฑด๊ฐ ๋ถํ๋ฑ ๊ฐ์ ์์ ์น๊ตฌ๋ ์ ์ด ๋ ์ ์์ต๋๋ค. ์ด๋ป๊ฒ ํ๋ฉด ๋์์ด ๋๊ณ ํด๊ฐ ๋์ง ์๋์ง
의료 불평등과 치료의 차이는 사회経済적, 인종적, 성별적 격차를 통해 普遍적으로 존재합니다. 우리는 이러한 격차를 메우고 모든 사람에게 일관된, 공정하고 경제적으로 접근할 수 있는 의료 서비스를 제공할 수 있는 道德的, 倫理的, 經濟的 책임을 가지고 있습니다.
인공 지능(AI)은 이러한 불평등을 해결하는 데 도움이 되지만, 또한 양날의 검입니다. 확실히, AI는 이미 치료 제공을 간소화하고, 대규모 개인화 의료를 가능하게 하고, 혁신적인 발견을 지원하고 있습니다. 그러나 데이터, 알고리즘, 사용자에 내재된 편향은 우리가 주의하지 않으면 문제를 악화시킬 수 있습니다.
즉, AI 기반 의료 솔루션을 개발하고 배포하는 우리는 AI가 기존의 격차를 의도하지 않게 넓히지 않도록 주의해야 하며, 관리 기관과 전문 협회는 편향을 피하거나 완화하는 데 적극적인 역할을 해야 합니다.
다음은 AI를 사용하여 불평등의 격차를 메우는 방법입니다.
임상 시험에서 평등 달성
새로운 약물과 치료 시험은 역사적으로 설계에서 편향되어 왔습니다. 예를 들어, 1993년까지 여성은 NIH에서 자금을 지원하는 임상 연구에 포함되어 있지 않았습니다. 최근에는 COVID 백신이 임신한 여성에서 의도적으로 시험되지 않았습니다. 그것은 일부 시험 참가자가 시험 당시 무의식적으로 임신한 상태였기 때문에 안전하다는 것을 알게 되었습니다.
연구의 도전은 우리가 모르는 것을 모를 수 있다는 것입니다. 그러나 AI는 인구 데이터를 분석하고 인구 통계적 대표성이나 демограф적 범위의 격차를 플래그로 표시함으로써 편향된 데이터 세트를 발견하는 데 도움이 됩니다. AI 모델을 대상 인구를 정확하게 나타내는 데이터에 훈련함으로써, AI는 包容性을 보장하고, 피해를 줄이고, 결과를 최적화하는 데 도움이 됩니다.
공정한 치료 보장
블랙 기대 어머니가 출산 중에 고통과 합병증을 경험하는 경우 종종 무시되어, 비히스패닉 백인 여성보다 3배 높은 산모 사망률을 나타냅니다. 문제는 주로 내재된 편향으로 인해 발생합니다. 의료 전문가 사이에 블랙人が 백인보다 고통에 더 강한忍耐力이 있다는 잘못된 인식이 있습니다.
AI 알고리즘의 편향은 문제를 악화시킬 수 있습니다. 하버드 연구진은 일반적인 알고리즘이 블랙과 라티나 여성들이 제왕 절개를 통해 자연 분만에 성공할 가능성이 낮다고 예측한다는 것을 발견했습니다. 그러나 연구진은 “이 연관성은 생물학적 확신에 의해 지지되지 않는다”고 밝혔습니다. 즉, 인종은 “건강에 대한 인종 차별의 영향을 반영하는 다른 변수의 대리자”입니다. 알고리즘은 이후 인종이나 민족을 계산할 때 위험을 제외하도록 업데이트되었습니다.
이것은 AI를 사용하여 암시적인 편향을 뿌리뽑고, 증거를 통해 이전에 간과되었을 수 있는 치료 경로를 제안하는 완벽한 적용입니다. “표준 치료”를 계속하는 대신, 우리는 AI를 사용하여 이러한 최선의 관행이 모든 여성 또는 단지 백인 여성의 경험에 기반하는지 결정할 수 있습니다. AI는 의료 및 기술의 발전에 가장 많은 것을 얻을 수 있는 환자들이 포함된 데이터 기초를 보장하는 데 도움이 됩니다.
인종과 민족이 영향력 있는 요소가 될 수 있는 조건이 있을 수 있지만, 우리는 이러한 요소가 언제 고려되어야 하는지와 편향된 역사적 가정에 의존하여 우리의 인식과 AI 알고리즘을 정보로 사용하는지 주의해야 합니다.
공정한 예방 전략 제공
AI 솔루션은邊緣化된 공동체에서 특정 조건을 간과할 수 있습니다. 예를 들어,退역軍인 행정부는 여러 알고리즘을 개발하여 심장 질환과 심장 마비를 예측하고 감지하고 있습니다. 이것은 엄청난 생명 구호 잠재력을 가지고 있지만, 이러한 연구의 대부분은 역사적으로 많은 여성들을 포함하지 않았습니다. 여성에게 심장 질환은 사망의 가장 큰 원인이기 때문에, 이러한 모델이 여성에게 효과적인지 여부는 알려지지 않았습니다.
이 데이터 세트에 여성의 적절한 수를 포함하면, 여성에서 매년 320만 건의 심장 마비와 50만 건의 심장 관련 사망을 조기 발견과 개입을 통해 일부 예방할 수 있습니다. 마찬가지로, 새로운 AI 도구는 역사적으로 블랙, 히스패닉, 네이티브 아메리칸을 제외한 신장 질환 검사에서 인종 기반 알고리즘을 제거하고 있습니다. 이것은 치료 지연과 나쁨한 임상 결과를 초래했습니다.
边緣化된 개인을 제외하는 대신, AI는 실제로 취약한 인구의 건강 위험을 예측하고, 개인화된 위험 평가를 통해 개입을 더 잘 타겟팅할 수 있습니다. 데이터는 이미 존재할 수 있습니다. 모델을 “조정”하여 인종, 성별, 기타 인구 통계적 요소가 결과에 영향을 미치는지 여부를 결정하는 문제입니다.
행정 업무 간소화
환자 결과에 직접적으로 영향을 미치는 것 외에도 AI는 배경에서 워크플로를 가속화하여 불평등을 줄이는 데 엄청난 잠재력을 가지고 있습니다. 예를 들어, 회사와 제공자는 이미 AI를 사용하여 청구 코드와 심사, 의사 노트에 대한 진단 코드를 검증하고, 일반적인 진단 절차에 대한 사전 승인 과정을 자동화하고 있습니다.
이러한 기능을 간소화함으로써, 우리는 운영 비용을 크게 줄이고, 제공자 사무실이 더 효율적으로 운영되도록 도와주고, 직원이 환자와 더 많은 시간을 보낼 수 있도록 하여, 치료를 훨씬 더 경제적이고 접근하기 쉽게 만들 수 있습니다.
우리는 모두 중요한 역할을 합니다
우리가 이러한 놀라운 도구를 사용할 수 있게 된다는 사실은 의료 편향을 뿌리뽑고 극복하는 데 사용하는 것이 더 중요하게 만듭니다. 불행히도, 미국에는 AI를 사용하여 의료 제공을 “편향”하는 노력을 규제하는 인증 기관이 없습니다. 그리고 이러한 기관들이 가이드라인을 제시한 경우에도, 이러한 가이드라인을 준수하는 데 규제적 인센티브가 없습니다.
따라서, AI 실무자, 데이터 과학자, 알고리즘 작성자 및 사용자는 이러한 도구와 통찰력을 사용하여 包容性, 데이터의 다양성, 및 公平性을 보장하는 의식적인 전략을 개발해야 합니다.
이를 위해서는 정확한 통합과 상호 운용성이 필수적입니다. 착용 가능한 기기, 제3자 연구소 및 영상 제공자, 원격 의료, 건강 정보 교환, 입원 기록 등 다양한 데이터 소스에서, 우리는 이러한 데이터를 모두 통합하여 중요한 조각이 포함되도록 해야 합니다. 산업은 데이터 정규화, 표준화 및 身分 일치가 필요합니다. 이는 다양한 문화와 언어에 기반한 이름拼音이나 이름 규칙에 관계없이 필수적인 환자 데이터가 포함되도록 합니다.
우리는 또한 AI 개발 프로세스에 다양성 평가를 구축하고 시간이 지남에 따라 우리의 메트릭스에 대한 “드리프트”를 모니터링해야 합니다. AI 실무자는 모델의 성능을 인구 통계적 하위 그룹에서 테스트하고, 편향 감사를 수행하며, 모델이 어떻게 결정하는지 이해할 책임이 있습니다. 우리는 인종 기반 가정으로부터 우리의 분석을 대표하는 인구를 위해 구축하고 있는지 확인하기 위해 인종 기반 가정 너머로 나아갈 수 있습니다. 예를 들어, 애리조나 주 길라 리버 예약지에 사는 피마 인디언 부족의 구성원은 비만과 제2형 당뇨병의 매우 높은 발병률을 가지고 있습니다. 그러나 같은 부족의 멕시코 시에라 마드레 산맥에 사는 구성원은 비만과 당뇨병의 발병률이 현저히 낮습니다. 이는 유전자가 유일한 요인이 아니라는 것을 증명합니다.
마지막으로, 미국 의사 협회, 건강 정보 기술 국가 조정자 사무소, 산과학 회, 소아과 학회, 심장학 회, 및 기타 전문 기관과 같은 기관이 함께 협력하여 데이터 교환 및 구체성에 대한 표준과 프레임워크를 설정하여 편향을 방지하기 위해 노력해야 합니다.
의료 데이터의 공유를 표준화하고, HTI-1 및 HTI-2를 확대하여 개발자가 인증 기관과 협력하여 규제를 준수하고 과거의 불평등을 수정하도록 요구함으로써, 우리는 편향을 교정하고, AI를 사용하여 치료 불평등을 해결하는 데 더 포괄적이고 객관적인 통찰력을 제공할 수 있습니다.












