Connect with us

ํ•ฉ์„ฑ ์ƒ์ฒ˜ ๋ฐ์ดํ„ฐ์…‹์„ ์ƒ์„ฑํ•˜๊ธฐ ์œ„ํ•œ ์ ๋Œ€์  ์ƒ์„ฑ ๋„คํŠธ์›Œํฌ

ํ—ฌ์Šค์ผ€์–ด

ํ•ฉ์„ฑ ์ƒ์ฒ˜ ๋ฐ์ดํ„ฐ์…‹์„ ์ƒ์„ฑํ•˜๊ธฐ ์œ„ํ•œ ์ ๋Œ€์  ์ƒ์„ฑ ๋„คํŠธ์›Œํฌ

mm

처음으로, Generative Adversarial Network은 의료 기계 학습 애플리케이션에서 이러한 유형의 다양한 및 접근 가능한 콘텐츠가 부족한 문제를 해결하기 위해 상처 이미지의 합성 데이터셋을 생성하는 데 사용되고 있습니다.

시스템, 즉 WG2AN은 배튼 공과 대학 및 기술과 AI 헬스 회사 eKare 간의 협력으로, 상처의 측정 및 식별에 기계 학습 방법론을 적용하는 데 전문입니다.

GAN은 eKare가 제공한 100-4000개의 레이블이 지정된 스테레오스코픽 만성 상처 이미지에서 훈련되며, 압력, 수술, 림프혈관 사고, 당뇨병 및 화상과 같은 원인으로 인한 부상 유형의匿名화된 사진이 포함됩니다. 원본 자료의 크기는 1224×1224에서 2160×2160 사이로 다양했으며, 모든 이미지는 의사에 의해 उपलब한 빛 아래에서 촬영되었습니다.

모델 훈련 아키텍처에서 사용 가능한 잠재 공간을 수용하기 위해 이미지는 512×512로 크기가 조정되었으며 배경에서 추출되었습니다. 데이터셋 크기의 영향을 연구하기 위해 100, 250, 500, 1000, 2000 및 4000개의 이미지로 구성된 일련의 테스트 실행이 구현되었습니다.

Source: https://ietresearch.onlinelibrary.wiley.com/doi/pdfdirect/10.1049/tje2.12033

Source: https://ietresearch.onlinelibrary.wiley.com/doi/pdfdirect/10.1049/tje2.12033

위의 이미지는 기여한 훈련 세트의 크기와 각 패스에서 실행되는 에포크의 수에 따라 세부 사항과 세분성이 증가하는 것을 보여줍니다.

The architecture of WG. Source: https://ietresearch.onlinelibrary.wiley.com/doi/pdfdirect/10.1049/tje2.12033

The architecture of WG2GAN. Source: https://ietresearch.onlinelibrary.wiley.com/doi/pdfdirect/10.1049/tje2.12033

WG2GAN은 8GB의 VRAM이 있는 GTX 1080 GPU로 상대적으로 얇은 소비자 스타일 설정에서 PyTorch에서 실행됩니다. 훈련에는 100-4000개의 이미지로 구성된 데이터셋 크기 범위와 에포크 범위에서 4-58시간이 걸렸으며, 배치 크기는 64로 정확도와 성능 간의 트레이드 오프로 설정되었습니다. Adam Optimizer는 학습률 0.0002에서 훈련의 첫 번째 절반에 사용되며, 손실이 0이 될 때까지 학습률이 선형적으로 감소합니다.

Above left, segmentation applied to the wound area. Above center, image of the actual wound; above right, a synthetic wound of a type that can be generalized in a dataset, based on the original source. Below, the original wound, and, right, a synthesis of the wound generated by WG2GAN.

Above left, segmentation applied to the wound area. Above center, image of the actual wound; above right, a synthetic wound of a type that can be generalized in a dataset, based on the original source. Below, the original wound, and, right, a synthesis of the wound generated by WG2GAN.

의료 데이터셋에서, 기계 학습의 많은 다른 분야와 마찬가지로, 레이블 지정은 필수적인 병목 현상입니다. 이 경우 연구원들은 eKare의 이전 연구를 활용하여 반자동 레이블 지정 시스템을 사용했으며, 이는 실제 모델을 사용하여 상처를 만들고, 의미 있는 문맥을 위해 대략 색칠합니다.

eKare Wound models

eKare Wound models

연구원들은 훈련의 초기 단계에서 자주 발생하는 문제를 관찰했을 때, 데이터셋이 매우 다양하고 가중치가 랜덤화되어 있을 때, 모델이 ‘정착’하는 데 오랜 시간(75 에포크)이 걸리는 것을 발견했습니다.

데이터가 다양할 때, GAN 및 인코더/디코더 모델은 초기 단계에서 일반화를 얻는 데 어려움을 겪는다는 것을 우리는 위의 WG2GAN 훈련 그래프에서 볼 수 있습니다. 이는 훈련 타임라인을 추적하며, 시작부터 손실이 0이 될 때까지입니다.

훈련 프로세스에서 특정 반복이나 에포크의 기능 또는 특징에 집착하지 않도록 주의해야 하며, 소스 자료를 과도하게 추상화하지 않고 사용 가능한 평균 손실 없이 일반화하는 데 계속 집중해야 합니다. WG2GAN의 경우, 이는 관련이 없는 다양한 상처 유형 중에 연결된 완전히 ‘허구의’ 상처를 생성하여 정확한 변형 범위를 생성하는 대신 특정 상처 유형 내에서 생성하는 것입니다.

기계 학습 데이터셋의 범위 제어

경량 훈련 세트를 가진 모델은 더 빠르게 일반화되며, 본 논문의 연구원들은 최대 설정보다 적은 설정에서 가장 실질적인 이미지를 얻을 수 있다고 주장합니다. 1000개의 이미지 데이터셋을 200개의 에포크 동안 훈련합니다.

보다 작은 데이터셋은 더 짧은 시간에 매우 실질적인 이미지를 달성할 수 있지만, 생성된 이미지 및 상처 유형의 범위는 필연적으로 더 제한적일 것입니다. GAN 및 인코더/디코더 훈련 체제에서 입력 데이터의 양과 다양성, 생성된 이미지의 충실도, 생성된 이미지의 실질성 간에微妙한 균형이 있습니다. 이는 의료 이미지 합성에 국한되지 않는 범위 및 가중치 문제입니다.

의료 데이터셋의 클래스 불균형

일반적으로, 의료 기계 학습은 데이터셋의 부족뿐만 아니라 클래스 불균형으로 곤란을 겪고 있습니다. 여기서 특정 질병에 대한 필수 데이터는 호스트 데이터셋의 매우 작은 百分比를 구성하여 아웃라이어 데이터로 거부되거나 훈련 과정에서 일반화되는 위험이 있습니다.

이 문제를 해결하기 위해 여러 가지 방법이 제안되었습니다. 예를 들어, 언더 샘플링 또는 오버 샘플링과 같은 방법이 있습니다. 그러나, 문제는 종종 특정 의료 문제에 바인딩된 단일 질병에 대한 데이터셋을 개발하여 해결됩니다. 이러한 접근 방식은 경우에 경우에 효과적이지만, 의료 기계 학습 연구 분야에서 분열 문화에 기여하며, 이 분야의 일반적인 진행을 느리게 할 수 있습니다.

๊ธฐ๊ณ„ ํ•™์Šต ์ž‘๊ฐ€, ์ธ๊ฐ„ ์ด๋ฏธ์ง€ ํ•ฉ์„ฑ ๋„๋ฉ”์ธ ์ „๋ฌธ๊ฐ€. Metaphysic.ai์˜ ์—ฐ๊ตฌ ์ฝ˜ํ…์ธ  ์ฑ…์ž„์ž ์ถœ์‹ .
๊ฐœ์ธ ์‚ฌ์ดํŠธ: martinanderson.ai
์—ฐ๋ฝ์ฒ˜: [email protected]
ํŠธ์œ„ํ„ฐ: @manders_ai