Stumm AI Modeller trainéiert op Sex biased Daten Leeschtunge méi schlëmm bei der Diagnostik vun der Krankheet - Unite.AI
Connect mat eis

Gesondheetswiesen

AI Modeller trainéiert op Sex biased Daten Leeschtunge méi schlëmm bei der Diagnostik vun der Krankheet

mm

publizéiert

 on

Viru kuerzem war e Etude publizéiert an der Zäitschrëft PNAS a vun Fuerscher aus Argentinien gehaal, implizéiert datt d'Präsenz vun Geschlecht-skewed Trainingsdaten zu enger schlechter Modellleistung féiert wann d'Krankheeten an aner medizinesch Themen diagnostizéiert ginn. Wéi gemellt Statsnews, d'Team vun de Fuerscher experimentéiert mat Trainingsmodeller, wou weiblech Patienten notamment ënnerrepresentéiert oder ganz ausgeschloss waren, a festgestallt datt den Algorithmus wesentlech méi schlecht gemaach huet wann se se diagnostizéiert hunn. Datselwecht gehalen och fir Tëschefäll wou männlech Patienten ausgeschloss oder ënnerrepresentéiert waren.

An der leschter Halschent vum Joerzéngt, wéi AI Modeller a Maschinnléiere méi ubiquitär ginn ass, gouf méi Opmierksamkeet op d'Problemer vu biased Datesätz bezuelt an déi biased Maschinn Léieren Modeller déi aus hinnen entstinn. Datebias am Maschinnléiere kann zu schweier, sozial schiedlechen an exklusiven AI Uwendungen féieren, awer wann et ëm medizinesch Uwendungen kënnt, kënnen d'Liewe op der Linn sinn. Wéi och ëmmer, trotz dem Wësse vum Problem, hu wéineg Studien probéiert ze quantifizéieren wéi schiedlech biased Datesets kënne sinn. D'Etude, déi vum Fuerschungsteam duerchgefouert gouf, huet festgestallt datt Datebias méi extrem Auswierkunge kéint hunn wéi vill Experten virdru geschat hunn.

Ee vun de populäersten Uwendunge fir AI an de leschte Joren, a medizinesche Kontexter, war d'Benotzung vun AI Modeller fir Patienten op Basis vu medizinesche Biller ze diagnostizéieren. D'Fuerschungsteam analyséiert Modeller déi benotzt gi fir d'Präsenz vu verschiddene medizinesche Bedéngungen wéi Pneumonie, Kardiomegalie oder Hernias aus Röntgenstrahlen z'entdecken. D'Fuerschungsteams hunn dräi Open-Source Modellarchitekturen studéiert: Inception-v3, ResNet, an DenseNet-121. D'Modeller goufen op Röntgenstrahlen vun der Këscht trainéiert, déi aus zwee Open-Source Datesätz gezunn sinn, déi vun der Stanford University an den National Institutes of Health stamen. Och wann d'Datesätz selwer zimmlech equilibréiert sinn wann et ëm Geschlechtsvertriedung kënnt, hunn d'Fuerscher d'Daten kënschtlech schiefgehalen andeems se se an Ënnersätz zerbriechen, wou et e Sex-Ongläichgewiicht war.

D'Fuerschungsteam huet fënnef verschidde Trainingsdatesets erstallt, jidderee besteet aus verschiddene Verhältnisser vu männlechen / weiblechen Patient Scans. Déi fënnef Trainingssets goufen wéi follegt opgedeelt:

  • All Biller ware vu männleche Patienten
  • All Biller ware vu weibleche Patienten
  • 25% männlech Patienten a 75% weiblech Patienten
  • 75% weiblech Patienten a 25% männlech Patienten
  • Halschent männlech Patienten an Halschent weiblech Patienten

Nodeems de Modell op ee vun de Subsets trainéiert gouf, gouf et op enger Sammlung vu Scans vu männlechen a weibleche Patienten getest. Et war e bemierkenswäerten Trend deen iwwer déi verschidde medizinesch Bedéngungen präsent war, d'Genauegkeet vun de Modeller war vill méi schlëmm wann d'Trainingsdaten wesentlech Geschlecht schief waren. Eng interessant Saach ze notéieren ass datt wann ee Geschlecht an den Trainingsdaten iwwerrepresentéiert wier, dat Geschlecht net vun der Iwwerrepresentatioun profitéiert schéngt. Egal ob de Modell trainéiert gouf op Daten, déi fir dat eent Geschlecht oder dat anert schief sinn, huet et net besser op deem Geschlecht gemaach am Verglach zum wann et op engem inklusiven Dataset trainéiert gouf.

De Senior Autor vun der Studie, Enzo Ferrante, gouf vum Statnews zitéiert wéi z'erklären datt d'Etude ënnersträicht wéi wichteg et ass datt Trainingsdaten divers a representativ sinn fir all Populatiounen an där Dir wëllt de Modell testen.

Et ass net ganz kloer firwat Modeller, déi op engem Geschlecht trainéiert sinn, tendéieren méi schlecht ze maachen wann se op en anert Geschlecht ëmgesat ginn. E puer vun den Ënnerscheeder kéinte wéinst physiologeschen Ënnerscheeder sinn, awer verschidde sozial a kulturell Faktore kënnen och e puer vun den Ënnerscheeder ausmaachen. Zum Beispill, Frae kënnen éischter Röntgenstrahlen an enger anerer Phase vum Fortschrëtt an hirer Krankheet kréien am Verglach mat Männer. Wann dëst richteg wier, kéint et d'Features beaflossen (an dofir d'Mustere geléiert vum Modell) fonnt an Trainingsbilder. Wann dëst de Fall ass, mécht et et vill méi schwéier fir Fuerscher hir Datesätz ze de-biaséieren, well d'Basitéit an d'Datesaz duerch d'Mechanismen vun der Datesammlung gebak gëtt.

Och Fuerscher, déi op Date Diversitéit oppassen, hunn heiansdo keng aner Wiel wéi mat Daten ze schaffen, déi schief sinn oder partiell sinn. Situatiounen wou en Ënnerscheed existéiert tëscht wéi medizinesch Bedéngungen diagnostizéiert ginn, féieren dacks zu Ongläichgewiichtdaten. Zum Beispill, Daten iwwer Brustkrebspatienten si bal ganz vu Frae gesammelt. Ähnlech manifestéiert den Autismus anescht tëscht Fraen a Männer, an als Resultat gëtt d'Konditioun bei Jongen vill méi héich diagnostizéiert wéi Meedercher.

Trotzdem ass et extrem wichteg fir Fuerscher fir verréckt Daten an Datebias op all Manéier ze kontrolléieren wéi se kënnen. Zu dësem Zweck wäerten zukünfteg Studien de Fuerscher hëllefen den Impakt vu biased Daten ze quantifizéieren.

Blogger a Programméierer mat Spezialitéiten am Machine Learning an Deep Learning Themen. Den Daniel hofft anerer ze hëllefen d'Kraaft vun der AI fir sozial Gutt ze benotzen.