Deep Learning
Deep-Lear­ning-Metho­den hel­fen Kno­chen­me­ta­sta­sen zu ent­de­cken, die in der kli­ni­schen Pra­xis über­se­hen wer­den kön­nen.Rad­bou­dumc, Nij­me­gen, NL; Fraun­ho­fer MEVIS

Ist ein Tumor im Lau­fe einer mehr­mo­na­ti­gen Behand­lung geschrumpft, oder haben sich in der Zwi­schen­zeit gar neue Geschwuls­te ent­wi­ckelt? Um Fra­gen wie die­se zu klä­ren, wer­ten Ärz­te unter ande­rem CT- und MR-Auf­nah­men aus. Meist wer­den die Tumo­ren dabei nur visu­ell bewer­tet und neue Geschwuls­te manch­mal über­se­hen. »Unser Pro­gramm­pa­ket erhöht die Sicher­heit bei der Ver­mes­sung und Nach­ver­fol­gung der Tumo­ren«, erläu­tert Mark Schenk vom Fraun­ho­fer-Insti­tut für Bild­ge­stütz­te Medi­zin MEVIS in Bre­men. »Die Soft­ware kann zum Bei­spiel erfas­sen, wie sich das Volu­men eines Tumors im Lau­fe der Zeit ver­än­dert und unter­stützt beim Auf­spü­ren neu­er Geschwuls­te.«

Das Paket ist als Bau­kas­ten­sys­tem aus­ge­legt und kann Medi­zin­tech­nik-Her­stel­lern hel­fen, die Ver­laufs­kon­trol­le zu auto­ma­ti­sie­ren.

Das Beson­de­re: Um die Ergeb­nis­se zu ver­bes­sern, ver­wen­det die Soft­ware Deep Lear­ning – eine neue Art des maschi­nel­len Ler­nens, die deut­lich über bis­he­ri­ge Ansät­ze hin­aus­geht. Hilf­reich ist das Ver­fah­ren unter ande­rem für die Seg­men­tie­rung. So bezeich­nen Exper­ten jenen Arbeits­schritt, der bei CT- und MRT-Bil­dern die genau­en Umris­se der Orga­ne erfasst. Bei den bis­her ver­füg­ba­ren Seg­men­tie­rungs­pro­gram­men sucht der Rech­ner nach fest defi­nier­ten Bild­merk­ma­len, etwa nach bestimm­ten Grau­wert-Unter­schie­den. »Doch dabei kommt es nicht sel­ten zu Feh­lern«, erläu­tert Fraun­ho­fer-For­scher Mar­kus Harz. »Die Soft­ware ord­net dann Berei­che der Leber zu, die gar nicht zum Organ gehö­ren.« Die­se Feh­ler müs­sen die Medi­zi­ner oft zeit­auf­wän­dig kor­ri­gie­ren.

Anzei­ge
PWG-Seminare

Auch Knochenmetastasen kann die Software aufspüren

Die neu­en Deep-Lear­ning-Ansät­ze ver­spre­chen bes­se­re Ergeb­nis­se und sol­len den Ärz­ten kost­ba­re Zeit spa­ren. Um die Funk­ti­ons­wei­se ihrer selbst­ler­nen­den Soft­ware zu demons­trie­ren, trai­nier­ten sie die Fraun­ho­fer-For­scher mit Hil­fe von CT-Leber­auf­nah­men von 149 Pati­en­ten. Das Ergeb­nis: Je mehr Daten­sät­ze das Pro­gramm ana­ly­sier­te, umso bes­ser konn­te es die Leber­um­ris­se auto­ma­tisch iden­ti­fi­zie­ren.
Ein wei­te­res Ein­satz­feld ist die soge­nann­te Bild­re­gis­trie­rung. Hier bringt eine Soft­ware ver­schie­de­ne Auf­nah­men, die zu unter­schied­li­chen Zei­ten gemacht wur­den, so zur Deckung, dass sie die Medi­zi­ner direkt ver­glei­chen kön­nen. Hier­bei kann die Bild­re­gis­trie­rung das maschi­nel­le Ler­nen bei einer beson­ders schwie­ri­gen Auf­ga­be unter­stüt­zen, und zwar bei dem Auf­spü­ren von Kno­chen­me­ta­sta­sen in Auf­nah­men des Ober­kör­pers, auf denen Hüft­kno­chen, Rip­pen und der Wir­bel­säu­le. Bis­lang wer­den die­se Meta­sta­sen unter dem in der kli­ni­schen Pra­xis herr­schen­den Zeit­druck oft über­se­hen. Deep-Lear­ning-Metho­den kön­nen hel­fen, sie zuver­läs­sig zu ent­de­cken und damit die The­ra­pie­chan­cen zu ver­bes­sern.