In der Nuklearmedizin spielen bei Diagnose und Behandlung bildgebende Verfahren eine große Rolle. Allerdings hat jede Untersuchungsmethode Schwächen, die sich zum Teil nur durch die Kombination zweier Verfahren kompensieren lassen. Mit neuen Methoden des maschinellen Lernens wollen Wissenschaftler der Universitäten Stuttgart und Tübingen gemeinsam dieses Problem ausmerzen. Die ersten Ergebnisse sind ermutigend.
Muss ein Patient in einem Positronen-Emissions-Tomografen (PET) untersucht werden, ist das oft keine gute Nachricht. Ein Tumor oder der Verdacht auf Demenz oder Epilepsie sind laut der Deutschen Gesellschaft für Nuklearmedizin typische Indikationen, bei denen diese teure Untersuchungsmethode als angebracht gilt. Für einen Laien unterscheidet sich dieses Gerät nicht allzu sehr von den weitaus bekannteren Computertomografen (CT) oder Kernspintomografen (MRI). Und auch das Resultat der Untersuchung mit dem PET scheint gleich: zweidimensionale Schnittbilder einer Körperregion. Fachleute wie Radiologen wissen jedoch sehr wohl um die Unterschiede der Verfahren. CT und MRI liefern Aufnahmen, auf denen sich die anatomischen Strukturen wie Knochen, Gewebe und Organe erkennen lassen. Ein PET zeigt hingegen Stoffwechselvorgänge, also Abläufe auf molekularer Ebene. Konkret auf einen Tumor bezogen könnte man sagen, dass CTund MRI-Bilder zeigen, wo der Tumor liegt und wie groß er ist. Die PET-Bilder verraten wiederum primär etwas über seine Aktivität, so dass sich erkennen lässt, wie aggressiv er ist.
„Es ist jedoch nicht so, dass in PET-Bildern gar keine Informationen über die anatomische Struktur stecken“, sagt Karim Armanious, Doktorand am Institut für Signalverarbeitung und Systemtheorie (ISS) der Universität Stuttgart, das Professor Bin Yang leitet. „Diese Informationen sind jedoch so unzureichend, dass ein PET häufig in Kombination mit einem CT oder MRI betrieben werden muss“ – damit die Bildgebungsverfahren ihre jeweiligen Stärken einbringen können. Das ist aktuell klinischer Alltag. Das bedeutet, dass die Untersuchung eines Patienten in so einem Tandemgerät recht lange dauert, weil ein Radiologe den doppelten Satz an Aufnahmen machen muss. Die Konsequenzen: eine zusätzliche Strapaze für den Patienten, aber auch weniger Untersuchungen pro Tag für den Betreiber und damit eine niedrigere Wirtschaftlichkeit des Geräts. Zudem ist der Patient durch die CT-Aufnahmen einer zusätzlichen Strahlenbelastung ausgesetzt. „Deshalb wünschen sich Radiologen PET-Aufnahmen, die ohne Zusatzbilder auskommen und trotzdem ausreichend viele anatomische Informationen liefern“, sagt Armanious. An diesem Ziel arbeiten er und seine ISS-Kollegen gemeinsam mit Radiologen des Universitätsklinikums Tübingen.
Neue Stars der maschinellen Lern-Verfahren
Sie benutzen hierfür Verfahren aus dem Bereich des maschinellen Lernens, sogenannte Generative Adversarial Networks (GANs). „Dabei handelt es sich um ein neues, erst vor vier Jahren vorgestelltes Verfahren, das in der Forschung derzeit ziemlich angesagt ist“, erklärt Armanious, der seinen Master in Information Technology mit der Spezialisierung Communication Engineering and Media Technology gemacht hat. Das Prinzip der GANs lässt sich mit einer Analogie erklären: Ein Kunstfälscher will die Mona Lisa so gut malen, dass sein Gemälde nicht vom Original zu unterscheiden ist. Ein Kunstexperte vergleicht das entstehende Bild mit dem Original – nicht wissend, welches die Fälschung ist. Ob der Experte das Original erkennt oder nicht, bekommt der Fälscher zurückgemeldet, erfährt jedoch nicht, woran der Kunstexperte die Fälschung erkannt hat. Also variiert er bei jedem neuen Anlauf Stil, Farben, Perspektive und Aussehen der Porträtierten und legt das Ergebnis wiederum dem Kunstexperten vor. Dieser senkt über jedes Bild den Daumen, solange er es vom Original unterscheiden kann.
Ein menschlicher Kunstfälscher würde vermutlich irgendwann den Mut verlieren und sich eine andere Betrugsmasche suchen. In Armanious‘ Experimenten sind Fälscher und Experte jedoch jeweils GANs, Algorithmen auf einem Computer. Enttäuschung kennen sie nicht, Müdigkeit auch nicht. Und es geht auch nicht um die Mona Lisa, sondern um CT-Bilder. „Nach 36 Stunden Rechenzeit auf einer High-End-Grafikkarte war das Training unserer beiden GANs so weit fortgeschritten, dass die synthetischen CT-Bilder den realen ziemlich ähnlich waren“, sagt er. „Unsere quantitativen Tests am Computer lieferten dann eine Übereinstimmung von 90 Prozent.“ Doch damit nicht genug, Armanious und seine Kollegen legten die synthetischen und die realen CT-Bilder auch sechs Ärzten vor, die in ihrem Arbeitsalltag ständig CT-Daten beurteilen müssen. Sie sollten mithilfe einer Skala die Qualität der Bilder bewerten – von eins für eine geringe Qualität bis vier für eine hohe. Dabei wussten sie nicht, welche Bilder auf echten Daten beruhten und welche synthetisch generiert wurden. „Die Ärzte gaben den realen Daten im Schnitt eine 3,3, den synthetischen eine 3,0“, so der Wissenschaftler. Ein ziemlich überzeugendes Ergebnis.
Wir sind die Ersten, die ein dediziertes GAN für medizinische Zwecke von Grund auf neu entwickelt haben.
Karim Armanious
Die Künstliche Intelligenz wächst
„Bislang hat die Forschungs-Community nur GANs auf medizinische Fragestellungen angewandt – die ursprünglich für andere Anwendungen gemacht worden sind“, ergänzt Armanious. „Wir sind die Ersten, die ein dediziertes GAN für medizinische Zwecke von Grund auf neu entwickelt haben.“ Das Resultat sind unter anderem deutlich kürzere Bearbeitungszeiten. Das Erzeugen guter synthetischer CT-Bilder ist für die Forscher nur ein erster Schritt. Nun kommt die Arbeit mit den Daten, um PET-Bilder so zu korrigieren, dass CT-Bilder in Tandemgeräten überflüssig werden. „Hierfür vergleichen wir auf Basis der PET-Bilddaten aus Tübingen den traditionellen Weg der Bildgewinnung mit dem neuen Ansatz“, sagt Armanious. Dabei versucht das eine GAN, aus den reinen PET-Daten anatomische Informationen zu rekonstruieren, um die CT-Daten überflüssig zu machen, während das andere GAN die so erzeugten Bilder mit jenen Bildern vergleicht, die – wie bislang üblich – auf PET- und CT-Daten beruhen. Damit geht das Rennen zwischen Original und „Fälschung“ in die nächste Runde.
Michael Vogel