Prognosemodelle für Organtransplantationen
Mehr als 8.500 Menschen standen in Deutschland Ende 2024 auf der Warteliste für eine Organtransplantation, 6.300 davon hofften auf eine Spenderniere. Der Mangel ist groß – jedes Herz, jede Niere ein kostbares, womöglich lebensrettendes Gut. An der Hochschule Darmstadt (h_da) arbeitet ein interdisziplinäres Forschungsteam aus Mathematik und Informatik an KI-Modellen zur Einschätzung der Erfolgsaussichten von Transplantationen. Ziel ist es, solche Modelle zu nutzen, um Ärztinnen und Ärzte zu unterstützen. Das Projekt wird vom Bundesforschungsministerium mit 265.000 Euro für drei Jahre gefördert.
Von Christina Janssen, 6.12.2025
Zum Beispiel die Uniklinik Mainz: 200 Patienten standen dort im März 2025 auf der Warteliste, wie die Tagesschau berichtete, doch nur rund 50 Nierentransplantationen seien pro Jahr möglich. Und die Wartelisten werden länger. Immerhin: Die Erfolgsquote ist gerade bei Nierentransplantationen hoch. Von 100 transplantierten Organen funktionieren ein Jahr nach der Operation noch rund 90 Prozent. Nach fünf Jahren sind es noch 75.
An der Hochschule Darmstadt arbeitet ein Forschungsteam daran, die komplexen Zusammenhänge zwischen Patient, Organ und Erfolgsaussicht einer Transplantation zu analysieren. In einem Forschungsprojekt mit der Deutschen Stiftung Organtransplantation (DSO), dem Pharmakonzern Merck und dem Softwareunternehmen Accso haben sich Mathematikerin Antje Jahn und Informatiker Gunter Grieser vorgenommen, dazu die Daten aus dem erst vor wenigen Jahren gestarteten Deutschen Transplantationsregister unter die Lupe zu nehmen. So wollen sie ein KI-Tool entwickeln, das die Zusammenhänge transparent und nachvollziehbar visualisiert.
Datensätze aus dem Transplantationsregister
Lange haben Jahn und Grieser, die beide im Studiengang Data Science der h_da lehren, auf diese Möglichkeit gewartet. „Erst 2021 wurde das Deutsche Transplantationsregister eingerichtet“, erläutert Prof. Dr. Antje Jahn. In einem Vorläuferprojekt war das Team deshalb noch auf Unterstützung aus den USA angewiesen (impact-Artikel „Das Chaos hat System“). „Jetzt werden erstmalig auch in Deutschland alle relevanten Informationen an einer zentralen Stelle erfasst. Wir wollen wissen: Was steckt in diesen Daten drin und wofür kann man sie nutzen?“
Wenn Data-Science-Experten wie Jahn und Grieser von „Daten“ sprechen, meinen sie mehr als eine Patientenakte mit Alter, Geschlecht, Gewicht, Blutgruppe oder Vorerkrankungen. „Zu jedem Transplantationspatienten gibt es Tabellen mit insgesamt hunderten Spalten“, erklärt Jahn. „Darin sind unzählige Werte erfasst – Kreatinin, Harnstoff, der Gewebetyp, Leberwerte und so weiter.“ Im ersten Schritt müssen diese Daten bereinigt werden. „Sie werden in den Kliniken und Arztpraxen oft manuell erfasst, dabei passieren Fehler“, erläutert Prof. Dr. Gunter Grieser. Werden die Spalten für Körpergröße und Gewicht verwechselt, kann zum Beispiel ein Mensch dabei herauskommen, der 90 Zentimeter groß ist und 160 Kilo wiegt. Klingt lustig, ist aber ein echtes Datenproblem. Mit Hilfe von automatisierten Plausibilitätschecks müssen solche Ausreißer herausgefiltert werden. Eine Sisyphusarbeit – noch bevor es überhaupt richtig losgeht.
Die Tücken der Lücken
Ein anderes Problem mit den Registerdaten konnte das h_da-Team bereits lösen: „Die Patienten kommen nach der Transplantation meist einmal pro Jahr zur Nachsorgeuntersuchung“, schildert Professorin Jahn die Ausgangslage. „Bestimmte Parameter werden deshalb nur jährlich erfasst, obwohl sie sich kontinuierlich verändern. Oder aber die Daten eines Patienten zur Nachsorgeuntersuchung fehlen komplett. „Vielleicht sind sie ins Ausland gezogen und lassen sich dort weiterbehandeln?“, führt Informatiker Grieser aus. „Dadurch ergibt sich ein verzerrtes Bild.“ Für solche Fälle entwickelte das Team eine statistische Methode, die den Unsicherheitsfaktor mit einbezieht. „Das ist eines der wissenschaftlichen Ergebnisse, die wir bereits erzielt haben“, fasst Jahn zusammen.
Das zweite Zwischenergebnis aus dem Projekt ist ein sogenannter Explorer: „Damit kann ich in die Daten hereinzoomen und nach verschiedenen Parametern filtern“, erläutert Grieser, Spezialist für Theoretische Informatik und Künstliche Intelligenz. „Man kann sich zum Beispiel anschauen, wie der Verlauf aussieht von Frauen im Alter zwischen 20 und 40 bei einem Kreatininwert zwischen x und y. Das Ganze kann ich dann mit Männern im selben Alter vergleichen und das alles grafisch darstellen.“ Der Explorer macht außerdem Vorhersagen zu Überlebenswahrscheinlichkeit und Organüberleben – und liefert eine Begründung für seine Prognose mit. Ein Prototyp für das angestrebte Unterstützungstool.
Konkrete Fragestellungen aus der Praxis
Durch die enge Zusammenarbeit mit der Deutschen Stiftung Organtransplantation sei das Team nah dran an den aktuellen Fragenstellungen aus der medinischen Praxis, berichtet Grieser weiter. So stieß das Team auch auf ein Problem, mit dem sich Data-Science-Studierende der h_da im zurückliegenden Semester intensiv beschäftigten: „Nicht alle Nieren, die gespendet werden, kommen zum Einsatz“, erklärt Biostatistikerin Jahn. Als „Organ Discard“ bezeichnet man das Phänomen, dass sich innerhalb der entscheidenden Stunden nach der Spende eines Organs nicht immer schnell genug ein dazu passender Patient finden lässt.
„Es gibt Fälle, in denen Patientinnen oder Patienten ein Organ ablehnen, weil sie beispielsweise selbst noch sehr jung sind, die Niere aber von einem älteren Spender stammt.“ Die erste Klinik, die das Organ angeboten bekommt, hat deshalb nur wenige Stunden Zeit für die Entscheidung. Dann ist die nächste Klinik dran. In einem Spin-off aus dem Hauptprojekt haben Studierende von Jahn und Grieser zu dieser Discard-Problematik interaktive Diagramme entwickelt: „Dort kann man Organdaten eingeben und die Wahrscheinlichkeit abschätzen, ob eine Niere akzeptiert oder zurückgewiesen wird“, so Grieser.
Ein erster Testfall für das Modell der Studierenden: Der Leiter eines Transplantationszentrums berichtete in einem Projekttreffen von einem Patienten auf der Intensivstation. Man wolle versuchen den Kreatininwert zu senken – weil die Erfahrung zeige, dass eine Transplantation dann besser funktionieren könne. Testweise gab der Arzt die Patientendaten in das Modell der Studierenden ein, veränderte den Kreatininwert und prompt änderte sich die prognostizierte Akzeptanzwahrscheinlichkeit. Das Fazit: „Mit diesem Ansatz kann man etwas anfangen.“
Erklärbarkeit schafft Akzeptanz
Eine Erkenntnis hat Jahn und Grieser im Projekt mit ihren Studierenden besonders erstaunt: Es zeigte sich, dass Prognosen nicht unbedingt besser werden, je komplexer das KI-System ist. „Die Deep-Learning-Verfahren, die derzeit in aller Munde sind, haben in unserem Studierendenprojekt nicht besser abgeschnitten als ein relativ einfaches Verfahren“, berichtet Antje Jahn. Ursache sei die vergleichsweise geringe Menge an Daten. „Wir haben hier nicht Milliarden Datensätze, sondern ein paar Tausend.“
Machine Learning und Deep Learning – Was steckt dahinter?
„Deep Learning ist eine Spezialform des Machine Learnings. Als Machine Learning bezeichnet man generell alle Ansätze, mit denen man aus Daten ‚Vorhersagemaschinen‘ baut. Wir nennen solche Vorhersagemaschinen ‚Modelle‘. Ein Machine-Learning-Verfahren, das schon seit den 1950er-Jahren bekannt ist, basiert auf der Imitation der neuronalen Informationsverarbeitung im menschlichen Gehirn. Man bezeichnet das als ‚Neuronales Netz‘. Informationen tröpfeln quasi durch dieses Netz von Neuronen hindurch – und am Ende kommen neue Informationen heraus. Am Anfang waren diese Modelle sehr simpel. Der Riesenboom hat erst vor zehn Jahren angefangen, als die Rechenkapazitäten von Computern begannen immens zu steigen. Heute kann man nicht nur 1000 Neuronen miteinander verschalten wie früher, sondern 1000 Millionen. Diese großen Netze mit Milliarden von Verknüpfungen nennt man Deep Neural Networks. Sie können hochkomplexe Muster speichern und verarbeiten. Den Ansatz, Komplexität durch Komplexität zu bewältigen, nennt man Deep Learning.“ - Prof. Dr. Gunter Grieser
Der Vorteil weniger komplexer Systeme liegt auf der Hand: Je einfacher das Modell, desto einfacher sind die Ergebnisse zu erklären. „In einer gesundheitlich kritischen Situation will man nicht nur eine Prognose, man will auch wissen, wie sie zustande kommt und ob es Faktoren gibt, die man selbst beeinflussen kann“, sagt Antje Jahn. Die sogenannte ‚Explainability‘ sei deshalb ein zentraler Punkt, wenn es um die Akzeptanz neuer Methoden geht. „Dazu hat es in den letzten Jahren große Fortschritte gegeben – und die machen wir uns für unser Modell zunutze.“
Interdisziplinäres Arbeiten ist der Schlüssel
Noch sei das Unterstützungstool in der Entwicklung und weit entfernt von der praktischen Anwendung, betonen beide Forschenden. „Da hat noch kein Mediziner im Detail draufgeschaut“, stellt Grieser klar. „Wahrscheinlich stecken daher noch Fehler im System. Aber das Prinzip stimmt.“ Um auf dem Weg zur Anwendung weiterzukommen, sollen in einem Folgeprojekt Expertinnen und Experten aus der Medizin an Bord geholt werden. „Das ist etwas, wofür unser Projekt exemplarisch steht: Interdisziplinäres Arbeiten ist bei solchen Fragestellungen unverzichtbar. Ich bin davon überzeugt, dass man Machine Learning nicht ohne Expertenwissen machen kann“, bilanziert Professorin Jahn. Auch wenn viele in Zeiten von ChatGPT & Co. das vielleicht vermuten.
Ähnliche Artikel
Projekt an der Schnittstelle von Mathematik, Informatik und Medizin: „Das Chaos hat System“
KI für Tierschutz in Südafrika: Zwischen Zecken und Elefanten
Hochschule digitalisiert Kulturerbe in Jordanien: Virtuelle Wüstenwelten
Kontakt zur Wissenschaftsredaktion
Christina Janssen
Wissenschaftsredakteurin
Hochschulkommunikation
Tel.: +49.6151.533-60112
E-Mail: christina.janssen@h-da.de
Fotografie: Markus Schmidt