Wenn Mensch und Künstliche Intelligenz gemeinsam Diagnosen stellen
Angenommen, eine Software stellt die Diagnose einer schweren Krankheit wie beispielsweise Krebs, ohne die Entscheidung näher zu erklären. Vertrauen Menschen in dieser Situation dem Urteilsvermögen einer Maschine? „Maschinelle Lernverfahren helfen bei der Diagnose. Sind ihre Entscheidungen jedoch nicht nachvollziehbar für Ärzte und Patienten, sind die Ergebnisse mit Vorsicht zu genießen und dürfen in vielen sicherheitskritischen Kontexten wie der Medizin auch nicht verwendet werden“, sagt Dr. Ute Schmid, Professorin für Angewandte Informatik, insbesondere Kognitive Systeme, an der Universität Bamberg. Seit September 2018 beteiligt sich ihre Forschergruppe an einem interdisziplinären und institutionsübergreifenden Projekt, das automatisierte Diagnosen anhand einiger Beispiele transparent machen soll. Der sogenannte „Transparente Begleiter für Medizinische Anwendungen“ besteht aus zwei Prototypen: Ein Modell erkennt auf Videos Schmerz von Patienten, die ihr Empfinden selbst nicht mitteilen können, und erklärt die Einordnung. Ein weiterer Prototyp, der gerade entsteht, diagnostiziert nachvollziehbar Darmkrebs auf Basis von Bilddaten aus der Mikroskopie.
System lernt, Symptome zu erkennen und Diagnosen zu erklären
Damit die Software sowohl eine Krankheit erkennen als auch die Entscheidung begründen kann, kombiniert das Forscherteam unterschiedliche informatische Methoden miteinander. Mithilfe von tiefen neuronalen Netzen („Deep Learning“) können große Mengen an Bildern klassifiziert werden. Allerdings geben solche Verfahren keine Auskunft darüber, wie sie zu der Entscheidung gelangt sind. Weitere Verfahren sehen in das tiefe neuronale Netz hinein und machen entscheidende Merkmale für den Menschen greifbar. Sie heben in den Bildern zum Beispiel auffällige Stellen in dem betroffenen Darmgewebe hervor oder erklären durch Texte, warum ein bestimmter Ausschnitt der Gewebestruktur unter dem Mikroskop als krankhaft klassifiziert wurde.
An der Entwicklung des „Transparenten Begleiters für Medizinische Anwendungen“ sind verschiedene Forschergruppen beteiligt. Das Fraunhofer-Institut für Integrierte Schaltungen IIS aus Erlangen und das Fraunhofer Heinrich-Hertz Institut HHI aus Berlin erstellen ein Software-Programm mithilfe von „Deep Learning“-Verfahren. Für die jeweiligen Anwendungsfälle wird die Expertise des Pathologischen Instituts der Universität Erlangen unter Zusammenarbeit mit Prof. Dr. Arndt Hartmann sowie die Expertise der Professur für Physiologische Psychologie Bamberg, geleitet durch den Schmerzforscher Prof. Dr. Stefan Lautenbacher, einbezogen. „Das Forschungsprojekt erfordert Wissen auf unterschiedlichen Gebieten“, schildert PD Dr.-Ing. Thomas Wittenberg vom Fraunhofer IIS, der das Gesamtprojekt koordiniert. „Dank der interdisziplinären Zusammenarbeit ist es uns möglich, Begleiter für verschiedene medizinische Experten zu entwickeln, die wichtige Kriterien wie Transparenz und Erklärbarkeit erfüllen und dabei gute Diagnose-Ergebnisse liefern.“
Transparente Begleiter unterstützen medizinische Arbeit
Hauptaufgabe des Bamberger Teams ist es, diejenige Komponente zu programmieren, die die Entscheidung der tiefen neuronalen Netze verständlich erklärt. Die Forschenden nutzen insbesondere eine sogenannte „Induktive Logische Programmierung“. Ihr Ziel ist, dass das System beispielsweise nicht nur meldet, eine Person empfinde Schmerzen. Zusätzlich zeigt es auf einem Monitor an, warum es zu dieser Einschätzung kommt. Ein Text führt die Gründe auf: Die Augenbrauen der Person sind gesenkt, die Wangen erhöht, die Augenlider zusammengezogen. Auf dem Bild werden die Gesichtspartien, die für die Entscheidung ausschlaggebend waren, durch Einfärbungen und Pfeile markiert. Das System schätzt auch ab, wie sicher es sich mit der Diagnose ist.
„Die behandelnden Mediziner entscheiden, ob sie die Einschätzung teilen“, sagt Bettina Finzel, wissenschaftliche Mitarbeiterin an der Universität Bamberg. „Sie können die Algorithmen beeinflussen, indem sie Ergänzungen und Korrekturen im System vornehmen. Dadurch lernt die Software ständig dazu und bezieht das wertvolle Wissen der Experten mit ein.“ Letztlich bleibt die Verantwortung beim Menschen, der von den Transparenten Begleitern unterstützt, nicht ersetzt wird. Außerdem könnten Mediziner mithilfe der Transparenten Begleiter in Zukunft aus- und weitergebildet werden. Das Bundesministerium für Bildung und Forschung fördert das Projekt bis August 2021 mit insgesamt 1,3 Millionen Euro. Davon gehen rund 290.000 Euro an die Universität Bamberg.
Weitere Informationen unter: www.uni-bamberg.de/en/cogsys/research/projects/bmbf-project-trameexco
Bild „Schmid_Finzel“(2.0 MB): So ähnlich wird eine neue Software aussehen, die Ute Schmid (l.) und Bettina Finzel mitentwickeln, um Ärzte beim Diagnostizieren zu unterstützen.*
Quelle: Patricia Achter/Universität Bamberg
Bild „Mikroskopie“(1.6 MB): Mikroskopische Bilder des menschlichen Dickdarms veranschaulichen die Funktionsweise des neuen Systems.*
Quelle: Virtuelle Mikroskopie der Universität des Saarlandes (https://mikroskopie-uds.de/)
*Das im Prototypen gezeigte Bildmaterial stammt von der virtuellen Mikroskopie der Universität des Saarlandes. Es dient nur der Veranschaulichung und wird nicht im Rahmen des Projekts verarbeitet. Die verwendeten Bilder zeigen ausschließlich gesundes Gewebe.
Weitere Informationen für Medienvertreterinnen und Medienvertreter:
Kontakt für inhaltliche Rückfragen:
Prof. Dr. Ute Schmid
Professur für Angewandte Informatik, insbesondere Kognitive Systeme
Tel.: 0951/863-2860
ute.schmid(at)uni-bamberg.de
Medienkontakt:
Patricia Achter
Pressereferentin
Tel.: 0951/863-1146
patricia.achter(at)uni-bamberg.de