BMBF-Project TraMeExCo

Transparent Medical Expert Companion

  • Duration: Sept 2018--Aug 2021
  • Funding: BMBF IKT 2020, Förderbereich Maschinelles Lernen -- Automatisierte Analyse von Daten mittels Maschinellen Lernens
  • Researchers: Prof. Dr. Ute Schmid, Bettina Finzel
  • Partners: Fraunhofer-Institut für Integrierte Schaltungen IIS (Thomas Wittenberg, Smart Sensing; Jens Garbas, Intelligent Systems), Fraunhofer Heinrich-Hertz Institut HHI, Abteilung für Video Codierung & Analyse (Wojciech Samek)

Ziel dieses Projekts ist die Erforschung und Entwicklung geeigneter Methoden zum robusten und erklärbaren Maschinellen Lernen auf zwei komplementären Anwendungen aus dem Gesundheitsbereich. Dazu soll der Nachweis der Möglichkeit einer (diagnostischen) Vorhersage auf komplexen Daten und der damit verbundenen Transparenz und Erklärung dieser Entscheidung gegenüber dem klinischen Fachpersonal mittels geeigneten Verfahren erbracht werden. Ein weiteres Ziel ist, durch die Modellierung von Unsicherheiten in den Eingangsdaten eine Fehlerabschätzung der Vorhersagen zu ermitteln. Als Fallbeispiele werden dabei zwei Szenarien der klinischen Routineversorgung adressiert (Pathologie, Schmerzanalyse). Als Ergebnis entstehen zwei prototypische „Transparente Begleiter für Medizinische Anwendungen“ für diese beiden klinischen Fragestellungen.
An der Universität Bamberg steht die Konzeption, Umsetzung und Erprobung von Verfahren zur Erklärbarkeit von diagnostischen Systementscheidungen im Fokus. Dabei werden, in Kooperation mit Fraunhofer HHI, insbesondere im Kontext von Deep Learning entwickelte Erklärungsansätze wie LRP und LIME mit ILP-Verfahren kombiniert, um domänenrelevante temporale und räumliche Aspekte abzubilden. In Kooperation mit Fraunhofer IIS werden entsprechende Erklärungsansätze für DNN Klassifikatoren aus den Bereichen Pathologie und Schmerzanalyse untersucht, wobei insbesondere auch die Berücksichtigung von Expertenwissen sowie der Umgang mit visuellen (nicht benannten) Merkmalen betrachtet wird. Schließlich werden verschiedene Typen von Erklärungen, insbesondere visuelle und sprachliche, hinsichtlich ihres Einflusses auf Vertrauen in Systementscheidungen evaluiert und erste Schritte hin zu einem interaktiven Lernansatz prototypisch umgesetzt.