BMBF-Projekt TraMeExCo

Transparent Medical Expert Companion

Ziel dieses Projekts ist die Erforschung und Entwicklung geeigneter Methoden zum robusten und erklärbaren Maschinellen Lernen auf zwei komplementären Anwendungen aus dem Gesundheitsbereich. Dazu soll der Nachweis der Möglichkeit einer (diagnostischen) Vorhersage auf komplexen Daten und der damit verbundenen Transparenz und Erklärung dieser Entscheidung gegenüber dem klinischen Fachpersonal mittels geeigneten Verfahren erbracht werden. Ein weiteres Ziel ist es, durch die Modellierung von Unsicherheiten in den Eingangsdaten eine Fehlerabschätzung der Vorhersagen zu ermitteln. Als Fallbeispiele werden dabei zwei Szenarien der klinischen Routineversorgung adressiert (Pathologie, Schmerzanalyse). Als Ergebnis entstehen zwei prototypische „Transparente Begleiter für Medizinische Anwendungen“ für diese beiden klinischen Fragestellungen. 

An der Universität Bamberg steht die Konzeption, Umsetzung und Erprobung von Verfahren zur Erklärbarkeit von diagnostischen Systementscheidungen im Fokus. Dabei werden, in Kooperation mit Fraunhofer HHI, insbesondere im Kontext von Deep Learning entwickelte Erklärungsansätze wie LRP und LIME mit Verfahren der Induktiven Logischen Programmierung kombiniert, um domänenrelevante temporale und räumliche Aspekte abzubilden. In Kooperation mit Fraunhofer IIS werden entsprechende Erklärungsansätze für DNN Klassifikatoren aus den Bereichen Pathologie und Schmerzanalyse untersucht, wobei insbesondere auch die Berücksichtigung von Expertenwissen sowie der Umgang mit visuellen (nicht benannten) Merkmalen betrachtet wird. Schließlich werden verschiedene Typen von Erklärungen, insbesondere visuelle und sprachliche, hinsichtlich ihres Einflusses auf Vertrauen in Systementscheidungen evaluiert und erste Schritte hin zu einem interaktiven Lernansatz prototypisch umgesetzt.

*Das im Prototypen gezeigte Bildmaterial stammt von der virtuellen Mikroskopie der Universität des Saarlandes. Es dient nur der Veranschaulichung und wird nicht im Rahmen des Projekts verarbeitet. Die verwendeten Bilder zeigen ausschließlich gesundes Gewebe.


Presseartikel und Rundfunkbeiträge:

  • Ärzte Zeitung online, Der Nutzen der Künstlichen Intelligenz - und ihre Nebenwirkungen (am 20.07.2021) -- [Artikel als PDF(95.6 KB, 2 Seiten)]
  • Süddeutsche Zeitung (2.7.2021, S. 43), Vorbereitet auf die Zukunft - Krebserkennung, Weltraumtechnik und sicherer Verkehr: Auch in Bayern wird an künstlicher Intelligenz geforscht. Drei Beispiele. [Artikel online]
  • ZEIT Campus online, Digitale Welt – digitale Wissenschaft (November 2020) -- [Artikel als PDF(338.9 KB, 5 Seiten)]
  • Český rozhlas Plus, Forschende des TraMeExCo Projekts im Interview mit dem tschechischen Rundfunk (am 11.11.2020).
  • TVO, Nachgefragt 2020. 13 neue Professuren für Künstliche Intelligenz in Oberfranken (am 12.06.2020) -- [Link]
  • MedtechLIVE, NürnbergMesse 2020. Künstliche Intelligenz: Die rechte Hand der Medizin von Morgen (am 03.02.2020) -- [Link]
  • ARD-alpha 2019. Lauterbach - Der Zukunft auf der Spur: Von der Emotionserkennung zur Schmerzdiagnose (am 17.06.2019) -- [Link]
  • Wissenschaftsjahr 2019. Künstliche Intelligenz soll transparenter werden (am 26.03.2019) -- [Link]
  • Universität Bamberg 2019. Wenn Mensch und Künstliche Intelligenz gemeinsam Diagnosen stellen (am 21.03.2019) -- [Link]
    • erschienen außerdem in: Journal Onkologie (journalonko.de), am 21. März, mangement-krankenhaus.de, am 22. März, medizin-und-elektronik.de, am 28. März, Das Krankenhaus, im April, abitur-und-studium.de, am 21. März, management-krankenhaus.de, am 15. Mai, elektronikpraxis.de, am 15. April

Publikationen und Vorträge:

 

Publikationen

 

Finzel B., Tafler D., Thaler A., Schmid U. (2021).Multimodal Explanations for User-centric Medical Decision Support Systems. Association for the Advancement of Artificial Intelligence Fall 2021 Symposium in HUman partnership with Medical Artificial iNtelligence (AAAI-HUMAN.AI, virtual event, 4.-6.11.2021). -- [Paper]

Finzel B., Kollmann R., Rieger I., Pahl J., Schmid U. (2021). Deriving Temporal Prototypes from Saliency Map Clusters for the Analysis of Deep-Learning-based Facial Action Unit Classification. FG Knowledge Discovery und Machine Learning. LWDA 2021 at MCML, (LWDA, 01.09–03.09.2021., Munich, Germany). -- [Paper]

Finzel B., Tafler D., Scheele S., Schmid U. (2021). Explanation as a Process: User-centric Construction of Multi-level and Multi-modal Explanations. 44th German Conference on Artificial Intelligence, (KI, 27.9.-1.10.2021, Berlin, Germany). -- [Paper] - Best Paper Award Nominierung

Schwalbe G., Finzel B. (2021). XAI Method Properties: A (Meta-)study. submitted to Data Mining and Knowledge Discovery -- [Article]

Bruckert S., Finzel B., Schmid U. (2020), The next generation of medical decision support: a roadmap towards transparent expert companions. Frontiers in Artificial Intelligence, 3, p. 75 -- [Article]

Deuschel J., Finzel B., Rieger I. (2020), Uncovering the Bias in Facial Expressions. FORSCHEnde FRAUEN Kolloquium, Bamberg University Press (zur Veröffentlichung angenommen). -- [Article], [Videobeitrag]

Finzel, B., (2020), Korrigierbares maschinelles Lernen mithilfe wechselseitiger Erklärungen am Beispiel der Medizin. Vol. 44, Medizininformatik. Gesellschaft für Informatik e.V.. (S. 14-17). -- [Article]

Rieger I., Kollmann R., Finzel B., Seuss D., Schmid U. (2020), Verifying Deep Learning-based Decisions for Facial Expression Recognition. 28th European Symposium on Artificial Neural Networks, Computational Intelligence and Machine Learning (ESANN, 22-24.4.2020, Bruges, Belgium). -- [Paper]

Schmid U., Finzel B. (2020), Mutual Explanations for Cooperative Decision Making in Medicine. Künstliche Intelligenz, 34(2), 227–233. -- [Article]

Rieger I., Finzel B., Seuß D., Wittenberg T., Schmid U. (2019), Make Pain Estimation Transparent: A Roadmap to Fuse Bayesian Deep Learning and Inductive Logic Programming (Poster). 41st Annual International Conference of the IEEE Engineering in Medicine & Biology Society (EMBC, 23.-27. Juli 2019, Berlin). --  [Abstract](344.0 KB, 1 Seite), [Poster](4.9 MB, 1 Seite)

Finzel B., Rabold J., Schmid U. (2019), Explaining Relational Concepts: When Visualisation and Visual Interpretation of a Deep Neural Network's Decision are not enough (Abstract). Europäische Konferenz zur Datenanalyse (ECDA, 18.-20. März 2019, Bayreuth), Special Session on Interpretable Machine Learning, Book of Abstracts, p. 60 -- [Abstract]

 

Vorträge

 

  • Schmid U. (2021), Nachvollziehbarkeit von KI-Systemen aus technischer Sicht, Verbraucherrechtstage 2021 für das Bundesministerium der Justiz und für Verbraucherschutz, Deutschland und Europa auf dem Weg zu einer Regulierung von nachhaltiger Künstlicher Intelligenz, Berlin/virtuell, 12.7.2021
  • Finzel B., Rieger I. (2021), Künstliche Intelligenz - Konkurrenz oder Partnerschaft, Frauennetzwerk Fürth (virtual event), 08.06.2021 -- [Event]
  • Finzel B. (2021), Towards a hybrid explanation framework, Fraunhofer ITEM at group of Prof. Dr. Lena Wiese, 02.06.2021. -- [Website of Institute]
  • Finzel B. (2021), A hybrid explanation framework for decision-making in medicine, ADA Day Fraunhofer IIS, 25.05.2021. -- [Website of Institute]
  • Schmid U. (2021), Hybrid artificial intelligence -- Integrating learning and reasoning to avoid the data engineering bottleneck, Öffentliche Ringvorlesung Digitalisierung der Fakultät für Informatik, TUM, virtuell, 17.5.2021
  • Schmid U. (2021), Keynote-Sprecherin bei der GI Fachgruppentagung Frauen und Informatik zum Thema ``KI und Ethik'', München/virtuell, 24.4.2021
  • Schmid U. (2021), The Third Wave of Artificial Intelligence -- From Blackbox Machine Learning to Explanation-Based Cooperation, AI Colloquium, Association for AI in Science and Industry (AAISI), 20.4.2021
  • Schmid U. (2020),Die Dritte Welle der KI - Vom rein datengetriebenem Blackbox Lernen zu interaktiven und erklärbaren Ansätzen, Online Vortrag, VDI-Netzwerk Künstliche Intelligenz, 24.11.2020
  • Schmid U. (2020),Gemeinsam klüger -- Erklärbares und interaktives maschinelles Lernen, dib Tagung 14.11.2020, Stuttgart
  • Schmid U., Finzel B. (2020),Human-AI partnerships for dependable, transparent and comprehensible medical diagnostics, Lecture Series AI + Health, University Luxembourg, (virtuell), 4.11.2020
  • Schmid U. (2020),Die Dritte Welle der KI -- Vom rein datengetriebenem Blackbox Lernen zu interaktiven und erklärbaren Ansätzen, eingeladener Vortrag auf der KI Session auf der Jahrestagung der GI 2020, 30.9.2020 (Karlsruhe/virtuell)
  • Finzel B. et al. (2020), Uncovering the Bias in Facial Expressions, FORSCHEnde FRAUEN Kolloquium der Universität Bamberg, 23.-30.06.2020 -- [Program], [News], [Article], [Video]
  • Schmid U. (2020),Die Dritte Welle der KI -- Vom rein datengetriebenem Blackbox Lernen zu interaktiven und erklärbaren Ansätzen,  E-Lecture, Bitkom AI Research Network, 8.5.2020
  • Finzel B. (2020), Constraints as Verbal Corrective Feedback -- An Inductive Logic Programming Approach to Generate and Adapt Explanations in Image Classification, Virtuelle Konferenz der GI Fachgruppe Frauen und Informatik, 25.04.2020 -- [Program]
  • Finzel B. (2021),Constraints as Verbal Corrective Feedback -- An Inductive Logic Programming Approach to Generate and Adapt Explanations in Image Classification, 1st GK Doctoral Symposium on Cognitive Science, 23.-24.01.2020 -- [Abstract]
  • Schmid U., Wittenberg T. (2019),TraMeExCo - Medical Expert Companion (Vortrag). All-Hands-Meeting (5. Juni 2019, Dortmund), Förderschwerpunkt Maschinelles Lernen des BMBF. -- [Slides](2.3 MB, 14 Seiten), [Poster](1.2 MB, 1 Seite)
  • Finzel B., Schmid U. (2019),Erklärbare KI für medizinische Anwendungen. 49. Kongress der Deutschen Gesellschaft für Endoskopie und Bildgebende Verfahren e.V. (28.-30. März 2019, Stuttgart), Track der Deutschen Gesellschaft für Biomedizinische Technik "Krankenhaus der Zukunft". -- [Slides](601.5 KB, 15 Seiten), [Programm]

 


Studentische Arbeiten:

 

Simon Kuhn: Strategies for Privacy-preserving Classification of Facial Expressions (MA Angewandte Informatik, in progress)

Simon Kuhn, 15 ECTS Projekt: Automatic Verification of Convolutional Neural Networks: A Landmark-based Approach for Facial Action Unit Classification

Patrick Hilme: Relational Learning from Visual Relevance Features (MA Angewandte Informatik, in progress)

Sonja Ruschhaupt: Explaining Image Classifications with Near Misses and Prototypes -- An Application to Facial Expression Analysis (BA Angewandte Informatik, in progress)

Nina Krob: Multimodal Explanations in Explanatory Dialogues (MA Angewandte Informatik, in progress)

Deepika Arneja: Landmark-based Classification of Facial Expressions (MA Software Systems Science, in progress)

Antonia Höfer: Enhancing the Interactive Machine Learning Companion LearnWithME with Global Constraints for Explanation-based Model Correction (BA Angewandte Informatik, in progress)

Rene Kollmann: Explaining Facial Expressions with Temporal Prototypes (Master Angewandte Informatik, abgeschlossen Dezember 2020)

Michael Fuchs:Towards Fast Interactive Machine Learning with Aleph (Bachelor Angewandte Informatik, abgeschlossen November 2020)

Isabel Saffer: Generierung und Evaluation von kontrastiven Erklärungen für die Paarweise Klassifikation von Partiell Geordneten Tumorklassen in der Histopathologie (Arbeitstitel, Bachelor Angewandte Informatik, Generating and Evaluating Contrastive Explanations for Pairwise Classification of Partially Ordered Tumorclasses in Histopathology, abgeschlossen August 2020)

Nina Krob: Ausdrucksstärke und Effizienz in der Generierung von Erklärungen: Vergleich von Association Rule Mining und Induktiver Logischer Programmierung für Interpretierbare Klassifikation von Schmerz (Bachelor Angewandte Informatik, abgeschlossen Juli 2020)

Bettina Finzel: Explanation-guided Constraint Generation for an Inverse Entailment Algorithm (Master Angewandte Informatik, abgeschlossen Sept. 2019)

Simon Kuhn: Identifying Near Misses for Relational Concepts with Graph Matching – Explaining Classifier Decisions of Facial Expressions (Bachelor Angewandte Informatik, abgeschlossen Juni 2019)


Vorarbeiten:


Weitz, Hassan, Schmid, Garbas (2018), Towards Explaining Deep Learning Networks to Distinguish Facial Expressions of Pain and Emotions. Forum Bildverarbeitung 2018 (Fraunhofer IOSB) - ausgezeichnet mit dem Best Paper Award. -- [Paper](1.8 MB, 14 Seiten), [Slides](1.6 MB), [Pressebericht]

Siebers, Schmid, Seuß, Garbas, Hassan, Kunz, Lautenbacher (2018), Interpretable Classification of Facial Expressions of Pain (Abstract). Europäische Konferenz zur Datenanalyse (ECDA, 4.-6. July 2018, Paderborn), Special Session on Interpretable Machine Learning -- [Abstract]

Schmid (2018), Inductive Programming as Approach to Comprehensible Machine Learning. Invited Talk at the KI 2018 Workshop on Formal and Cognitive Reasoning, CEUR Workshop Proceedings, Vol. 2194. -- [Paper]

Rabold, Siebers, Schmid (2018), Explaining Black-Box Classi ers with ILP - Empowering LIME with Aleph to Approximate Non-linear Decisions with Relational Rules. ILP 2018: 105-117 -- [Paper]

Siebers, Schmid, Seuß, Kunz, Lautenbacher (2016),
Characterizing Facial Expressions by Grammars of Action Unit Sequences - A First Investigation Using ABL. Information Sciences. Vol 329, 866-875 -- [Paper]