Projekt C05: Erklärbare Entscheidungen in kooperativer Mensch-Maschine-Interaktion finden

Bei medizinischen Entscheidungen müssen viele Informationen betrachtet und bewertet werden: Zum einen ist dafür medizinisches Hintergrundwissen notwendig, zum anderen sind bisherige Testergebnisse oder die Geschichte der Patient*innen relevant. Abgeleitet aus diesen Daten stellen Ärzt*innen eine Diagnose und entscheiden, wie die Patient*innen behandelt werden sollen. Die Informatiker*innen der Universität Bielefeld entwickeln im Projekt C05 ein intelligentes System, das den medizinischen Expert*innen dabei hilft, alle Möglichkeiten sowie deren Konsequenzen abzuwägen. Dafür beantwortet das System nicht nur Anfragen, sondern stellt auch aktiv Fragen und gibt Empfehlungen. Durch diese Interaktion gelangen die Expert*innen zu einer angemessenen Therapieentscheidung sowie einer Erklärung, warum die gewählte Behandlung verglichen mit möglichen anderen Optionen die geeignetste ist.
Forschungsgebiete: Informatik
Hilfskräfte
Lukas Kachel, Universität Bielefeld
Rakhi A S Nair, Universität Bielefeld
Marcel Nieveler, Universität Bielefeld
Daniel Prib, Universität Bielefeld
Publikationen
Formalizing cognitive biases in medical diagnostic reasoning
D. Battefeld, S. Kopp, in: Proceedings of the 8th Workshop on Formal and Cognitive Reasoning, 2022.
A Prototype of an Interactive Clinical Decision Support System with Counterfactual Explanations
F. Liedeker, P. Cimiano, in: 2023.
Dynamic Feature Selection in AI-based Diagnostic Decision Support for Epilepsy
F. Liedeker, P. Cimiano, in: 2023.
Revealing the Dynamics of Medical Diagnostic Reasoning as Step-by-Step Cognitive Process Trajectories
D. Battefeld, S. Mues, T. Wehner, P. House, C. Kellinghaus, J. Wellmer, S. Kopp, in: Proceedings of the 46th Annual Conference of the Cognitive Science Society, 2024.
A User Study Evaluating Argumentative Explanations in Diagnostic Decision Support
F. Liedeker, O. Sanchez-Graillet, M. Seidler, C. Brandt, J. Wellmer, P. Cimiano, in: n.d.
An Empirical Investigation of Users' Assessment of XAI Explanations: Identifying the Sweet-Spot of Explanation Complexity
F. Liedeker, C. Düsing, M. Nieveler, P. Cimiano, in: 2024.
ASCODI: An XAI-based interactive reasoning support system for justifiable medical diagnosing
D. Battefeld, F. Liedeker, P. Cimiano, S. Kopp, in: Proceedings of the 1st Workshop on Multimodal, Affective and Interactive EXplainable AI (MAI-XAI), 2024.
Alle Publikationen anzeigen