Projekt C03: Interpretierbares maschinelles Lernen: Erklärbarkeit in dynamischen Umgebungen

Maschinelle Lernverfahren werden heutzutage oft in dynamischen Umgebungen wie sozialen Netzwerken, Logistik und Verkehr, Handel und Finanzen oder im Gesundheitswesen verwendet, in denen kontinuierlich neue Daten erzeugt werden. Um auf mögliche Veränderungen der zugrunde liegenden Prozesse zu reagieren, und sicherzustellen, dass die gelernten Modelle weiterhin zuverlässig funktionieren, müssen diese fortlaufend adaptiert werden. Diese Veränderungen sollten, wie das Modell selbst, durch Erklärungen für Nutzer*innen transparent gehalten werden. Dabei müssen die anwendungsspezifischen Bedürfnisse berücksichtigt werden. Wie und warum sich verschiedene Arten von Modellen verändern, betrachten die Wissenschaftler*innen des Projekts C03 aus einer theoretisch-mathematischen Perspektive. Ihr Ziel ist es, Algorithmen zu entwickeln, die Modellveränderungen effizient und zuverlässig erkennen und intuitiv erklären.

 

Forschungsgebiete: Informatik

Projektleitung

Prof Barbara Hammer

Sonderforschungsbereich Transregio 318

Mehr zur Person

Prof. Dr. Eyke Hüllermeier

Sonderforschungsbereich Transregio 318

Mehr zur Person

Mitarbeiter*innen

Fabian Fumagalli

Sonderforschungsbereich Transregio 318

Mehr zur Person

Maximilian Muschalik, M.Sc.

Sonderforschungsbereich Transregio 318

Mehr zur Person

Pu­bli­ka­ti­o­nen

Agnostic Explanation of Model Change based on Feature Importance

M. Muschalik, F. Fumagalli, B. Hammer, E. Huellermeier, KI - Künstliche Intelligenz 36 (2022) 211–224.

iSAGE: An Incremental Version of SAGE for Online Explanation on Data Streams

M. Muschalik, F. Fumagalli, B. Hammer, E. Huellermeier, in: Machine Learning and Knowledge Discovery in Databases: Research Track, Springer Nature Switzerland, Cham, 2023.

iPDP: On Partial Dependence Plots in Dynamic Modeling Scenarios

M. Muschalik, F. Fumagalli, R. Jagtani, B. Hammer, E. Huellermeier, in: Communications in Computer and Information Science, Springer Nature Switzerland, Cham, 2023.

Incremental permutation feature importance (iPFI): towards online explanations on data streams

F. Fumagalli, M. Muschalik, E. Hüllermeier, B. Hammer, Machine Learning 112 (2023) 4863–4903.

On Feature Removal for Explainability in Dynamic Environments

F. Fumagalli, M. Muschalik, E. Hüllermeier, B. Hammer, in: ESANN 2023 Proceedings, i6doc.com publ., 2023.

SHAP-IQ: Unified Approximation of any-order Shapley Interactions

F. Fumagalli, M. Muschalik, P. Kolpaczki, E. Hüllermeier, B. Hammer, in: NeurIPS 2023 - Advances in Neural Information Processing Systems, Curran Associates, Inc., 2023, pp. 11515--11551.

Beyond TreeSHAP: Efficient Computation of Any-Order Shapley Interactions for Tree Ensembles

M. Muschalik, F. Fumagalli, B. Hammer, E. Huellermeier, Proceedings of the AAAI Conference on Artificial Intelligence 38 (2024) 14388–14396.

Alle Publikationen anzeigen